
في السنوات الأخيرة، أصبح الذكاء الاصطناعي جزءًا أساسيًا من الحياة اليومية ووجد طريقه إلى ميادين متعددة منها التعليم والإنتاج الأكاديمي، ما أثار نقاشًا واسعًا حول أخلاقيات الاستخدام وحدود الاعتماد على هذه التقنية. مع نمو الاعتماد على الذكاء الاصطناعي، تباينت الآراء بشأن دوره في دعم أو إضعاف القيم الإنسانية، وبرزت تساؤلات عديدة حول تأثيره على وعي الإنسان ونزاهة العملية التعليمية.
شهدت جامعة X حادثة لافتة حين اكتشفت لجنة المناقشة خلال تقييم مشروع تخرج أن الطالب لم يقم بإعداد العمل بنفسه بل استعان بالذكاء الاصطناعي بشكل كامل، ما أدى إلى انقسام في الآراء بين أعضاء الهيئة الأكاديمية. البعض اعتبر اللجوء للذكاء الاصطناعي بهذا الشكل انتهاكًا للأمانة والجدية، وطالب بإجراءات عقابية مشددة تصل للمنع الكلي عن الطالب، في حين رأى آخرون أن استخدام أدوات العصر يستدعي إعادة النظر في أساليب التقييم وأن الاستفادة منها لا تعني تلقائيًا الوقوع في الغش.
يدفع هذا الجدل لطرح تساؤلات محورية يحتاج المجتمع الأكاديمي لمناقشتها بعمق: هل يمكن للتقنيات الحديثة أن تعوض وعي الإنسان وتجربته؟ وهل الاعتماد الكامل على الذكاء الاصطناعي في إنجاز الأعمال يعد مساسًا بالأخلاق الأكاديمية؟ وما هي السبل المثلى لاستغلال الذكاء الاصطناعي في تطوير الفكر والقراءة دون التفريط في قيم الأصالة والاجتهاد الذاتي؟ كذلك، إلى أي جانب يجب أن تميل السياسات الجامعية بين التشدد أو تقنين الاستفادة من الذكاء الاصطناعي؟
بخصوص السؤال حول قدرة الذكاء الاصطناعي على الحلول محل الوعي الإنساني، أظهرت دراسة حديثة في علم النفس النمو والمعرفي أن الوعي لدى الإنسان ليس حالة جاهزة بل عملية مركبة تتشكل عبر التجارب الذاتية والتفاعل مع المحيط، بينما تفتقد الأنظمة الذكية إلى المعنى الوجودي والانفعالات الشخصية. يرى متخصصون أن الذكاء الاصطناعي قادر على معالجة البيانات وتوليد المحتوى نظريًا، لكنه يبقى عاجزًا عن الإحساس بمعاني ما ينتجه أو تفسيره من منظور ذاتي داخلي، بعكس الوعي البشري المرتبط بالمشاعر والتجربة كما يؤكد علماء الأعصاب.
وعند الحديث حول الجانب الأخلاقي في الاعتماد على هذه التقنية لإنجاز الأعمال الأكاديمية، يتبين أن الاستخدام ليس انتهاكًا للأخلاق في ذاته، بل يتحدد ذلك وفق نية المستخدم وطريقة الاستخدام. يشير عدد من المتخصصين في علم النفس والاجتماع إلى أن الفرق يكمن في هل اعتمد الطالب على التقنية لأغراض الفهم والدعم أم للتهرب والانتحال. المدارس الأخلاقية والدينية تدعو إلى اعتبار النية في الحكم على السلوك، كما شددت تقارير منظمات دولية مثل اليونسكو على ضرورة تحقيق الشفافية والمساءلة وعدالة الاستخدام. الذكاء الاصطناعي إذًا يمكن أن يمثل وسيلة فعالة إذا استخدم بشكل مسؤول ومدروس.
أما عن استغلال الذكاء الاصطناعي في مجال القراءة وتطوير الفهم، فإن الاتجاه الأكاديمي المعاصر يرى في التقنية رفيقًا محفزًا على التفكير والتحليل لا بديلاً عن الجهد الذهني للمتعلم. إذ إن التعلم الفعال يتطلب ممارسة المهارات الذهنية وليس الاعتماد الكلي على أجهزة تربط بين المعلومات بشكل آلي. يشدد علماء التربية المعاصرون على أهمية أن يكون الذكاء الاصطناعي وسيلة لتوسيع المدارك، وليس ذريعة للكسل أو التغاضي عن تطوير القدرة النقدية الذاتية. وعند حسن الاستعمال تصبح التقنية نعمة تعين على تجاوز الصعوبات وتطوير مستوى القراءة دون إلغاء الدور الأساسي للإنسان.
فيما يتعلق بكيفية التعامل مع من يستخدم الذكاء الاصطناعي بوصفه مصدرا رئيسيا في التحصيل الأكاديمي، تنحاز بعض الأصوات إلى ضرورة معاقبة المخالفين بأساليب تهذيبية مثل الرسوب أو إعادة المشروع بدلا من اللجوء إلى الإقصاء الكامل. ذلك لأن الجامعات أصبحت تعتمد بشكل واسع على التقنية الرقمية في تعليم وتقييم الطلبة، ولا يصح تجاهل هذا الواقع عند وضع القواعد. يتفق المهتمون بالتربية الحديثة على أن العقوبات يجب أن تحمل رسالة تعليمية وبُعدا تقويميا، بحيث يساعد الإجراء المتخذ الطالب على تصحيح السلوك واكتساب الأخلاقيات المرغوبة بدل الاكتفاء بالعقوبات القاسية التي تعزل المتعلم عن الحياة الجامعية.
يؤكد كثير ممن يعيشون الواقع الجامعي أن مواجهة التحول الرقمي والتقني تتطلب إعادة النظر في المفاهيم التقليدية المرتبطة بالأمانة والإبداع والاجتهاد، بحيث يتاح للطلبة والمدرسين العمل المشترك على رسم خطوط واضحة بين الاستخدام المشروع لأدوات الذكاء الاصطناعي والاعتماد المفرط عليه أو الانتحال. يشكل الذكاء الاصطناعي اليوم أداة داعمة للبشرية إذا استُخدم بحكمة، بينما الخطر الحقيقي يكمن في التعامل الجامد أو غياب الوعي والمسؤولية في الاستفادة منه. على المؤسسات التعليمية أن تساهم في ترسيخ ثقافة التمييز بين التمكين المعرفي والاتكالية غير المنتجة، مع التركيز على بناء الوعي الأخلاقي وتوجيه الطاقات نحو الاستخدام الإيجابي للتقنيات الحديثة.