“الطالب” و”المؤسسة” وتوظيف الذكاء الاصطناعي
شهد العقد الأخير تطورا مذهلا في أدوات الذكاء الاصطناعي التوليدي، وعلى رأسها ChatGPT من شركة OpenAI، حتى أصبحت هذه الأدوات قادرة على إنتاج نصوص متقدمة تُضاهي ما يكتبه الإنسان. وبينما يبادر العديد من الطلاب إلى استخدامها في أداء الواجبات الجامعية، فإن الجامعات نفسها بدأت توظفها في صياغة السياسات، وإعداد التقارير، بل وحتى في الرد على الطلبات الأكاديمية.
المفارقة أن الطالب يُدان ويُحاسب تأديبيا إذا استخدم ChatGPT دون إذن، بينما لا تُوجه أي مساءلة أخلاقية إلى المؤسسة التعليمية التي تستخدم الأداة ذاتها. فهل نحن أمام معايير مزدوجة؟ وهل الأخلاق الأكاديمية باتت انتقائية بحسب موقع المستخدم؟ هذه الورقة تحاول تحليل هذه الازدواجية بعمق، واستكشاف أبعادها التربوية، الفلسفية، والسياسية.
1- الذكاء الاصطناعي التوليدي والمؤسسات التعليمية
تستخدم العديد من الجامعات والمؤسسات التعليمية أدوات الذكاء الاصطناعي لأغراض إدارية وعلمية متنوعة، منها:
- إعداد مسودات للوائح الأكاديمية.
- إنتاج تقارير دورية لتقويم الأداء الجامعي.
- الرد الآلي على استفسارات الطلاب (عبر chatbots مدعومة بـ GPT).
- دعم مكاتب العلاقات العامة وصياغة النشرات الرسمية.
بحسب تقرير صادر عن Universities UK (2023)، أكثر من 62% من الجامعات البريطانية صرّحت باستخدام الذكاء الاصطناعي في “وظائف تنظيمية وإدارية داخل الحرم الجامعي”.
1.1- مبررات الاستخدام المؤسسي
تبرر المؤسسات هذا التوجه على النحو التالي:
- تعزيز الكفاءة وتقليل الزمن الإداري.
- تحسين جودة اللغة والتواصل الرسمي.
- مواكبة التطور التقني العالمي.
- تجريب إمكانيات الذكاء الاصطناعي دون مساس بالعملية التعليمية المباشرة.
لكن هذه المبررات تطرح سؤالا: لماذا يُسمح للمؤسسة أن تستفيد من مزايا التقنية الحديثة، بينما يُحظر على الطالب ذلك؟
2- الاستخدام الطلابي تحت طائلة التجريم الأخلاقي
يواجه الطلاب الذين يستخدمون أدوات الذكاء الاصطناعي اتهامات صريحة بـ:
- انتهاك النزاهة الأكاديمية.
- الغش في التقييمات.
- انتحال العمل.
- الاعتماد على أطراف خارجية غير مصرّح بها.
بعض الجامعات توصلت إلى تطوير خوارزميات لكشف النصوص المنتجة عبر ChatGPT، بل وبدأت إدراج فقرة ضمن قواعد السلوك تحظر “الاستعانة بأنظمة توليد المحتوى غير البشرية”.
2.1- المفارقة الجوهرية
- هل الطالب ممنوع من استخدام الأدوات التي تساعده في التعلم بينما يُسمح للمؤسسة باستخدامها لتحسين كفاءتها؟
- لماذا يُشترط على الطالب التصريح عند استخدام ChatGPT، بينما لا تلتزم الجامعات بالشفافية في الإعلان عن استخدامه؟
هذه الأسئلة ليست تقنية، بل أخلاقية بامتياز.
3- تحليل فلسفي للأخلاقيات الانتقائية
1.3- أخلاقيات السياق والموقع
وفق نظرية الأخلاقيات السياقية (Contextual Ethics)، يُحكم على السلوك بناء على موقع الفاعل وغايته. لكن هل هذا يبرر المعايير المزدوجة؟
- الطالب: يُفترض أنه يتعلم، ولذلك يُطلب منه اجتهاد ذاتي.
- المؤسسة: يُفترض أنها تطبق الإدارة الفعالة، فيُرحب بتوظيف التقنية.
لكن في عصر يتعلم فيه الطالب مهارات القرن 21، من العدل إعادة تعريف الاجتهاد.
– غياب ميثاق موحد
لا توجد معايير أخلاقية ملزمة على نطاق دولي تحدد استخدام الذكاء الاصطناعي في التعليم بشكل متوازن بين الطلاب والمؤسسات. فكل جامعة تضع معاييرها بمعزل عن غيرها، وتطبقها أحيانا بمزاجية.
4- دراسات حالة تكشف المفارقة
● حالة: جامعة هارفارد
في 2023، أطلقت جامعة هارفارد مبادرة “Teaching with AI”، والتي تتيح للأساتذة والكوادر الإدارية استخدام ChatGPT في الإعداد للمحاضرات، والتخطيط الإداري، بشرط التوثيق الشفاف. لكن، في الوقت نفسه، شددت في دليل الطالب على أن “أي نص غير منتج ذاتيا يُعد انتهاكا صريحا للنزاهة الأكاديمية”.
● حالة: جامعة بنسلفانيا
أصدرت الجامعة تقريرا داخليا يستخدم ChatGPT في تحليل بيانات الطلاب. التقرير لم يُصنف كإنتاج مشبوه، بينما لو استخدم الطالب ChatGPT في تحليل بيانات بحثه، يُطالب بإثبات مساهمته الشخصية.
- نحو سياسة أخلاقية متوازنة
مقترحات عملية لإعادة التوازن الأخلاقي:
- توحيد مدونة السلوك الأخلاقي لاستخدام الذكاء الاصطناعي تشمل كل الأطراف: الطالب، الأستاذ، الإدارة.
- إلزام المؤسسات بالإفصاح عن توظيف أدوات الذكاء الاصطناعي رسميا كما يُلزم الطالب بالإفصاح.
- تصنيف أنواع الاستخدام (مساعد، توليدي كلي، تحريري) وتحديد المقبول منها.
- تضمين أخلاقيات الذكاء الاصطناعي في المناهج الجامعية كجزء من التربية على النزاهة الرقمية.
- التمييز بين الغش والتعلم المساعد ضمن أطر تقييم مرنة ومتجددة.
خلاصة:
ليست المشكلة في ChatGPT، بل في الطريقة التي نتعامل بها معه. فبينما يتطور الذكاء الاصطناعي بسرعة، تتأخر المؤسسات التعليمية في بناء مواقف أخلاقية عادلة ومتوازنة تجاهه. ما يُعدّ إبداعا إداريا في جهة، يُعامل كخيانة أكاديمية في جهة أخرى.
ولعل التحدي الأكبر في المرحلة المقبلة هو بناء أخلاقيات جديدة لا تقوم على التناقض، بل على الانسجام والشفافية.
- المراجع:
-
UNESCO. AI and Education: Guidance for Policy-makers. Paris: UNESCO, 2021.
- Turnitin. “AI Writing and Academic Misconduct: Policy Implications.” 2023.
- Holmes, Wayne, Maya Bialik, and Charles Fadel. Artificial Intelligence in Education: Promises and Implications for Teaching and Learning. Boston: Center for Curriculum Redesign, 2019.
- Universities UK. Artificial Intelligence in Higher Education: Challenges and Opportunities. 2023.
-
Eaton, Sarah Elaine. “AI and Academic Integrity: Reconciling Technological Advancement and Ethical Standards.” International Journal for Educational Integrity 19, no. 1 (2023).