مسؤولية المؤسسات الأكاديمية تجاه التقييم والتقويم في عصر الذكاء الاصطناعي
بين التحديات والفرص
يشهد التعليم العالي تحولا جذريا مع تصاعد استخدام تقنيات الذكاء الاصطناعي (AI) في عمليات التقييم والتقويم. بينما توفر هذه التقنيات فرصا لتعزيز الكفاءة وتخصيص التعلم، تبرز تحديات أخلاقية وتربوية تتطلب من المؤسسات الأكاديمية تحمل مسؤوليات جديدة لضمان نزاهة وفعالية التقييمات.
1. التحديات الأخلاقية في تقييمات الذكاء الاصطناعي
- 1.1 التحيزات الخوارزمية وتأثيرها على العدالة التعليمية
تعتمد خوارزميات الذكاء الاصطناعي على كميات ضخمة من البيانات لتقديم تنبؤات أو قرارات، غير أن هذه البيانات قد تكون مشوبة بتحيزات تاريخية أو مجتمعية غير مرئية عند مرحلة جمعها أو تصميمها. هذا يعني أن الخوارزمية، دون قصد، قد تُعيد إنتاج هذه التحيزات داخل الأنظمة التعليمية، فتُقيّم أداء الطلبة بشكل غير عادل أو تُقدم توصيات أكاديمية تنحاز ضد فئات معينة.
فعلى سبيل المثال، إذا دُربت خوارزمية توصية على بيانات طلابية من بيئة حضرية دون تمثيل كاف للبيئات الريفية أو المهمشة، فإن فرص النجاح والتوصية الإيجابية قد تكون منحازة لغيرهم. وقد يؤثر ذلك سلبا في فرص الطلاب في الحصول على منح، أو دعم تعليمي إضافي، أو حتى قبولهم في تخصصات بعينها. كما تشير دراسات متعددة إلى أن بعض خوارزميات التصحيح الآلي تُظهر اختلافات في الدقة بين طلاب يتحدثون لهجات مختلفة أو ينتمون لثقافات غير سائدة.
ولتفادي تكريس هذا الشكل من الإقصاء الرقمي، يجب اعتماد آليات تحقق مستمرة من “عدالة الخوارزمية” (algorithmic fairness)، وضمان تنوع البيانات التدريبية لتشمل طلابا من مختلف السياقات الاجتماعية والثقافية والجغرافية. كما أن تطوير خوارزميات شفافة وقابلة للتفسير (Explainable AI) يُعد خطوة ضرورية، إذ يتيح للمؤسسات والأكاديميين تتبع منطق القرار وتصحيحه عند الحاجة، حماية لمبدأ تكافؤ الفرص داخل المنظومة التعليمية.
- 1.2 الشفافية والمساءلة في عمليات التقييم
تفتقر بعض أنظمة التقييم المدعومة بالذكاء الاصطناعي إلى الشفافية، مما يصعب على المعلمين والطلاب فهم كيفية اتخاذ القرارات التقييمية. هذا الغموض يعيق القدرة على تقديم ملاحظات بناءة ويقلل من الثقة في نتائج التقييم .(SpringerLink)
2. استراتيجيات المؤسسات الأكاديمية لمواجهة التحديات
- 2.1 تطوير سياسات واضحة لاستخدام الذكاء الاصطناعي
يجب على المؤسسات الأكاديمية وضع سياسات واضحة تحدد كيفية استخدام الذكاء الاصطناعي في التقييم، مع التأكيد على أهمية الشفافية والعدالة. تتضمن هذه السياسات تحديد الأدوار والمسؤوليات، وتوفير إرشادات للطلاب والمعلمين حول الاستخدام المسؤول للتقنيات .
- 2.2 تعزيز مهارات المعلمين في التعامل مع الذكاء الاصطناعي
توفير برامج تدريبية للمعلمين حول كيفية دمج الذكاء الاصطناعي في التقييم بفعالية وأخلاقية. تشمل هذه البرامج فهم قدرات وحدود التقنيات، وتطوير استراتيجيات لتقييم نتائج الذكاء الاصطناعي بشكل نقدي .(Frontiers)
3. فرص تحسين التقييم من خلال الذكاء الاصطناعي
- 3.1 التقييم التكيفي والشخصي
يوفر الذكاء الاصطناعي إمكانيات غير مسبوقة في مجال التقييم التكيفي، حيث تعتمد هذه الأنظمة على تحليل مستمر لأداء الطالب وتقدمه، ومن ثم تعديل مستوى الأسئلة والمحتوى تبعا لذلك. يتم استخدام تقنيات التعلم الآلي لفهم أنماط التعلم الفريدة لدى كل طالب، مما يساعد في تقديم اختبارات تتفاوت في الصعوبة، ويُراعي الفروق الفردية.
هذه الآلية تُمكّن المتعلم من تلقي تقييم يعكس قدراته الحقيقية دون ضغط أو إجحاف. كما يتمكن المعلم من تلقي تقارير تفصيلية دقيقة تبرز نقاط القوة والضعف لدى الطالب، مما يُيسّر إعداد خطط دعم شخصي فعالة. فضلا عن ذلك، فإن هذا النوع من التقييم يعزز من دافعية الطالب للتعلم ويقلل من الإحباط الناتج عن التقييمات الموحدة. التقييم التكيفي ليس فقط أداة قياس، بل وسيلة تعليمية بحد ذاتها تُسهم في بناء مسارات تعلم ديناميكية ومتقدمة.
- 3.2 تقليل العبء الإداري على المعلمين
تُعدّ المهام الإدارية المرتبطة بالتقييم من أكثر الأعباء التي تستهلك وقت المعلمين، خاصة في المؤسسات التي تعتمد على التقييم المستمر. وهنا يأتي دور الذكاء الاصطناعي في أتمتة العديد من هذه المهام مثل تصحيح الواجبات والاختبارات، وتوليد التقارير الأكاديمية، وحتى تتبع تقدم الطلبة على مدار الفصل الدراسي.
هذه الأتمتة تُسهم في تقليص الوقت المُستغرق في المهام الروتينية، مما يُتيح للمعلمين التفرغ أكثر للتخطيط التربوي، والتفاعل مع الطلاب، وتقديم دعم شخصي وفوري للمتعثرين. بالإضافة إلى ذلك، يمكن للذكاء الاصطناعي اقتراح أساليب تدريسية بديلة بناء على نتائج الطلبة، مما يحسّن من جودة العملية التعليمية.
وبمرور الوقت، تتراكم البيانات لتوفّر تحليلات تنبؤية دقيقة تساعد الإدارة الأكاديمية على اتخاذ قرارات مدروسة بخصوص تطوير المناهج أو تقويم المدرسين. وبذلك يتحول الذكاء الاصطناعي إلى شريك داعم للمعلم، لا مجرد أداة تقنية.
4. التوصيات المستقبلية للمؤسسات الأكاديمية
- وضع أطر أخلاقية واضحة: تحديد مبادئ توجيهية لاستخدام الذكاء الاصطناعي تضمن العدالة والشفافية.
- تعزيز التعاون بين الأقسام: تشجيع التعاون بين أقسام التكنولوجيا والتعليم لتطوير حلول تقييم متكاملة.
- الاستثمار في البحث والتطوير: دعم الأبحاث التي تستكشف تأثيرات الذكاء الاصطناعي على التقييم وتطوير أدوات جديدة.
- مشاركة الطلاب في تصميم التقييمات: إشراك الطلاب في عملية تصميم التقييمات لضمان ملاءمتها وفعاليتها.
خلاصة:
يمثل دمج الذكاء الاصطناعي في عمليات التقييم والتقويم تحديا وفرصة في آن واحد للمؤسسات الأكاديمية. من خلال تبني سياسات واضحة، وتوفير التدريب المناسب، وتعزيز الشفافية، يمكن للمؤسسات تحقيق توازن بين الابتكار والحفاظ على النزاهة التعليمية.
المراجع:
-
Bulut, O., et al. (2024). The Rise of Artificial Intelligence in Educational Measurement: Opportunities and Ethical Challenges. arXiv.(arXiv)
- Perkins, M., et al. (2023). The AI Assessment Scale (AIAS): A Framework for Ethical Integration of Generative AI in Educational Assessment. arXiv.(arXiv)
- Alkouk, W. A., & Khlaif, Z. N. (2024). AI-resistant assessments in higher education: practical insights from faculty training workshops. Frontiers in Education.(Frontiers)
- Chaudhry, M. A., et al. (2022). A Transparency Index Framework for AI in Education. arXiv.(arXiv)
- DigitalSaqr. (n.d.). Ethical AI in Student Assessment: Key Considerations.(Digital Saqr)
- The Guardian. (2024). More than half of UK undergraduates say they use AI to help with essays.(The Guardian)
- Financial Times. (2024). Educators warn AI must be a teaching – not a cheating – aid.(Financial Times)
- The Australian. (2024). Unis warned: chatbots taking over and return to ‘pen and paper’ futile.(The Australian)
- The Courier Mail. (2024). ‘Changed my career’: Student failed over AI allegations speak out.(couriermail)
-
My College. (2024). AI and assessment: Rethinking assessment strategies and supporting students in appropriate use of AI.(My College)