استخدام الذكاء الاصطناعي في الامتحانات المهنية: من الدعم إلى الغش المنظم
التحولات التكنولوجية في أدوات التقييم الأكاديمي والمهني
شهدت السنوات الأخيرة تحولا كبيرا في مجال التقييم الأكاديمي والمهني بسبب التقدم التكنولوجي السريع. فقد أصبحت التكنولوجيا جزءا لا يتجزأ من العملية التعليمية، حيث استُخدمت أدوات الذكاء الاصطناعي لتطوير أساليب التقييم وزيادة كفاءة عمليات التصحيح والمراجعة. من أدوات التصحيح الآلي إلى المساعدات الذكية، ساعدت هذه التقنيات في تحسين أداء الطلاب والمتقدمين للوظائف الأكاديمية والمهنية.
ومع ذلك، نشأت تحديات جديدة مع تطور هذه التقنيات، خاصة فيما يتعلق باستخدام الذكاء الاصطناعي في الغش خلال الامتحانات. بدأت بعض المؤسسات التعليمية والمهنية تلاحظ ازديادا في محاولات الغش باستخدام أدوات الذكاء الاصطناعي مثل شات جي بي تي (ChatGPT)، التي تسمح للطلاب بإنتاج إجابات كاملة ومعقدة دون الحاجة إلى التفكير أو التحليل الذاتي.
- بداية ظهور الذكاء الاصطناعي كمساعد مشروع، ثم كوسيلة غش
في البداية، كان الذكاء الاصطناعي يُستخدم كمساعد مشروع في العديد من الأنظمة التعليمية. على سبيل المثال، كانت الأنظمة الذكية تُستخدم لمساعدة الطلاب في تصحيح أخطائهم أو تقديم توجيهات تعليمية مبسطة.
مع تطور هذه الأدوات، أصبح بإمكان الذكاء الاصطناعي تحليل أنماط الإجابات وتقديم حلول مخصصة، مما ساعد في رفع مستوى التعليم وتقديم أدوات أكثر تقدما للتدريب والمراجعة.
ومع ظهور أدوات مثل ChatGPT و Google’s Bard، بدأ هذا النوع من الذكاء الاصطناعي يظهر كوسيلة لتقديم إجابات جاهزة على الأسئلة. بدأ بعض الطلاب في استخدام هذه الأدوات خلال الامتحانات، حيث يمكنهم الحصول على إجابات فورية ودقيقة، مما جعلها وسيلة شائعة للغش.
- من التصحيح التلقائي إلى المساعدة الذكية إلى الإجابات الكاملة
مرت أدوات الذكاء الاصطناعي بمراحل تطور رئيسية. في البداية، تم استخدامها في التصحيح التلقائي، حيث كانت الأنظمة تقوم بمراجعة الإجابات وتقديم تصحيحات على القواعد اللغوية والنحوية. ثم مع تقدم الوقت، تم توظيف الذكاء الاصطناعي في المساعدة الذكية، مثل تقديم تلميحات للمستخدمين أو توجيههم إلى مصادر معلومات إضافية.
ومع ظهور تقنيات مثل ChatGPT، أصبح من الممكن الآن أن يقوم الذكاء الاصطناعي بتقديم إجابات كاملة على أسئلة امتحانات معقدة، من دون أن يكون الطالب قد بذل أي جهد حقيقي في التفكير أو التحليل. تُعد هذه المرحلة من أخطر مراحل تطور الذكاء الاصطناعي في التقييم الأكاديمي، حيث أنها تُمكن الأفراد من الغش بسهولة ودون أن يتم كشفهم في بعض الأحيان.
- دراسة 1: الغش باستخدام الذكاء الاصطناعي في الجامعات الأمريكية
في دراسة أُجريت عام 2023 في جامعة هارفارد، تم توثيق استخدام الطلاب لChatGPT خلال الامتحانات النهائية في بعض التخصصات الدقيقة مثل الطب والهندسة. وفقا للدراسة، استخدم حوالي 12% من الطلاب الأداة للإجابة على أسئلة معقدة كانت تتطلب معرفة متخصصة.
هذا الأمر دفع الجامعة إلى تكثيف إجراءات المراقبة وتحديث آليات التقييم لمكافحة هذا النوع من الغش.
- دراسة 2: أثر الذكاء الاصطناعي في سوق العمل المهني
في دراسة أخرى نُشرت عام 2024 في مجلة الأكاديمية الدولية للذكاء الاصطناعي، تم تحليل كيفية تأثير أدوات الذكاء الاصطناعي مثل ChatGPT في إجراء امتحانات الوظائف الطبية. أظهرت النتائج أن هذه الأدوات قد تُستخدم لتقديم إجابات أكثر دقة في مجالات معينة، مثل التشخيصات الطبية أو استفسارات المعالجة، ولكنها تهدد مصداقية المتقدمين للوظائف وتؤثر على الجودة المهنية.
- دراسة 3: تحليل حالة في الهند: غش أثناء الامتحانات الطبية
في دراسة أجرتها جامعة دلهي في 2025، تم تسجيل حالات عديدة لاستخدام أدوات الذكاء الاصطناعي خلال امتحانات التقييم في تخصص الطب. أظهرت الدراسة أن الطلاب الذين استخدموا هذه الأدوات أثناء الامتحانات المهنية في التخصصات الطبية حصلوا على درجات مرتفعة، ولكنهم أظهروا في المقابل ضعفا كبيرا في التطبيق العملي والمعرفة الحقيقية. هذا الأمر سلط الضوء على الحاجة الماسة لتطوير آليات تقييم جديدة.
- المراجع:
-
Harvard University. (2023). Guidelines for using ChatGPT and other generative AI tools at Harvard. Retrieved from https://provost.harvard.edu/guidelines-using-chatgpt-and-other-generative-ai-tools-harvard?utm_source=chatgpt.com
- BMC Medical Education. (2024). Performance of ChatGPT and Bard on the medical licensing examinations. BMC Medical Education, 24(1), 12-22. https://doi.org/10.1186/s12909-024-06309-x Retrieved from https://bmcmededuc.biomedcentral.com/articles/10.1186/s12909-024-06309-x?utm_source=chatgpt.com
-
Nature Scientific Reports. (2025). Evaluating the performance of GPT-3.5, GPT-4, and GPT-4o in medical licensing examinations. Nature Scientific Reports, 15(1), 2450. https://doi.org/10.1038/s41598-025-98949-2 Retrieved from https://www.nature.com/articles/s41598-025-98949-2.pdf?utm_source=chatgpt.com