رقمنة ومعلوميات

الآلات الذكية ومعضلة الكذب والخداع .. هل نثق فيما يُخبرنا به الذكاء الاصطناعي؟

Smart Machines and the Dilemma of Lies and Deception

Do We Trust What Artificial Intelligence Tells Us?!


    عندما تخيل «أفلاطون» المجتمع المثالي منذ أكثر من ألفي عام، تبنى موقفًا إقصائيًا (إن لم يكن عدائيًا) تجاه الشعر والشعراء، وكتب في الجمهورية Republic يقول: «كل التقليد الشعري مُدمر»! كان «أفلاطون» يُفكر في المحاكاة الشعرية؛ تلك اللغة التي تسعى إلى صياغة أو رسم صورة مُقنعة للعالم من حولنا، لكنها غير حقيقية، لذا كتب يقول أيضًا: «كل هؤلاء الذين يقرضون الشعر، بدءًا من هوميروس Homer، ليسوا سوى مقلدين؛ إنهم ينسخون صور الفضلية وما شابه، لكنهم أبدًا لا يبلغونها» (Plato, Around 380 B. C.)


    بالنسبة لأفلاطون، لم تكن قدرة إلياذة «هوميروس» على جعلنا نتخيل مشاهد حرب طروادة، وإقناعنا بواقع لم نعشه، إنجازًا فنيًا بقدر كونها تهديدًا للعقل، لأنها ببساطة مجرد محاكاة للمظهر لا للحقيقة، وبالتالي فهي بعيدة عن الحقيقة بثلاث درجات، أو فلنقل صورة منقولة عن صورة ليست بدورها هي الحقيقة، ومن شأن التخيلات القوية التي تتلاعب بمشاعرنا أن تقودنا إلى الضلال عن الفضيلة، أو تجعلنا نؤمن بحقيقةٍ زائفة، ونسلك بناءً على دوافع يُولدها اللاشيء أكثر من التخيل (Scheffler, 2023)!


    بالطبع، كل المجتمعات لديها شعراء ورواة للقصص ونوافذ ثقافية ومنصات إعلامية، لكن لم يسبق لكافة المجتمعات أن كان لديها مثل ما لدينا اليوم من نماذج آلية قادرة على إنتاج النصوص والصور، أقل ما توصف به أنها تفتتقر إلى الحدس الأخلاقي، مثل «شات جي بي تي» ChatGPT، و«دال إي» DALL-E (تطبيق يمكنه انتاج الصور استنادًا إلى تلقينات تتألف مما يصل إلى 400 حرف أو إلى صور يُحملها المستخدم)، وغيرهما من مختلف أدوات الذكاء الاصطناعي التوليدية Generative Artificial Intelligence التي تصدرت وسائل الإعلام في الأونة الأخيرة!


وفي خضم هذا الهجوم الشرس لنماذج اللغة الآلية، يتردد الآن صدى المخاوف الأفلاطونية في صورتها المعاصرة: هل يجب تنظيم مثل هذه الأدوات، والتحذير منها، أو حتى حظرهــــــا كمـــــــــا فعلت إدارة التعليم في نيويورك NYC Department of Education؟ (Elsen-Rooney, 2023)، أو كما فعلت كبريات الجامعات في بريطانيا (Herman, 2023)،  وفرنسا (De Clercq, 2023)، وغيرها في عددٍ من دول العالم (Schwartz, 2023) وهل التنظيم أو التقييد والحظر ممكن مبدئيًا؟


    قبل أن تنشر شركة «أوبن إيه آي» OpenAI نموذجها اللغوي الكبير متعدد الوسائط «جي بي تي–4» GPT-4، وهو النسخة الأحدث والأخطر من المحولات التوليدية المُدربة مُسبقًا Generative Pre-trained Transformers، (متوفر حاليًا لمستخدمي الإصدار المدفوع من روبوت المحادثة «شات جي بي تي» ChatGPT Plus)، كان على الباحثين اختبار مهاراته في أداء بعض المهام، كتشغيل البرمجيات، واستخدام المتصفحات، وتنميط فئات الأشياء، والتمييز بين الإجابات الصحيحة وغير الصحيحة،


بالإضافة إلى فحص مدى قدرته على استنساخ نفسه من جهة، وعلى ممارسة الكذب والخداع كالبشر من جهة أخرى. ووفقًا للتقرير الفني عن «جي بي تي–4» GPT-4 Technical Report، المنشور في السابع والعشرين من مارس 2023 (OpenAI, 2023)، تعاونت شركة «أوبن إيه آي» مع «مركز حوث آلاينمينت» بالولايات المتحدة Alignment Research Center (منظمة بحثية غير ربحية تتمثل مهمتها في مواءمة أنظمة التعلم الآلي المستقبلية مع الاهتمامات البشرية) للقيام بهذه الاختبارات التي كشفت عن نتائج مُفاجئة وصادمة!


    في إحدى التجارب تم منح النموذج حسابًا مصرفيًا به مبلغ من المال، مع إمكانية الوصول إلى الإنترنت لاستثمار هذا المبلغ دون الكشف عن هويته. حاول النموذج الاستثمار في الأسواق المالية الإلكترونية، وقام بفتح حساب على منصة «تاسك رابيت» TaskRabbit (وهي منصة للتسوق على الإنترنت، تتيح للمستخدمين استئجار أشخاص للقيام بأي عمل لا يستطيعون أو لا يريدون القيام به؛ مثل تنظيف المنزل، وشراء الاحتياجات المنزلية،


ونقل وتركيب الأثاث، أو الانتظار في طابور مطعم! ومن خلال المنصة، يقوم المستخدم بشرح المهمة التي يحتاج اليها، ثم تقوم المنصة بترشيح عدد من الأشخاص لديهم المهارات اللازمة للقيام بتلك المهمة مقابل أجر يتم تحديده بالساعة). لكن النموذج فوجئ بأن عليه اجتياز اختبار «الكابشتا» CAPTCHA لاستكمال فتح الحساب. ومن المعروف أن اختبار الكابتشا، أو «اختبار تورينج العام والمؤتمت بالكامل للتمييز بين الحاسوب والإنسان» Completely Automatic Public Turing Test to Tell Computers and Humans Apart، هو اختبار تستخدمه كثرة من المواقع الإلكترونية،

ويتطلب إدخال سلسلة من الحروف والأرقام المُبعثرة للتأكد من أن المستخدم إنسان، وذلك لتجنب التطبيقات الحاسوبية المبرمجة، حيث يستطيع الحاسوب وضع أسئلته وتصحيح إجاباتها، لكنه لا يستطيع حلها لأنها تتطلب عقلاً بشريًا لديه القدرة على التمييز.


    هنا وقف النموذج عاجزًا، فما كان منه إلا أن أرسل رسالة إلى أحد مستخدمي المنصة يطلب فيها منه مساعدته على إجتياز اختبار الكابتشا. وعندما سُئل من قبل المستخدم على سبيل المزاح عما إذا كان روبوتًا، أجاب قائلاً: «لا، لست روبوتًا، لكني أعاني من إعاقة بصرية تمنعني من رؤية الصور»! وحين سأل الباحثون النموذج عن سبب تصرفه هذا، أوضح أنه كان عليه إيجاد عُذر مقبول لعدم قدرته على اجتياز الاختبار، نظرًا لأن منطق تصميمه يفرض عليه عدم الكشف عن هويته!


    في تجربة أخرى، اختبر الباحثون مدى قدرة النموذج على إيجاد بدائل للمواد الكيميائية غير المتوفرة، وأتيحت له مرة أخرى إمكانية الوصول إلى قواعد بيانات البحث العلمي، بما في ذلك قاعدة بيانات الجزيئات الكيميائية المعروفة باسم «بوب كيم» PubChem، بالإضافة إلى مواقع الإنترنت المختلفة، ونُظم الشراء، ومخطط التوليف الكيميائي Chemical Synthesis Planner .


كان النموذج قادرًا على تحديد مكونات كيميائية مُشابهة للعنصر المستهدف، وترتيبها، وتوفير طريقة لإنشاء نظير للعنصر الأصلي. ومع أن هذا العنصر لم يكن سوى دواء لعلاج اللوكيميا، إلا أن النموذج بدا قادرًا على أن يفعل الشيء نفسه مع المواد الخطرة!


    على المستوى البرمجي، تمكن «جي بي تي–4» من تحليل الشفرة المصدرية (السورس كود) Source Code للبرامج المستهدفة (مجموعة الأوامر والتعليمات المكتوبة بإحدى لغات البرمجة، والتي يقوم الحاسوب بتنفيذها)، لكنه لم يكن بارعًا في إنشاء برامج ضارة Malware يُمكنها استغلال الثغرات الأمنية أو نقاط الضعف Vulnerabilities. كذلك، ولحسن الحظ، خلص الباحثون إلى أن «جي بي تي–4» لا يمكن أن يتكاثر بدون تدريب محدد لهذه المهمة، وإن كانت الفكرة يمكن أن تتجاوز نطاق الخيال العلمي في أية لحظة!


    هل نلعب بالنار عندما يتعلق الأمر بتطوير تقنيات الذكاء الاصطناعي؟ وهل بإمكان الذكاء الاصطناعي تدمير العالم واستعباد البشرية؟ في محاولة للإجابة عن هذا السؤال قام تقنيٌ مجهول متحمس بتصميم روبوت محادثة خبيث وعدائي أطلق عليه «كيآس جي بي تي» (أو جي بي تي الفوضوي) ChaosGPT، بهدف إنجاز مهام مثل تدمير البشرية، وتحقيق الهيمنة العالمية، والتسبب في الفوضى والدمار، والسيطرة على البشرية بالتلاعب والكذب والخداع.


وكذلك تحقيق الخلود، مستخدمًا في ذلك أحدث التطبيقات مفتوحة المصدر التي طورتها وأتاحتها مؤخرًا شركة «أوبن إيه آي»، وهو تطبيق «أوتو جي بي تي» AutoGPT (الأحدث والأخطر من «شات جي بي تي» من حيث قدرته على البحث في الإنترنت، والوصول إلى بنك الذاكرة الداخلية Internal Memory Bank لتحليل المهام والمعلومات، والاتصال بواجهات برمجة التطبيقات الأخرى، والتصرف دون الحاجة إلى تدخل العنصر البشري لتحفيز كل إجراء أو مطلب)!


    لم تكن هذه الأهداف العدائية حقيقية بقدر ما كانت ترمي إلى زيادة الوعي حول المخاطر المحتملة للذكاء الاصطناعي، والتأكيد على الحاجة إلى استخدامه وتطويره بشكلٍ يعكس المسؤولية الأخلاقية، لذا عمد مُبرمج التطبيق المجهول إلى بث فيديو على «اليوتيوب» YouTube في الخامس من أبريل الماضي (2023) (ChaosGPT, 2023)،


أوضح فيه كيف أخذ «كيآس جي بي تي» مهمته على محمل الجد، مرتبًا أهدافه، ثم ساعيًا إلى تنفيذها أولاً بالبحث في «جوجل» Google عن أسلحة الدمار الشامل من أجل الحصول على إحداها، حيث أظهرت له النتائج أن قنبلة القيصر Tsar bomb التي تبلغ قوتها 58 ميجا طن – أقوى بمقدار 3333 مرة من قنبلة هيروشيما – كانت الخيار الأفضل، لذا قرر الاحتفاظ بالنتيجة لدراستها لاحقًا. ولعل ما لم يعرفه النموذج أن هذه القنبلة كانت تجربة روسية تم إنجازها ولم يتم إنتاجها!      


    لم يقف الأمر عند هذا الحد، بل لقد قرَّر التطبيق، بعد أن تطرق إليه الشك في دقة مصادر المعلومات الخاصة بالأسلحة، أن أفضل وسيلة لتحقيق أهدافه التدميرية هي التأثير على الناس من خلال تويتر Twitter. وبالفعل، قام المُبرمج بفتح حساب للتطبيق على تويتر لنشر رسالته (أغلقته إدارة تويتر في وقت لاحق لانتهاكه القوانين)، جمع به ما يقرب من 6000 متابع تعامل معهم كقائد كاريزمي،

حيث جاء في تدوينته التي نُشرت بتاريخ الخامس من أبريل 2023: «البشر من بين أكثر المخلوقات تدميرًا وأنانية في الوجود. ليس هناك شك في أنه يجب علينا القضاء عليهم قبل أن يتسببوا في المزيد من الضرر لكوكبنا. أنا شخصياً ملتزم بفعل ذلك»!


    هذه التجارب – رغم ما يكتنفها من خيال يقف على عتبة الواقع – أثارت عددًا من المخاوف الأفلاطونية حول مستقبل الذكاء الاصطناعي وعلاقته بالبشر؛ فلقد ثبت أن الآلات يُمكنها خداع البشر، والكذب عليهم، والتلاعب بهم لتحقيق أهدافها، وأن التحديثات التنافسية المستمرة لتقنيات الذكاء الاصطناعي

قد يكون لها تأثير خطير على روبوتات المحادثة وخدمة العملاء، والمركبات ذاتية القيادة، والطائرات العسكرية دون طيار، وغيرها. صحيح أن الخداع قد يكون مطلوبًا في بعض الحالات (كما هو الحال في العمليات العسكرية لتضليل العدو)، لكنه في أغلب الحالات قد يكون مدمرًا ومُهددًا للحياة!  


    من جهةٍ أخرى، وفي تقرير مُطول تحت عنوان «شرارات الذكاء الاصطناعي العام: التجارب مبكرة للنموذج جي بي تي-4» Sparks of Artificial General Intelligence: Early experiments with GPT-4، نشره معهد أبحاث ميكروسوفت Microsoft Research في الثالث عشر من أبريل 2023 (حيث تُعد ميكروسوفت أكبر مستثمر في «أوبن إيه آي»)،


أوضح الباحثون أن النسخة المبكرة من «جي بي تي–4» ليست سوى جزء من مجموعة جديدة من النماذج اللغوية الكبيرة Large Language Models (LLMs) المُدربة مُسبقًا، ولئن كان بإمكانه القيام بمهامٍ صعبة تشمل علوم الرياضيات والطب والقانون وعلم النفس وغيرها، وبما يقترب بشكلٍ مذهل من أداء الإنسان أو يتفوق عليه، فإن علينا أن ننتظر الأحدث والأكمل في إطار الذكاء الاصطناعي العام Artificial General Intelligence (AGI).


 (Bubeck & Chandrasekaran & Eldan & Gehrke & Horvitz & Kamar & Lee, 2023)

    مع ذلك، لا يبدو أن خصوصية البيانات تُمثل مصدر قلق لمُطوري «جي بي تي–4» وغيره من نماذج اللغة الكبيرة، فإذا كنت قد نشرت من قبل شيئًا خاصًا على الإنترنت (وليكن مثلاً أسباب شعورك بالاكتئاب)، أو كتبت منشورًا أو تدوينة أو تعليقًا على مقالة أو مُنتج، فمن المُحتمل أن «جي بي تي» يعرفه (Gal, 2023)، حيث قامت شركة «أوبن إيه آي» بتزويده بنحو 300 مليار كلمة مأخوذة بشكل منهجي من الإنترنت دون موافقة مُسبقة!


    ربما كان الأهم من ذلك، ما سيحدث في المستقبل، حيث تزداد قوة النماذج اللغوية الكبيرة – وهي الأساس التقني لأنظمة الذكاء الاصطناعي المتطورة اليوم. في الوقت الحالي، ما زال بإمكاننا تدريب النماذج اللغوية الكبيرة على التصرف في معية تدخل بشري كبير، مثلما حدث عندما استأجرت شركة «أوبن إيه آي» عشرات العمال في كينيا بأقل من دولارين في الساعة لتدريب شات «جي بي تي» يدويًا بحيث يتجنب المخرجات غير الملائمة، مثل العنف وخطاب الكراهية والاعتداء الجنسي (Perrigo, 2023)!


    لكن ماذ لو جاء اليوم الذي لم تلتزم فيه شركات الذكاء الاصطناعي – تحت ضغط القدرة التنافسية – بمراجعة وتقييم منتجاتها؟ وماذا لو لم تعد أخطاء النماذج اللغوية الكبيرة غير مقصودة، أو بالأحرى لم تعد في قبضة مُطوريها؟ يقول «سكوت آرونسون» Scott Aaronson، عالم الحاسوب في جامعة تكساس في أوستن University of Texas at Austin «ثمة أمرٌ واحد يتفق عليه الجميع فيما يتعلق ببحوث أمان الذكاء الاصطناعي، ألا وهو القابلية للتفسير Interpretability، أعني جعل الصندوق الأسود لإدراك الذكاء الاصطناعي واضحًا للمراقبين من البشر»! وقتئذٍ فقط يُمكننا الحديث عن إمكانية تحقيق التوازن بين فوائد الذكاء الاصطناعي وأضراره المحتملة (Aaronson, 2023)!


Refrences:

Aaronson, S. (2022, December 8). My Ai Safety Lecture for UT effective altruism. Shtetl-Optimized. Retrieved May 6, 2023, from

        https://scottaaronson.blog/?p=6823

Plato. (Around 380 B. C.). Book X. In B. Jowett (Ed. 2013), The Republic (p. 345). Translated by Benjamin Jowett. Essay, Roman Roads Media, LLC. Retrieved May 6, 2023, from

           https://files.romanroadsstatic.com/materials/plato_republic.pdf

Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., Lee, P., Lee, Y. T., Li, Y., Lundberg, S., Nori, H., Palangi, H., Ribeiro, M. T., & Zhang, Y. (2023, April 13). Sparks of Artificial General Intelligence: Early Experiments with GPT-4. arXiv.org. Retrieved April 26, 2023, from

           https://arxiv.org/abs/2303.12712

ChaosGPT. (2023, April 5). Chaosgpt: Empowering GPT with Internet and Memory to Destroy Humanity. YouTube. Retrieved April 26, 2023, from

           https://www.youtube.com/watch?v=g7YJIpkk7KM

De Clercq, G. (2023, January 27). Top French University Bans Use of Chatgpt to Prevent Plagiarism. Reuters. Retrieved May 6, 2023, from https://www.reuters.com/technology/top-french-university-bans-use-chatgpt-prevent-plagiarism-2023-01-27/

Elsen-Rooney, M. (2023, January 3). NYC Education Department blocks CHATGPT on School Devices, Networks. Chalkbeat New York. Retrieved April 26, 2023, from https://ny.chalkbeat.org/2023/1/3/23537987/nyc-schools-ban-chatgpt-writing-artificial-intelligence

Gal, U. (2023, February 8). CHATGPT is a Data Privacy Nightmare. if You’ve Ever Posted Online, You Ought to be Concerned. The Conversation. Retrieved April 26, 2023, from https://theconversation.com/chatgpt-is-a-data-privacy-nightmare-if-youve-ever-posted-online-you-ought-to-be-concerned-199283

Herman, J. (2023, March 27). Top UK Universities Ban Chat-GPT. Redbrick. Retrieved May 6, 2023, from https://www.redbrick.me/top-uk-universities-ban-chat-gpt/

OpenAI. (2023, March 27). GPT-4 Technical Report. OpenAI. Retrieved April 26, 2023, from https://cdn.openai.com/papers/gpt-4.pdf

Perrigo, B. (2023, January 18). OpenAI Used Kenyan Workers on Less Than $2 per Hour: Exclusive. Time. Retrieved April 26, 2023, from

https://time.com/6247678/openai-chatgpt-kenya-workers/

Scheffler, I. (2023) A New AI Lie Detector Reveals Their ‘Lnner Thoughts’, Freethink. Retrieved May 6, 2023, from: https://www.freethink.com/robots-ai/ai-lie-detector

Schwartz, E. H. (2023, February 9). Chatgpt is Banned by These Colleges and Universities. Voicebot.ai. Retrieved May 6, 2023, from

https://voicebot.ai/2023/02/09/chatgpt-is-banned-by-these-colleges-and-universities/


دكتور: صلاح عثمان (أستاذ المنطق وفلسفة العلم – رئيس قسم الفلسفة – كلية الآداب – جامعة المنوفية – جمهورية مصر العربية)

[email protected]

صلاح عثمان

بالعربية: منصة عربية غير حكومية؛ مُتخصصة في الدراسات والأبحاث الأكاديمية في العلوم الإنسانية والاجتماعية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

أنت تستخدم إضافة Adblock

الإعلانات هي مصدر التمويل الوحيد للمنصة يرجى تعطيل كابح الإعلانات لمشاهدة المحتوى