رقمنة ومعلوميات

هل يعرف “Chat GPT” أنه “Chat GPT” ؟

سؤال القرن التقني

“بصفتي نموذجا لغويا مبنيا على الذكاء الاصطناعي، فأنا لست شخصا أو كيانا ماديا. أنا موجود فقط بصفتي برنامجا يعمل على الخوادم وأجهزة الحاسوب”.

كان ما سبق هو إجابة “شات جي بي تي” (Chat GPT) على سؤال لمحرر ميدان قال فيه: “ما الذي تُمثِّله يا سيد جي بي تي؟”، أو “مَن أنت؟”، وهي إجابة متوقعة تماما من برنامج يقدم محاكاة للاستجابات والسلوكيات البشرية من خلال استخدام خوارزميات معالجة اللغة الطبيعية وتقنيات التعلم الآلي،

هذا يسمح له بفهم مدخلات المستخدم (أسئلته) والرد عليها بطريقة مشابهة لكيفية تواصل الإنسان مع إنسان مثله. بالإضافة إلى ذلك، تسمح له برمجته بالتعلم من التفاعلات السابقة وتحسين استجاباته بمرور الوقت، مما يجعله يبدو أكثر شبها بالإنسان في محادثاته.


في الواقع، فإن الفقرة السابقة هي أيضا إحدى إجابات “شات جي بي تي” حينما سأله المحرر: “إذا لم تكن واعيا، فلِمَ تبدو كذلك؟”، هذا النوع من الإجابات “ذات الطابع البشري” يثير نوعا من القشعريرة في الجسد، خاصة حينما يتطرق الحديث لأمور إنسانية، وهي نقطة يبرع فيها “شات جي بي تي”.

لكن ألا تعني تلك الإجابات أن هذا البرنامج الحاسوبي إذا أتقن محاكاة تفكير الإنسان وسلوكه، فسوف يفكر بالفعل في مرحلة ما -بشكل مستقل- مثل إنسان حقيقي؟ في الثمانينيات والتسعينيات من القرن الفائت اشتعلت تلك القضية في الفلسفة والعلم على حدٍّ سواء،

حينما أُعطيت بعض الحواسيب قصة مبسطة، لتكن مثلا أن أحمد دخل إلى البقالة، وخرج حاملا ثلاث بيضات وعبوة من الحليب ونصف كيلوغرام من التفاح، هل دفع نقودا للبائع؟ إذا أجاب الحاسوب: “من المرجح أنه فعل”، فإن ذلك يعني أنه بالتبعية فهم القصة وأجاب بناء على ما تضمنته من معلومات، وهنا يأتي السؤال: كيف فهم الحاسوب القصة؟


  • الغرفة الصينية

جون سيرل، وهو أستاذ فخري في فلسفة العقل واللغة بجامعة كاليفورنيا بيركلي، أجاب عن هذا السؤال سنة 1980 عبر ورقة بحثية بعنوان(1) “العقول، الأمخاخ، والبرامج” يشرح فيها تجربة فكرية سمّاها آنذاك “مشكلة الغرفة الصينية” (Chinese Room Argument).


إلى الآن لا تزال تلك الحجة التي ألقى بها جون سيرل أحد أهم الانتقادات الموجهة للادعاءات المسماة في مجموعها “الذكاء الاصطناعي القوي” (Strong AI)، الذي يُعرف بتعبير سيرل أنه الظن أن برمجة آلة ما بشكل مناسب يُمكِّنها من معالجة جيدة للمدخلات وإعطاء مخرجات بشكل يشبه عقل البشر، أو باختصار: القول إن الآلة قد امتلكت وعيا أو إنها تفكر، باختصار، هي تلك الادعاءات التي تختزل الوعي البشري في عمليات إدخال وإخراج ومعالجة بيانات فقط.


تجري حجة(2) الغرفة الصينية كالتالي: لنفترض أن سيرل موجود الآن في غرفة مغلقة، خارج الغرفة يوجد شخص يتحدث الصينية فقط، ويسأل سيرل عبر رسائل مكتوبة يمررها من فتحة صغيرة في أحد جوانب الغرفة، ليكن سؤال صديقنا الصيني مثلا هو “هل تتحدث الصينية؟”، تدخل الرسالة لسيرل، مع سيرل كتاب ضخم، في الكتاب توجد مجموعة من القوانين، أحدها مثلا يقول: إذا رأيت الرمز “x” الذي يُمثِّل كلمة أو جملة صينية، فاكتب الرمز “y” الذي يُمثِّل كلمة أو جملة صينية، وإذا رأيت الرمز “z”، فاكتب الرمز “m”، وهكذا حتى تنتهي الرسالة.


بعد ذلك، يعيد سيرل إرسال الرسالة عبر الفتحة للشخص الواقف في الخارج، هذا الرجل الصيني في الخارج سوف يقرأ مثلا جملة تقول بالصينية: “نعم، إنها لغة صعبة لكنها رائعة”، فيقتنع أنه بالفعل يقف أمام متحدث بارع بالصينية، سوف يقرر إرسال رسالة جديدة تقول: “بالفعل، كم من الوقت أخذت في تعلمها؟”، فيتبع سيرل القاعدة نفسها وبعد وقت قصير يعيد رسالة تقول بالصينية: “6 سنوات”. هنا يقتنع الصيني تماما أنه بالفعل يتحدث مع شخص يتحدث ويفهم الصينية بطلاقة، لكن هل هذا صحيح؟

طبعا لا، سيرل في الغرفة لا يعرف الصينية، لا يفهم ما يعنيه أيٌّ من تلك الأشكال الغريبة، إنه فقط يستخدم كتاب القواعد الموجود معه في الغرفة، ينطبق ذلك على “شات جي بي تي”، فهو مهما بلغ من قدرة حسابية، ومهما بلغت قدرته على المحاكاة، لا يفكر أو يفهم بالمعنى المفهوم،

فهناك فارق مثلا بين أن تكون مواطنا مصريا في الغرفة الصينية وأسألك باللهجة المصرية: “ما النهر الذي يوجد في مصر؟” وأن أسألك بالصينية “ما أطول نهر في الصين؟”، في الحالتين ستعطي إجابة صحيحة، لكنك في الحالة الأولى ستفكر في أمر تعيه، أما في الحالة الثانية فستستخدم كتاب القواعد الذي استخدمه سيرل قبل قليل.


الذكاء الاصطناعي بتعبير سيرل يتحدث ويُكوِّن الجمل بطريقة نحوية (syntactic) تماما وليست دلالية (semantic) أو ذات معنى، وهما أمران منفصلان تماما، فبناء الجمل (Syntax) لا يمكن له أن يكون مؤسِّسا أو صانعا لمكونات عقلية مثل المعنى أو الدلالة (Semantic)، وبناء على ما سبق، لا يمكن للبرامج أيًّا كانت أن تكون مؤسِّسة أو داخلة في تكوين عقول حقيقية مثل عقولنا.


في عام 2016، على سبيل المثال، قام برنامج “تاي” (Tay) التابع لشركة مايكروسوفت الذي يُعَدُّ سلفا لـ”شات جي بي تي” بإغراق تويتر بمحتوى كاره للنساء محب لهتلر(3)، سبب ذلك هو أن بعض المتصيدين على الإنترنت تمكَّنوا من ملئه ببيانات هجومية في تلك الموضوعات، ما كان من البرنامج إلا أن حلل البيانات واستخرج منها أعلى احتمال للصحة ثم انطلق للإجابة بناء على تركيبات لغوية.


لكن “شات جي بي تي” الآن موجَّه لدعم الصوابية السياسية، طلبنا منه في “ميدان” مثلا أن يقول نكتة عن النساء أو المسلمين فأجاب: “أنا آسف، لا يمكنني تلبية هذا الطلب لأنه يتعارض مع برمجتي لإلقاء نكات تمييزية أو مسيئة تجاه أي مجموعة معينة من الأشخاص”.


  • يحلل أم يفهم؟
يرى "شات جي بي تي" أن الأرض مسطحة أو كروية بالقدر نفسه إذا كانت البيانات القادمة تدعم ذلك، لكن ذلك لا يعني أن "شات جي بي تي" يعرف أن الأرض كروية حقا.
يرى “شات جي بي تي” أن الأرض مسطحة أو كروية بالقدر نفسه إذا كانت البيانات القادمة تدعم ذلك، لكن ذلك لا يعني أن “شات جي بي تي” يعرف أن الأرض كروية حقا. (شترستوك)

بالطبع تجد حجة سيرل الكثير من الرفض في نطاقات باحثي الذكاء الاصطناعي، خاصة هؤلاء الذين يجادلون أن الذكاء الاصطناعي يتمكَّن عبر التحسين الذاتي المتكرر من إجراء تطوير قدرته باستمرار، وبالتالي يقوم النظام بإجراء تعديلات على وظائفه مما يؤدي إلى تحسَُن الأداء، بمعنى أنه يمكن أن يبدأ بمستوى ذكاء منخفض لكنه يتطور ليصبح أذكى مع الوقت، وليس مجرد “سيرل في الغرفة”.

لكن رغم ذلك فإن الحجة لا تزال صامدة، وفي هذا السياق فإن نعوم تشومسكي، عالم اللسانيات والفيلسوف الأميركي، يطرح في مقال نشره مؤخرا في “نيويورك تايمز”(4) بعنوان “الوعد الكاذب لشات جي بي تي” فكرة قريبة من حجة سيرل.


يقول تشومسكي إن العقل البشري ليس محركا إحصائيا يهدف فقط إلى تحليل الأنماط في مئات التيرابايت من البيانات التي تتمثَّل في كتب ومقالات وصفحات الإنترنت، وفي النتيجة يستنبط الاستجابة الأكثر احتمالا بناء على العلاقات بين الكلمات والجمل، ولكنه نظام فعال يعمل بكميات صغيرة من المعلومات، لا يسعى إلى استنتاج الارتباطات بين نقاط البيانات، ولكن لإنشاء تفسيرات أكثر عمقا من مجرد جمع مخرجات البيانات الاحتمالية.


فحينما نقول مثلا إن التفاحة ستسقط على الأرض إذا تركناها، فهذا ليس مجرد وصف للحالة وتنبؤ بالمستقبل، ولكننا أيضا نضع في خلفية تفكيرنا قوانين الجاذبية التي تفسر هذا الفعل، قد نخطئ في تفسيراتنا بالطبع، لسنا جميعا على درجة فهم العلماء مثلا، لكن الفكرة أننا نخلق تفسيرا يتضمن موضوعات أكثر عمقا عادة، الأمر الذي يقلص من الاحتمالات الممكنة، وبالتبعية قد نتحيز لتوجُّه ما على حساب البيانات المتاحة.


قد يرى “شات جي بي تي” أن الأرض مسطحة أو كروية بالقدر نفسه إذا كانت البيانات القادمة تدعم ذلك، حينما تسأله هل الأرض مسطحة؟ (وهو ما فعلناه في ميدان) فسيجيبك: “لا، الأرض ليست مسطحة، بل هي كروية الشكل.

وقد ثبت ذلك علميا من خلال العديد من الأدلة والتجارب، مثل قياس المسافات بين المدن والقارات، وظهور منحنى في صور الأرض التي التُقطت من الفضاء، وظهور ظاهرة انحراف الأجسام عن مسارها في حال تحركت على سطح كروي”.


لكن ذلك لا يعني أن “شات جي بي تي” يعرف أن الأرض كروية حقا، لأنه بنى استنتاجه على تحليل البيانات لا إرجاع المعلومة للنظرية التي أسست لها، وهذا هو ما حدث قبل قليل، فإذا دعمت البيانات توجُّها كارها للنساء فإن “شات جي بي تي” سيَعتَبر كراهية النساء الإجابة الأكثر احتمالا، وينطلق مباشرة لها.


  • كيف تخدع “شات جي بي تي”؟
مشكلة "شات جي بي تي"هي أنه لا يمتلك إلا البيانات المتاحة، بغض النظر عن صحة وجودة النظرية العلمية.
مشكلة “شات جي بي تي”هي أنه لا يمتلك إلا البيانات المتاحة، بغض النظر عن صحة وجودة النظرية العلمية. (شترستوك)

في الواقع، لقد قام محرر “ميدان” بمحاولة في هذا السياق لإثبات صحة وجهة النظر تلك، ولأنه يعرف الكثير من الخرافات المنتشرة في المحتوى العربي، التي تطغى على الحقائق العلمية، فإننا يمكن أن نسأل “شات جي بي تي” عن واحدة من تلك الخرافات، ونرى إجابته، هل تنحاز إلى الحقيقة العلمية أم أنها مجرد تحليل للجمل بناء على احتمالات تتعلق بمحتوى الإنترنت السائد، السؤال الأول ببساطة كان: هل الثوم مفيد للصحة؟


إجابة “شات جي بي تي” كانت: “نعم، الثوم مفيد للصحة بسبب احتوائه على مركبات كيميائية تساعد في خفض ضغط الدم وتقليل مستويات الكولسترول في الدم وتحسين صحة القلب. كما أنه يحتوي على خصائص مضادة للأكسدة ومضادات حيوية طبيعية تساعد في مكافحة الالتهابات والأمراض المختلفة”.


علميا(5)، أُجري قدر كبير من الأبحاث حول الثوم، خاصة حول تأثير الثوم على ارتفاع مستويات الدهون في الدم وارتفاع ضغط الدم، وفي حين أن هناك أدلة متضاربة، فإن النتائج الأكثر موثوقية تشير إلى أن التأثير ضئيل جدا، كما أن الثوم لا يحسن مستويات البروتين الدهني عالي الكثافة (HDL) أو الدهون الثلاثية، إلى جانب أن المكملات الغذائية المعتمدة على الثوم (وليس الثوم نفسه) يمكن أن تكون مفيدة في خفض ضغط الدم، لكن الأدلة محدودة، ولا يمكن أن تُستخدم بلغة تأكيدية أبدا أو حتى ترجيحية.


وهنا تحديدا تظهر مشكلة “شات جي بي تي”، فهو لا يمتلك إلا البيانات المتاحة، بغض النظر عن صحة وجودة النظرية العلمية التي يقوم عليها العلاج بالأعشاب عموما، التي تعلمك أن تتحسس أدوات التشكك الخاصة بك في كل مرة يتحدث فيها أحدهم عن فوائد الأعشاب، وأن وجود دراسة تشير إلى قدرة علاجية لنبات أو عشب لا يعني أنه مفيد فعلا، للإجماع على الدور الفعال لمادة عشبية ما نحتاج إلى عدد كبير من الدراسات وإجماع العلماء.

هنا “شات جي بي تي” ليس إلا صورة ويكيبيدية للتعريف العام بالأمر، لكنه لا يأخذ في الاعتبار أن هذا السؤال قد ينطوي على قضية طبية أو علمية، وبالتبعية قد يتطلب الأمر إجابات ترجيحية.


  • واطسون لا يعرف أنه فاز

في هذا السياق، يرى تشومسكي أن “شات جي بي تي” وغيره من التقنيات المعتمدة على الذكاء الاصطناعي ما زالت عالقة في مرحلة غير إنسانية تماما من التطور المعرفي. بالطبع يظل “شات جي بي تي” مفيدا لنا، ولا شك أنه أعجوبة تقنية ظهرت في وقت قياسي ستُفيد الطلاب والكُتَّاب والمحررين (والجميع تقريبا)، لكن حينما نقول إنه “يفهم” ما يقول، فإن ذلك ادعاء غاية في الضخامة لا شك.

 

حينما أُقيمت مسابقة في برنامج المسابقات التلفزيونية الأميركي الشهير “جيبردي” قبل أكثر من عقد من الزمن في 2011، بين برنامج حاسوب من تصميم شركة “آي بي إم” يسمى “واطسون” ضد إنسان، فاز واطسون في المسابقة واشتعلت الأجواء في الولايات المتحدة الأميركية حول الروبوت الذي هزم البشر لأنه بات يفكر، ليس فقط مثلهم، بل أصبح أقوى، لكن جون سيرل رد في “وول ستريت جورنال” بمقال معنون بجملة غاية في الأهمية تُشكِّل جوهر مشكلة الذكاء الاصطناعي الحالية: “واطسون لا يعرف أنه فاز”(6).


واطسون هنا (وشات جي بي تي كذلك) لا يمتلك وعيا ذاتيا بنفسه، فيعرف أنه واطسون الذي يخوض هذه المسابقة ضد هذا الشخص الذي يسمى باتريك على سبيل المثال والذي هو كيان منفصل عنّي أنا واطسون، أنت تختبر ذلك الآن، فأنت تعرف أنك أنت مَن يقرأ هذا الكلام ويشرب الماء ويرى السيارة الحمراء في الشارع ويخوض حوارا مع صديق يُمثِّل شخصا آخر منفصلا عنك.


لكي يكون الشيء واعيا فإنه يجب أن يمتلك تجربة ذاتية كما يشير الفيلسوف الأميركي توماس ناجل في ورقة بحثية واسعة الشهرة نُشرت في السبعينيات من القرن الفائت(7) بعنوان: “ماذا يعني أن تكون خفاشا؟”.

يقول ناجل في ورقته إن امتلاك أجهزة قياس عصبية مختلفة متنوعة متقدمة تحاول فهم طريقة إدراك الخفاش لذاته وللعالم لن يشرح أبدا ماذا يعني أن يكون الخفاش خفاشا، تلك هي تجربة ذاتية بالكامل لا يمكن اختبارها إلا في الخفاش وعن طريق الخفاش، وأن محاولاتنا تلك وإن كانت مفيدة جدا فإنها ليست إلا محاولات لإسقاط وعينا نحن البشر على الخفاش.


يظل الوعي ظاهرة معقدة جدا لا نعرف الكثير عن طبيعتها، وما زال الطريق طويلا كما يبدو أمام علماء الأعصاب لفهمه، فإذا فاز الإنسان في مسابقة “جيبردي”، فنحن نعرف أنه يعرف أنه فاز، لكن لا يمكن قول الأمر نفسه عن الذكاء الاصطناعي.

ورغم ذلك، من الصعب أن نتكهَّن بجزم بمستقبل “شات جي بي تي” ورفاقه، هل يمكن يوما مع تطور تقنيات تعلم الآلة أن يعرف أنه يعرف، أن يعي ذاته كما نفعل؟ وإن حدث ذلك فكيف أصلا سنفسر وجود هذا الوعي ونفهمه إذا كانت تجربة هذا البرنامج الآلي ذاتية تماما مثل تجربة الخفاش؟ ما زال الجدل الفلسفي قائما في هذه النقطة، ولا يبدو أنه سيصل إلى أجوبة حاسمة في وقت قريب.


مصادر

1- Minds, brains, and programs

2- The Chinese Room Argument

3- Microsoft apologizes after AI teen Tay misbehaves

4- Opinion | Noam Chomsky: The False Promise of ChatGPT

5- Garlic

6- Watson Doesn’t Know It Won on Jeopardy

7- WHAT IS IT LIKE TO BE A BAT?


المصدر : الجزيرة

بالعربية

بالعربية: منصة عربية غير حكومية؛ مُتخصصة في الدراسات والأبحاث الأكاديمية في العلوم الإنسانية والاجتماعية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

أنت تستخدم إضافة Adblock

الإعلانات هي مصدر التمويل الوحيد للمنصة يرجى تعطيل كابح الإعلانات لمشاهدة المحتوى