الواجهة الرئيسيةترجماتتكنولوجياثقافة ومعرفة

هل يمكن للآلة قراءة عقول البشر؟

يزعم بعض الباحثين أن روبوتات المحادثة قد طوّرت نظرية للعقل. ولكن هل هذه مجرد نظريتنا عن العقل لكنها جمحت؟

كيوبوست -ترجمات

يحاول أوليفر وانغ في هذا المقال في “نيويورك تايمز” الإجابة عن تساؤل بات مشروعاً في أيامنا هذه؛ هل يمكن للآلة – والمقصود هنا منتجات الذكاء الاصطناعي – قراءة الأفكار؟. يقول وانغ إن قراءة العقل أو الأفكار شائعة بيننا نحن البشر، ليس بالطرق التي يدّعيها المشعوذون، من خلال الوصول إلى تيارات الوعي الدافئة لدى كل فرد، فقراءة العقل اليومية أكثر دقة؛ نحن ننظر إلى وجوه الناس ونتفحّص حركاتهم، ونستمع إلى كلماتهم، ثم نقرر أو نستشعر ما قد يدور في عقولهم.

في أوساط علماء النفس، يُسمى هذا “الحدس”- أي القدرة على أن تنسب إلى أشخاص آخرين حالات عقلية مختلفة عن حالتنا – بـ”نظرية العقل”، ويرتبط غيابها أو ضعفها بالتوحّد والفصام واضطرابات النمو الأخرى. تساعدنا نظرية العقل على التواصل وفهم بعضنا البعض، وتتيح لنا الاستمتاع بالأدب والأفلام وممارسة الألعاب وفهم محيطنا الاجتماعي. من نواحٍ كثيرةٍ، تُعد هذه القدرة جزءًا أساسيًا من كونك إنسانًا.

اقرأ أيضاً: الذكاء الاصطناعي ومعنى الحياة.. تحذير من عصر ما بعد الإنسانية

ماذا لو تمكّنت الآلة من قراءة العقول أيضًا؟

ميشال كوسينسكي

مؤخرًا، قدم ميشال كوسينسكي، عالم النفس في جامعة ستانفورد، الدليل على هذا بالضبط؛ إن نماذج اللغة الكبيرة مثل “شات جي بي تي” و”شات جي بي تي-4“ طوّرت نظرية للعقل. أثارت دراساته نقاشًا وفجّرت تساؤلات بين علماء الإدراك، الذين كانوا يحاولون الإجابة على السؤال الذي يُطرح كثيرًا هذه الأيام: هل يمكن لشات جي بي تي القيام بذلك؟ وينتقل إلى عالم البحث العلمي الأكثر رصانة. ما القدرات التي تمتلكها هذه النماذج، وكيف يمكن أن تغيّر فهمنا لعقولنا؟

في هذا الصدد، أظهر بحث سابق للدكتور كوسينسكي أن الشبكات العصبية المدرّبة على تحليل ملامح الوجه مثل شكل الأنف ودرجة ميل الرأس والتعبير العاطفي يمكن أن تتنبأ بالآراء السياسية للناس والتوجه الجنسي بدرجة مذهلة من الدقة (حوالي 72 % في الحالة الأولى وحوالي 80% في الحالة الثانية). يستخدم كوسينسكي عمله الأخير على نماذج اللغة الكبيرة، النظرية الكلاسيكية لاختبارات العقل التي تقيس قدرة الأطفال على نسب المعتقدات الخاطئة إلى أشخاص آخرين.

ومن الأمثلة الشهيرة على ذلك اختبار سالي وآن، حيث تنقل الفتاة، آن، “بلية” من سلة إلى صندوق في وقت لا تنظر الفتاة الأخرى، سالي. ولمعرفة المكان الذي ستبحث فيه سالي عن البلية، ادّعى الباحثون أنه سيتعين على المشاهد ممارسة نظرية العقل، والتفكير في الأدلة الإدراكية لسالي وتشكيل المعتقدات. لم تر سالي آن تحرك البلية إلى الصندوق، لذلك لا تزال تعتقد أنها في المكان الذي تركته فيه آخر مرة، في السلة.

اقرأ أيضاً: هكذا سيغير الذكاء الاصطناعي مستقبل البشرية

قدم الدكتور كوسينسكي 10 نماذج لغوية كبيرة، مع 40 اختلافاً فريداً لاختبارات نظرية العقل هذه – أوصاف لمواقف مثل اختبار سالي وآن، حيث تُشكّل (سالي) اعتقاداً خاطئاً، ثم طرح على النماذج اللغوية أسئلة حول تلك المواقف، وحثها على معرفة ما إذا كانت سوف تنسب معتقدات خاطئة إلى الشخصيات المعنية وتتنبأ بذلك بدقة. وجد أن “جي بي تي 3.5″، الذي صدر في نوفمبر 2022، فعل ذلك بنسبة 90%، و “جي بي تي-4″، الذي صدر في مارس 2023، نجح في ذلك بنسبة 95%. يستنتج من هذا أن الآلات لديها نظرية للعقل.

ولكن بعد وقت قصير من صدور هذه النتائج، رد تومر أولمان، عالم النفس في جامعة هارفارد، بمجموعة من تجاربه الخاصة، كاشفًا أن التعديلات الصغيرة في الأسئلة يمكن أن تغيّر تمامًا الإجابات الناتجة عن أكثر نماذج اللغة الكبيرة تطورًا. إذا وصفت الحاوية بأنها شفافة، فستفشل الآلات في استنتاج أن شخصًا ما يمكنه رؤيتها. واجهت الآلات صعوبة في مراعاة شهادة الأشخاص في هذه المواقف، وفي بعض الأحيان لم تستطع التمييز بين وجود شيء داخل حاوية ووجوده فوقها.

من جانبه، أجرى مارتن ساب، عالم الكمبيوتر في جامعة كارنيجي ميلون، أكثر من 1,000 اختبار لنظرية العقل في نماذج لغوية كبيرة، وخلص إلى أن أكثرها تقدمًا، مثل “شات جي بي تي” و “جي بي تي-4″، عادة ما تفشل في ذلك، كونها لا تستطيع ممارسة التفكير المُجرّد وغالبًا ما تقوم بعمل “ارتباطات زائفة”.

كما أظهر باحثون آخرون أن نماذج اللغة غالبًا ما تعطي إجابات خاطئة أو غير ذات صلة عند تزويدها بمعلومات غير ضرورية قبل طرح السؤال. وقد ارتبكت بعض روبوتات الدردشة في المناقشات الافتراضية حول الطيور الناطقة، لدرجة أنها ادّعت في النهاية أن الطيور يمكنها التحدث. ونظرًا لأن منطقها يتأثر بالتغيّرات الصغيرة في المُدخلات، فقد خلص العلماء إلى أن معرفة هذه الآلات ما تزال “هشة”.

المصدر: نيويورك تايمز

اتبعنا على تويتر من هنا

تعليقات عبر الفيس بوك

التعليقات

مقالات ذات صلة