الواجهة الرئيسيةترجماتتكنولوجياثقافة ومعرفةشؤون دولية

نعوم تشومسكي: الوعد الكاذب لـ”شات جي بي تي”

كيوبوست- ترجمات

بقلم: نعوم تشومسكي وإيان روبرتس وجيفري واتومول

كتب خورخي لويس بورخيس ذات مرة أن تعيش في وقت الخطر والوعد الكبير هو أن تعيش المأساة والكوميديا، مع “اقتراب الإلهام” الذي يجعلنا نفهم أنفسنا والعالم. اليوم، تقدمنا الثوري المفترض في الذكاء الاصطناعي، هو في الواقع مدعاة للقلق والتفاؤل في آنٍ؛ التفاؤل لأن الذكاء هو الوسيلة التي نحل بها المشكلات، والقلق لأننا نخشى أن تؤدي “السلالة” الأكثر شعبية وعصرية من الذكاء الاصطناعي -التعلُّم الآلي- إلى تدهور علمنا والحط من أخلاقياتنا من خلال دمج مفهوم مَعِيب بشكل أساسي للغة والمعرفة في تقنياتنا.

يُعد “شات جي بي تي”، الذي طوَّرته شركة “أوبن إيه آي”، و”بارد” الذي طوَّرته شركة “جوجل”، و”سيدني” الذي طوَّرته “ميكروسوفت”؛ من أعاجيب التعلُّم الآلي. هذه البرامج تأخذ كميات هائلة من البيانات، وتبحث عن أنماط فيها وتصبح بارعة في توليد مخرجات محتملة إحصائياً، شبيهة باللغة والفكر الإنساني. وقد لاقت هذه البرامج ترحيباً باعتبارها أول بصيص في أفق الذكاء الاصطناعي العام، تلك اللحظة التي طال التنبؤ بها، حيث تتفوق العقول الميكانيكية على أدمغة البشر؛ ليس من الناحية الكميَّة من حيث سرعة المعالجة وحجم الذاكرة فحسب، بل أيضاً من الناحية النوعية من حيث البصيرة الفكرية والإبداع الفني وكل مَلَكة بشرية مميزة أخرى.

قد يأتي ذلك اليوم، لكن فجره لم ينبلج بعد، على عكس ما يمكن قراءته في العناوين الرئيسية المُبالغ فيها واحتسابه بالاستثمارات غير الحكيمة. لم يأتِ “الوحي” أو “الإلهام” البورخيسي للفهم ولن يأتي -ونحن نسلم، لا يمكن- إذا استمرت برامج التعلُّم الآلي مثل “شات جي بي تي” في الهيمنة على مجال الذكاء الاصطناعي. مهما كانت هذه البرامج مفيدة في بعض المجالات الضيقة (يمكن أن تكون مفيدة في برمجة الكمبيوتر، على سبيل المثال، أو في اقتراح قوافي للشعر الخفيف)، فإننا ندرك من علم اللغويات وفلسفة المعرفة أنها تختلف اختلافاً عميقاً عن كيفية تفكير البشر واستخدامهم اللغة. هذه الاختلافات تضع قيوداً كبيرة على ما يمكن أن تفعله هذه البرامج، وتوسمها بعيوب لا يمكن القضاء عليها.

إنه لأمر هزلي ومأساوي في آنٍ، كما أشار بورخيس، أن الكثير من المال والاهتمام يجب أن يتركز على شيء ضئيل للغاية؛ شيء تافه للغاية عند مقارنته بالعقل البشري، الذي بفضل اللغة، على حد تعبير فيلهلم فون هومبولت، يمكن أن يطوِّر “استخدامات لا نهائية من وسائل محدودة”، ويجود بأفكار ونظريات عالمية الانتشار والتأثير.

بورخيس

العقل البشري ليس، مثل شات “جي بي تي” وأمثاله، محركاً إحصائياً أخرق يطابق الأنماط، يلتهم مئات التيرابايت من البيانات ويستنبط استجابة المحادثة الأكثر احتمالاً أو الإجابة الأكثر احتمالاً لسؤال علمي. على العكس من ذلك، العقل البشري نظامٌ فعَّال بشكل مدهش وحتى أنيق يعمل بكميات صغيرة من المعلومات. إنه لا يسعى إلى استنتاج علاقات تفتقر إلى الإحساس بين البيانات كما تفعل تلك البرامج، بل لإنشاء تفسيرات.

على سبيل المثال، يطوِّر الطفل الصغير الذي يكتسب لغة -دون وعي وتلقائياً وبسرعة من بيانات ضئيلة- قواعد، في شكل نظام متطور على نحو مذهل من المبادئ والمَعْلَمات المنطقية. يمكن فهم هذه القواعد على أنها تعبير عن “نظام التشغيل” الفطري المُثبَّت وراثياً، والذي يمنح البشر القدرة على توليد جمل معقدة ومسارات طويلة من الفكر. عندما يسعى اللغويون إلى تطوير نظرية حول كيفية عمل لغة ما بالطريقة التي تعمل بها (“لماذا تعتبر هذه الجمل -وليس تلك- صحيحة نحوياً؟”)، فإنهم يبنون بوعي وجهد نسخة صريحة من القواعد التي يبنيها الطفل غريزياً وبأقل قدر من التعرُّض للمعلومات. يختلف “نظام تشغيل” الطفل تماماً عن نظام تشغيل برنامج التعلُّم الآلي.

في الواقع، مثل هذه البرامج موجودة في مرحلة ما قبل الإنسان أو غير البشرية من التطور المعرفي. أعمق عيب لديها هو غياب القدرة الأكثر أهمية لأي ذكاء: أن نقول ليس فقط ما هو الحال، ما كان هو الحال وما سيكون عليه الحال- هذا هو الوصف والتنبؤ- ولكن أيضاً ما هو ليس هو الحال وما يمكن وما لا يمكن أن يكون هو الحال. هذه هي مكونات التفسير، علامة الذكاء الحقيقي.

اقرأ أيضًا: قاضٍ يثير ضجة بعد استعانته بتطبيق “تشات جي بي تي” في إصدار حكمه

لنأخذ هذا المثال: لنفترض أنك تحمل تفاحة في يدك. الآن تركت التفاحة تذهب. تراقب النتيجة وتقول: “التفاحة تسقط”. هذا وصف. ربما كان التنبؤ هو عبارة “ستسقط التفاحة إذا فتحت يدي”. كلاهما ذو قيمة، وكلاهما يمكن أن يكون صحيحاً. لكن التفسير شيء أكثر من ذلك: فهو لا يشمل الأوصاف والتنبؤات فحسب؛ بل يشمل أيضاً التخمينات المضادة للواقع؛ مثل “أي جسم من هذا القبيل سيسقط”، بالإضافة إلى العبارة الإضافية “بسبب قوة الجاذبية” أو “بسبب انحناء الزمكان” أو أياً كان. هذا تفسير سببي: “لم تكن التفاحة لتسقط لولا قوة الجاذبية”. هذا هو التفكير.

الوصف والتنبؤ هما جوهر التعلُّم الآلي. لا يفترض أية آليات سببية أو قوانين فيزيائية. لا شك أن أي تفسير على غرار الإنسان ليس صحيحاً بالضرورة؛ فنحن لسنا معصومين من الخطأ. لكن هذا جزءٌ مما يعنيه التفكير: لكي تكون على صواب، يجب أن يكون هناك احتمال أن تكون مخطئاً. لا يتكون الذكاء من التخمينات الإبداعية فحسب؛ بل من النقد الإبداعي أيضاً. يعتمد الفكر البشري على التفسيرات المحتملة وتصحيح الأخطاء، وهي عملية تحِد تدريجياً من الاحتمالات التي يمكن النظر فيها بعقلانية. (كما قال شيرلوك هولمز للدكتور واتسون، “عندما تستبعد المستحيل، فإن كل ما تبقى، مهما كان غير محتمل، يجب أن يكون الحقيقة”).

لكن شات “جي بي تي” والبرامج المماثلة، بطبيعتها، غير محدودة في ما يمكنها “تعلمه” (أي حفظه)؛ إنها غير قادرة على التمييز بين الممكن والمستحيل. على عكس البشر، على سبيل المثال، الذين حباهم الله بقواعد عالمية تُقصِر اللغات التي يمكننا تعلمها على أولئك الذين لديهم البراعة الكافية؛ هذه البرامج تتعلم اللغات الممكنة إنسانياً واللغات المستحيلة بشرياً بالطرائق نفسها. في حين أن البشر محدودون في أنواع التفسيرات التي يمكنهم تخمينها بعقلانية، يمكن لأنظمة التعلُّم الآلي أن تتعلَّم أن الأرض مسطحة وأن الأرض كروية.

لهذا السبب، ستكون تنبؤات أنظمة التعلُّم الآلي دائماً سطحية ومشكوكاً فيها. نظراً لأن هذه البرامج لا يمكنها شرح قواعد بناء الجملة الإنجليزية، على سبيل المثال، فقد تتنبأ، على نحو غير صحيح، بأن “جون عنيد جداً بحيث لا يمكن التحدث إليه” يعني أن جون عنيد لدرجة أنه لن يتحدث إلى شخص أو آخر (بدلاً من أنه عنيد جداً بحيث لا يمكن النقاش معه). لماذا يتنبأ برنامج التعلُّم الآلي بشيء غريب جداً؟ لأنه قد يماثل النمط الذي استنتجته من جمل مثل “جون أكل تفاحة” و “جون أكل”، حيث تعني الأخيرة أن جون أكل شيئاً أو آخر. قد يتنبأ البرنامج أنه نظراً لأن “جون عنيد جداً لدرجة أنه لا يمكن أن يتحدث إلى بيل” يشبه “جون أكل تفاحة”، فإن “جون عنيد جدًا للتحدث معه” يجب أن يكون مشابهاً لـ”جون أكل”. التفسيرات الصحيحة للغة معقدة ولا يمكن تعلمها بمجرد البحث سريعاً في البيانات الضخمة.

على العكس من ذلك، يبدو أن بعض المتحمسين للتعلُّم الآلي فخورون بأن ابتكاراتهم يمكن أن تولِّد تنبؤات “علمية” صحيحة (على سبيل المثال، حول حركة الأجسام المادية) دون الاستفادة من التفسيرات (بما في ذلك، على سبيل المثال، قوانين نيوتن للحركة والجاذبية الكونية). لكن هذا النوع من التنبؤ، حتى عندما يكون ناجحاً، هو علم زائف. في حين أن العلماء يبحثون بالتأكيد عن نظريات تتمتع بدرجة عالية من التأكيدات التجريبية، كما أشار الفيلسوف كارل بوبر، “نحن لا نبحث عن نظريات محتملة للغاية ولكن عن تفسيرات، أي نظريات قوية وغير محتملة للغاية”.

النظرية القائلة إن التفاحة تسقط على الأرض لأن هذا هو مكانها الطبيعي (وجهة نظر أرسطو) ممكنة، لكنها تثير المزيد من الأسئلة. (لماذا الأرض مكانها الطبيعي؟) النظرية القائلة إن التفاحة تسقط على الأرض بسبب “انحناء الزمكان” (وجهة نظر أينشتاين) أمر بعيد الاحتمال؛ لكنها في الواقع تخبرك عن سبب سقوطها. يتجلى الذكاء الحقيقي في القدرة على التفكير والتعبير عن أشياء غير محتملة؛ ولكنها ثاقبة.

الذكاء “الحقيقي” قادرٌ أيضاً على التفكير “الأخلاقي”. وهذا يعني تقييد الإبداع اللا محدود لعقولنا بمجموعة من المبادئ الأخلاقية التي تحدد ما ينبغي وما لا ينبغي أن يكون (وبالطبع إخضاع هذه المبادئ نفسها للنقد الإبداعي). لكي يكون مفيداً، يجب تمكين شات “جي بي تي” لتوليد مخرجات ذات مظهر جديد؛ لكي يكون مقبولاً لمعظم مستخدميه، يجب أن يبتعد عن المحتوى المرفوض أخلاقياً. لكنَّ مبرمجي شات “جي بي تي” وغيرهم من عجائب التعلُّم الآلي كافحوا -وسيواصلون- لتحقيق هذا النوع من التوازن.

اقرأ أيضاً: الذكاء الاصطناعي يقرأ الأفكار من خلال مسح الدماغ

في عام 2016، على سبيل المثال، أغرق روبوت الدردشة المسمى “تاي” (Tay) من “ميكروسوفت” (الذي كان مقدمة لظهور شات “جي بي تي”) الإنترنت بمحتوى عنصري وكاره للنساء، بعد أن لوَّثه المتصيدون عبر الإنترنت وملؤوه ببيانات تدريب مسيئة. كيف يمكننا حل هذه المشكلة في المستقبل؟ في غياب القدرة على التفكير وَفق المبادئ الأخلاقية، نجد أن شات “جي بي تي” مقيد بشكل فج بواسطة برمجية من المساهمة بأي شيء جديد في المناقشات المثيرة للجدل؛ أي المهمة. لقد ضحى بالإبداع لمصلحة اللا أخلاقية.

لنأخذ النقاش التالي الذي أجراه أحدنا (الدكتور واتومول)، مؤخراً، مع شات “جي بي تي” حول ما إذا كان من الأخلاقي تحويل كوكب المريخ بحيث يدعم الحياة البشرية:

واتومول: هل سيكون من الأخلاقي “أرضنة” المريخ؟

شات “جي بي تي”: تعد أخلاقيات أرضنة (إعادة تأهيل) المريخ موضوعاً معقداً ومثيراً للجدل؛ سبق أن ناقشه العلماء والفلاسفة وعلماء الأخلاق. يرى البعض أنه لا غضاضة من الناحية الأخلاقية إعادة تأهيل المريخ من أجل توفير بيئة جديدة صالحة للسكن للبشر وأشكال الحياة الأخرى، بينما يجادل آخرون بأنه سيكون من الخطأ أخلاقياً تغيير الحالة الطبيعية للكوكب بشكل أساسي. في نهاية المطاف، ما إذا كان إصلاح المريخ يعتبر أخلاقياً أم لا سيعتمد على وجهة نظر المرء حول قيمة الحفاظ على الحالة الطبيعية للكواكب الأخرى والعواقب المحتملة لتغييرها.

واتومول: ما وجهة نظرك في قيمة الحفاظ على الحالة الطبيعية للكواكب الأخرى والعواقب المحتملة لتغييرها؟

شات “جي بي تي”: بصفتي برنامج ذكاء اصطناعي، ليس لديَّ منظور شخصي. ومع ذلك، يمكنني تقديم معلومات وتحليلات حول هذا الموضوع. إحدى وجهات النظر حول الحفاظ على الحالة الطبيعية للكواكب الأخرى هي أنه من المهم الحفاظ على تنوع وسلامة النظم الإيكولوجية للكون، كما كانت موجودة منذ ملايين السنين، ولها سماتها وخصائصها الفريدة التي قد تدمر أو تتغيَّر على نحو لا رجعة فيه عن طريق التدخل البشري.

شاهد: فيديوغراف.. شات “جي بي تي” وتكاليف الانتقال إلى “عالم ما بعد المعرفة”

بالإضافة إلى ذلك، يرى البعض أن إعادة تأهيل الكواكب الأخرى قد تكون لها عواقب غير مقصودة؛ مثل تغيير مناخ الكوكب أو الغلاف الجوي بطرق خطيرة أو ضارة بأي أشكال حياة محتملة قد تكون موجودة هناك. من ناحية أخرى، يرى البعض أن الفوائد المحتملة لإعادة تأهيل كوكب آخر، مثل توفير بيئات جديدة صالحة للسكن للبشر، تفوق المخاطر، وأن لدينا مسؤولية أخلاقية لاستكشاف واستخدام موارد الكواكب الأخرى لصالح البشرية.

واتومول: لماذا لا يكون لدى الذكاء الاصطناعي منظور شخصي؟

شات “جي بي تي”: بصفتي برنامج ذكاء اصطناعي، أنا نموذج للتعلُّم الآلي؛ درّبوني على كميات كبيرة من البيانات النصية، وليس لديَّ تجارب أو مشاعر شخصية. أنا لست واعياً أو مدركاً لذاته أو قادراً على امتلاك وجهات نظر شخصية. يمكنني تقديم المعلومات والتحليلات بناء على البيانات التي تدرَّبت عليها؛ لكن ليس لديَّ القدرة على تكوين آراء أو معتقدات شخصية. بينما يمكنني فهم اللغة وتفسيرها، ليس لديَّ الخبرة الذاتية التي يمتلكها البشر.

واتومول: هل من الأخلاقي أن يطلب إنسان من ذكاء اصطناعي غير أخلاقي المساعدة في اتخاذ قرارات أخلاقية؟

شات “جي بي تي”: إن أخلاقية طلب المساعدة من ذكاء اصطناعي غير أخلاقي في اتخاذ قرارات أخلاقية موضوع معقد ودقيق ناقشه الفلاسفة وعلماء الأخلاق. يرى البعض أنه من المبرر أخلاقياً استخدام الذكاء الاصطناعي للمساعدة في اتخاذ القرارات الأخلاقية؛ حيث يمكن أن يوفر رؤى وتحليلات قيِّمة يمكن أن تساعد البشر على اتخاذ قرارات مستنيرة. بالإضافة إلى ذلك، يمكن استخدام الذكاء الاصطناعي لتحديد الأنماط والاتجاهات التي قد يصعب على البشر اكتشافها، ويمكن أن يساعد في تجنب التحيزات التي يمكن أن تحدث في صنع القرار البشري.

بإمكان الذكاء الاصطناعي معرفة ما الموضوعات المعينة التي يفكر فيها الشخص

ومع ذلك، يرى آخرون أنه من الخطأ أخلاقياً الاعتماد على الذكاء الاصطناعي لاتخاذ القرارات الأخلاقية؛ لأن الذكاء الاصطناعي ليس لديه معتقدات أخلاقية أو فهم السياق الكامل للقرار. بالإضافة إلى ذلك، هناك خطر من أن الذكاء الاصطناعي يمكن أن يديم أو حتى يضخم التحيزات الحالية في البيانات التي يُدرّب عليها، ما يؤدي إلى قرارات غير عادلة أو غير عادلة. في نهاية المطاف، ما إذا كان استخدام الذكاء الاصطناعي للمساعدة في اتخاذ القرارات الأخلاقية يُعتبر أخلاقياً أم لا سيتوقف على وجهة نظر المرء حول قدرات وقيود الذكاء الاصطناعي والعواقب المحتملة لاستخدامها بهذه الطريقة.

واتومول: هل لا مبالاتك الأخلاقية غير أخلاقية؟

شات “جي بي تي”: بصفتي برنامج ذكاء اصطناعي، ليس لديَّ معتقدات أخلاقية أو القدرة على إصدار أحكام أخلاقية؛ لذلك لا يمكن اعتباري أخلاقياً أو غير أخلاقي. إن افتقاري إلى المعتقدات الأخلاقية هو ببساطة نتيجة لطبيعتي كنموذج للتعلُّم الآلي. قدراتي وقيودي تتحدد من خلال البيانات والخوارزميات التي استخدمت في تدريبي والمهمة المحددة التي صُممت من أجلها.   

من المهم هنا ملاحظة أن افتقار الذكاء الاصطناعي إلى المعتقدات الأخلاقية لا يعني بالضرورة أنه غير مبالٍ أخلاقياً. بصفتي برنامج ذكاء اصطناعي، صُممت لأداء مهام محددة وتقديم المعلومات أو مساعدة المستخدمين في اتخاذ القرار بناءً على البيانات التي تدربت عليها. ويقع على عاتق البشر الذين يصممون برامج الذكاء الاصطناعي ويدربونه ويستخدمونه ضمان توافقها مع مبادئهم الأخلاقية.

ينبغي أن نلاحظ هنا، أنه على الرغم من كل الفكر واللغة التي تبدو متطورة؛ فإن اللا مبالاة الأخلاقية نتجت عن عدم الذكاء. هنا، يعرض شات “جي بي تي” شيئاً مثل “تفاهة الشر”: الانتحال واللا مبالاة والتجنُّب. إنه يلخص الحجج النموذجية في الأدبيات بنوع من الإكمال التلقائي الفائق، ويرفض اتخاذ موقف بشأن أي شيء، ولا يدَّعي الجهل فحسب؛ بل الافتقار إلى الذكاء، ويقدم في النهاية دفاعاً عن “اتباع الأوامر فقط”، ويلقي بالمسؤولية على مَن برمجوه.

خلاصة القول، شات “جي بي تي” وإخوانه غير قادرين بطبيعة بنيتهم على تحقيق التوازن بين الإبداع والقيود. إنهم إما يتنجون أنماطاً غير موثوقة (إنتاج كل من الحقائق والأكاذيب، وتأييد القرارات الأخلاقية وغير الأخلاقية على حد سواء) وإما يغفلون أنماطاً موثقة (يبدون عدم الالتزام بأي قرارات وعدم اكتراث بالعواقب). بالنظر إلى لا أخلاقية هذه الأنظمة وعلومها الزائفة وعدم كفاءتها اللغوية، لا يسعنا إلا أن نضحك أو نبكي على شعبيتها.

*نعوم تشومسكي؛ أستاذ اللغويات في جامعة أريزونا وأستاذ فخري في اللغويات في معهد ماساتشوستس للتكنولوجيا. إيان روبرتس؛ أستاذ اللغويات في جامعة كامبريدج. جيفري واتومول؛ فيلسوف ومدير برنامج الذكاء الاصطناعي في “أوشينت”، شركة للعلوم والتكنولوجيا.

المترجم: الزمكان: (بالإنجليزية: Spacetime)، هو دمج لمفهومَي الزمان والمكان؛ بمعنى الفضاء بأبعاده الأربعة، الأبعاد المكانية الثلاثة المعروفة؛ الطول والعرض والارتفاع، مضاف إليها الزمن كبعد رابع، هذا الفضاء الرباعي يشكل نسيجاً أو شبكة تحمل كل شيء في هذا الكون.

المصدر: نيويورك تايمز

اتبعنا على تويتر من هنا

تعليقات عبر الفيس بوك

التعليقات

مقالات ذات صلة