الواجهة الرئيسيةترجماتتكنولوجياثقافة ومعرفة
ما الذي ينبغي أن يقلقنا بشأن الذكاء الاصطناعي؟
يرى أنصار الذكاء الاصطناعي إمكانية استخدام قدراته في حل وتطوير العديد من القضايا التي تخص البشرية، بينما يجادل آخرون أن قدرات الذكاء الاصطناعي التي قد تفوق قدرات مبتكريه ربما تؤدي إلى إحياء خطر كارثة التكنولوجيا العلمية للآلة التي تتفوق على صانعها.

كيوبوست- ترجمات
أثار التطور السريع الذي شهده الذكاء الاصطناعي مؤخراً الكثير من المخاوف والإثارة في مختلف أنحاء العالم. كان هناك العديد من الأسئلة حول ذلك: هل ينبغي أن ندخل الأتمتة إلى جميع الوظائف؟ وهل يجب أن نطور عقولاً غير بشرية قد تفوقنا عدداً وذكاءً في نهاية المطاف، وربما تحلّ محلنا؟ هل ينبغي لنا أن نجازف بفقدان السيطرة على حضارتنا؟
جاءت هذه الأسئلة في رسالة مفتوحة صدرت عن “معهد مستقبل الحياة”، وهو مؤسسة غير حكومية طالبت الشهر الماضي بتعليق تطوير الذكاء الاصطناعي لمدة ستة أشهر. وقد وقَّع على هذه الرسالة مجموعة من أبرز الشخصيات في مجال التكنولوجيا كان من بينها إيلون ماسك.
على وجه الخصوص، كان ما يعرف بمنظومة “نماذج اللغة الكبيرة” التي يعتمد عليها تشات جي بي تي، قد فاجأ حتى من ابتكروه بمدى قدرته على توسيع معارفه. وتتضمن قدرات هذه المنظومة كل شيء ابتداءً من حل الألغاز المنطقية، وكتابة برامج الكمبيوتر، وصولاً إلى تحديد الأفلام من خلال الحبكة المكتوبة بالرموز التعبيرية.

جدل مستمر
يرى أنصار الذكاء الاصطناعي إمكانية استخدام قدراته على حل المسائل المعقدة في التوصل إلى تطوير عقاقير جديدة أو تطوير مواد جديدة للمساعدة في جهود مكافحة تغير المناخ وغيرها من القضايا التي تهم البشرية جمعاء.
بينما يجادل آخرون أن قدرات الذكاء الاصطناعي التي قد تفوق قدرات مبتكريه ربما تؤدي إلى إحياء خطر كارثة التكنولوجيا العلمية للآلة التي تتفوق على صانعها. وهذا المزيج من التفاؤل والقلق يجعل الموازنة بين الفوائد والمخاطر أمراً في غاية الصعوبة. ولكن ربما يمكننا الاستفادة من دروس سابقة تعلمناها من الصناعات الأخرى والتحولات التكنولوجية السابقة. فما الذي ينبغي لنا أن نقلق بشأنه؟ وما الذي يجب على الحكومات أن تفعله؟
اعتمد الجيل الأول من أنظمة الذكاء الاصطناعي الذي ظهر قبل عقد من الزمن على بيانات التدريب المصنفة بعناية للقيام بمهماتٍ، مثل التعرف على الصور أو تحويل الكلام إلى نص مكتوب، بينما لا يحتاج الجيل الأخير من منظومات الذكاء الاصطناعي مثل ذلك التصنيف الدقيق للبيانات، وهذا يعني إمكانية تدريبه اعتماداً على كميات هائلة من البيانات المتوفرة على شبكة الإنترنت بأكملها، وهو ما يفسر قدراته الهائلة، الجيدة منها والسيئة.
اقرأ أيضاً: ماذا تعرف عن الذكاء الاصطناعي؟
ومؤخراً أصبحت هذه القدرات واضحة للجمهور على نطاقٍ واسع، بعد إطلاق تشات جي بي تي في نوفمبر الماضي، حيث بلغ عدد مستخدميه 100 مليون في غضون شهرين، وسرعان ما تم استخدامه في مختلف مجالات الحياة من كتابة الفروض المدرسية إلى كتابة خطب الزفاف. كانت مخرجات منظومة “نماذج اللغة الكبيرة” تحمل الكثير من الحقائق، ولكن في أحيان كثيرة كانت تشوبها الأخطاء والافتراءات الصريحة.
دفعت الشعبية الكبيرة لهذه المنظومة شركة مايكروسوفت وغوغل، وغيرها من شركات التكنولوجيا، إلى دمجها في منتجاتها. وقد أدى هذا التسارع الهائل في تطور قوة أنظمة الذكاء الاصطناعي، والوعي المتزايد بقدراتها وعيوبها، إلى مخاوف من أن التكنولوجيا تتقدم بسرعة لا يمكن السيطرة عليها بأمان.
ومن هنا جاءت الدعوة إلى تجميد تطويرها، وجاء القلق المتزايد من أن هذه التكنولوجيا لا تهدد الوظائف ودقة المعلومات والحقائق والسمعة فحسب؛ بل تهدد وجود البشرية نفسها.

خوف قديم
يرجع الخوف من سرقة الآلات للوظائف إلى عدة قرون مضت، ولكن حتى الآن كانت التكنولوجيا تخلق وظائف جديدة تحل محل الوظائف التي قضت عليها. كانت التكنولوجيا حتى الآن تميل إلى استبدال المهن غير الماهرة، لكن الذكاء الاصطناعي قادر على أداء مهام يقوم بها اليوم من يرتدون الياقات البيضاء، مثل تلخيص المستندات، وكتابة التعليمات البرمجية.
لطالما كانت درجة الخطر الوجودي الذي يحمله الذكاء الاصطناعي موضع نقاش ساخن وانقسام حاد بين الخبراء. فقد أظهرت دراسة استقصائية جرت عام 2022 أن 48% من الخبراء الذين شملتهم الدراسة يرون أنه يوجد احتمال 10% على الأقل لأن تكون عواقب الذكاء الاصطناعي سيئة جداً (مثل انقراض البشرية)، بينما رأى 25% منهم أن نسبة الخطر ستكون معدومة، وقال المعتدلون منهم إن نسبة الخطر ستكون 5%.
وتأتي معظم المخاوف من فكرة أن الذكاء الاصطناعي المتطور يمكن أن يسبب أضراراً كارثية من خلال صنع السموم أو الفيروسات أو إقناع البشر بارتكاب أعمالٍ إرهابية. وحتى لو لم يكن لدى الذكاء الاصطناعي نوايا شريرة، يخشى الباحثون من أن يكون له أهداف لا تتوافق مع أهداف البشر الذين صنعوه.
بالطبع، لا ينبغي رفض مثل هذه السيناريوهات، ولكن لا بد من ملاحظة أنها تنطوي على قدرٍ هائل من التخمين، وتفترض حصول قفزة هائلة في تكنولوجيا اليوم. ويتخيل كثيرون أن الذكاء الاصطناعي في المستقبل سيكون قادراً على الوصول غير المقيد إلى الطاقة والمال وقوة الحوسبة، وهي قيود حقيقية يمكن استخدامها لتقييد الذكاء الاصطناعي المارق في المستقبل.

ثلاث مقاربات.. والتنظيم ضرورة
واليوم ربما يكون فرضُ قيود صارمة أو تعليق كامل لتطوير الذكاء الاصطناعي رد فعلٍ مبالغاً فيه، وغير قابل للتنفيذ العملي، ولكن لا شك في وجود ضرورة للتنظيم، وذلك لأسبابٍ عملية أكثر منه لإنقاذ البشرية.
فأنظمة الذكاء الاصطناعي الحالية تثير مخاوف حقيقية، ليس أكبرها تلك المتعلقة بالتحيز وحقوق الملكية الفكرية، ومع تقدم التكنولوجيا ستحمل معها المزيد من المخاطر. والمفتاح هنا هو الموازنة بين ثمار الذكاء الاصطناعي الموعودة، وتقييم المخاطر التي يحملها والاستعداد للتكيف معه.
تتخذ الحكومات حتى الآن ثلاث مقارباتٍ مختلفة بهذا الشأن. إذ تتخذ بريطانيا والولايات المتحدة مقاربة “اللمسة الخفيفة” التي تكتفي بالقواعد والهيئات التنظيمية الموجودة حالياً لتنظيم مسألة تطوير الذكاء الاصطناعي، على الرغم من أن إدارة بايدن تبحث الآن في الخطوط العريضة لكتاب القواعد المستقبلي المحتمل.
بينما يتخذ الاتحاد الأوروبي نهجاً أكثر تشدداً ويصنف الاستخدامات المختلفة للذكاء الاصطناعي حسب درجة المخاطرة، ويطلب مراقبة وشفافية أكثر صرامة مع ارتفاع درجة مخاطر الاستخدام، على سبيل المثال من التوصيات الموسيقية إلى السيارات الذاتية القيادة.
اقرأ أيضاً: من سيكسب سباق الذكاء الاصطناعي؟
بينما ترى الصين ضرورة وجود ضوابط أشد، ومعاملة الذكاء الاصطناعي مثل الصناعات الدوائية التي تحكمها جهات ناظمة متخصصة، وتخضع لاختباراتٍ صارمة وموافقات مسبقة قبل الإصدار العام. وتطلب الحكومة الصينية من الجهات الرسمية تسجيل منتجات الذكاء الاصطناعي وإخضاعها لمراجعات أمنية قبل إصدارها. ولكن ربما تكون السياسة هنا هي الدافع الأساسي، فالمطلوب هنا هو إنتاج ذكاء اصطناعي يعكس “القيم الأساسية الاشتراكية” للبلاد.
من غير المرجح أن يكون نهج “اللمسة الخفيفة” كافياً، فإذا كان الذكاء الاصطناعي تقنية مهمة مثل الأدوية والسيارات والطائرات -وهناك أسبابٌ وجيهة للاعتقاد بأنه كذلك- فلا بد من أنه بحاجة إلى قواعد جديدة. ولذلك فإن النموذج الأوروبي هو الأفضل، على الرغم من أن نظام التصنيف الذي يعتمده مجهد للغاية.
وبالطبع يمكن تشديد القواعد بمرور الوقت إذا لزم الأمر، وربما سيكون من المناسب عندئذ إنشاء هيئة ناظمة، وربما الاتفاق على معاهدات دولية مشابهة لتلك التي تحكم الأسلحة النووية في حال ظهور خطر وجودي.
لا شك أن هذه التكنولوجيا الجديدة تطرح مخاطر جديدة، ولكنها تحمل معها فرصاً غير عادية، وتحقيق التوازن بين الأمرين يتطلب السير بحذر شديد. ويمكن أن توفر المقاربات المحسوبة بدقة اليوم، الأسس التي يمكن البناء عليها لإضافة المزيد من القواعد في المستقبل. ومن المؤكد أن الوقت قد حان للبدء في بناء تلك الأسس.
المصدر: ذا إيكونوميست