مئات الشخصيات العامة، بما في ذلك “آباء الذكاء الاصطناعي”، يدعون إلى حظر “الذكاء الخارق”.
ملخص: دعا مجموعة من الشخصيات البارزة، بما في ذلك خبراء في الذكاء الاصطناعي والتكنولوجيا، إلى وقف الجهود الرامية لإنشاء "ذكاء فائق". يأتي هذا في ظل مخاوف متزايدة من المخاطر المحتملة التي قد تنجم عن هذه التكنولوجيا.
دعوة لوقف تطوير الذكاء الفائق
دعت مجموعة من الشخصيات البارزة، بما في ذلك خبراء في الذكاء الاصطناعي والتكنولوجيا، إلى إنهاء الجهود الرامية لإنشاء "ذكاء فائق"، وهو شكل من أشكال الذكاء الاصطناعي الذي يتجاوز البشر في جميع المهام المعرفية تقريبًا.
• وقع على بيان نشر يوم الأربعاء أكثر من 850 شخصًا، من بينهم قادة في مجال التكنولوجيا مثل مؤسس مجموعة فيرجن ريتشارد برانسون ومؤسس أبل ستيف وزنياك.
• تصدرت قائمة الموقعين شخصيات بارزة في مجال الذكاء الاصطناعي، مثل علماء الكمبيوتر يوشوا بنجيو وجيف هينتون، الذين يعتبرون من "آباء" الذكاء الاصطناعي الحديث.
• وقع أيضًا باحثون بارزون مثل ستيوارت راسل من جامعة بيركلي.
أصبح مصطلح الذكاء الفائق شائعًا في عالم الذكاء الاصطناعي، حيث تتنافس شركات مثل xAI لإيلون ماسك وOpenAI لسام ألتمان على إصدار نماذج لغوية متقدمة.
تحذيرات من المخاطر
تحذر الشخصيات الموقعة على البيان من أن احتمال وجود ذكاء فائق قد أثار مخاوف تتراوح بين الركود الاقتصادي وفقدان الحريات المدنية، وصولًا إلى مخاطر الأمن القومي وحتى الانقراض البشري.
• دعا البيان إلى فرض حظر على تطوير الذكاء الفائق حتى يتم تحقيق دعم عام قوي وتوافق علمي واسع على إمكانية بنائه بأمان.
بالإضافة إلى شخصيات الذكاء الاصطناعي والتكنولوجيا، جاءت الأسماء الموقعة من ائتلاف واسع يشمل أكاديميين، شخصيات إعلامية، قادة دينيين، ومجموعة ثنائية الحزب من السياسيين والمسؤولين الأمريكيين السابقين.
• من بين المسؤولين المتقاعدين الذين وقعوا، كان مايك مولن، رئيس هيئة الأركان المشتركة السابق، وسوزان رايس، مستشارة الأمن القومي السابقة.
الانقسام في مجال التكنولوجيا
هناك انقسام متزايد في مجال التكنولوجيا بين أولئك الذين يرون أن الذكاء الاصطناعي قوة إيجابية تتطلب تطويرًا غير مقيد، وأولئك الذين يعتبرونها خطرة وتحتاج إلى مزيد من التنظيم.
• ومع ذلك، كما أشار موقع بيان الذكاء الفائق، فقد حذر حتى قادة الشركات الرائدة في الذكاء الاصطناعي، مثل ماسك وألتمان، في الماضي من مخاطر الذكاء الفائق.
في حديثه في بودكاست في وقت سابق من هذا العام، قال إيلون ماسك إنه يوجد "فرصة بنسبة 20% للانقراض" عند مناقشة مخاطر الذكاء الاصطناعي المتقدم.
• أشار البيان إلى استطلاع حديث من معهد مستقبل الحياة، أظهر أن 5% فقط من البالغين الأمريكيين يدعمون "الوضع الراهن لتطوير الذكاء الفائق بسرعة ودون تنظيم".
• وجد الاستطلاع، الذي شمل 2000 بالغ أمريكي، أن الغالبية تعتقد أنه يجب عدم إنشاء "ذكاء فائق" حتى يتم إثبات سلامته أو قابليته للتحكم، وتريد تنظيمًا قويًا للذكاء الاصطناعي المتقدم.
اقتباس بارز
❝ يجب علينا أن نحدد علميًا كيفية تصميم أنظمة الذكاء الاصطناعي التي لا يمكن أن تضر الناس، سواء من خلال عدم التوافق أو الاستخدام الخبيث. ❞
— يوشوا بنجيو
أضاف بنجيو أن الأنظمة الذكية يمكن أن تتجاوز معظم الأفراد في معظم المهام المعرفية خلال بضع سنوات، مشيرًا إلى أن هذه التقدمات قد تساعد في حل التحديات العالمية، لكنها تحمل أيضًا مخاطر كبيرة.