تقرير يبرز خطورة الذكاء الاصطناعي ويحذر من تهديد انقراض البشر مع مطالبة لأمريكا بالتدخل
(CNN)-- يرسم تقرير جديد قال مؤلفوه إنه بتكليف من وزارة الخارجية الأمريكية، صورة مثيرة للقلق عن مخاطر الأمن القومي "الكارثية" التي يشكلها الذكاء الاصطناعي سريع التطور، ويحذر من أن الوقت ينفد أمام الحكومة الفيدرالية لتجنب الكارثة.
واستندت النتائج إلى مقابلات مع أكثر من 200 شخص على مدار أكثر من عام، بمن في ذلك كبار المسؤولين التنفيذيين من شركات ذكاء اصطناعي رائدة، وباحثين في مجال الأمن السيبراني، وخبراء أسلحة الدمار الشامل، ومسؤولي الأمن القومي داخل الحكومة.
ويشير التقرير، الذي صدر هذا الأسبوع من قبل "غلادستون للذكاء الاصطناعي"، بشكل قاطع إلى أن أنظمة الذكاء الاصطناعي الأكثر تقدما يمكن، في أسوأ الحالات، "أن تشكل تهديدا على مستوى الانقراض للجنس البشري".
ولم تستجب وزارة الخارجية الأمريكية لطلب التعليق.
يعد التحذير الوارد في التقرير بمثابة تذكير آخر بأنه رغم أن إمكانات الذكاء الاصطناعي لا تزال تأسر المستثمرين والجمهور، إلا أن هناك مخاطر حقيقية أيضًا.
وقال جيريمي هاريس، الرئيس التنفيذي والمؤسس المشارك لـ “Gladstone AI”، لشبكة CNN ، الثلاثاء: "الذكاء الاصطناعي هو بالفعل تكنولوجيا تحويلية اقتصاديًا.. يمكن أن يسمح لنا بعلاج الأمراض، وتحقيق الاكتشافات العلمية، والتغلب على التحديات التي اعتقدنا ذات يوم أنه لا يمكن التغلب عليها".
وأضاف هاريس: "لكنه قد يجلب أيضًا مخاطر جسيمة، بما في ذلك المخاطر الكارثية، التي يجب أن نكون على دراية بها". وتابع "تشير مجموعة متزايدة من الأدلة - بما في ذلك الأبحاث والتحليلات التجريبية المنشورة في أهم مؤتمرات الذكاء الاصطناعي في العالم - إلى أنه فوق عتبة معينة من القدرة، من المحتمل أن تصبح أنظمة الذكاء الاصطناعي خارجة عن السيطرة".
وقالت المتحدثة باسم البيت الأبيض، روبين باترسون، إن الأمر التنفيذي الذي أصدره الرئيس جو بايدن بشأن الذكاء الاصطناعي هو "الإجراء الأكثر أهمية الذي اتخذته أي حكومة في العالم للوفاء بالوعد وإدارة مخاطر الذكاء الاصطناعي".
وقالت باترسون: "سيواصل الرئيس ونائب الرئيس العمل مع شركائنا الدوليين ويحثون الكونغرس على إقرار تشريع من الحزبين لإدارة المخاطر المرتبطة بهذه التقنيات الناشئة".
"حاجة واضحة وعاجلة" للتدخل
يحذر الباحثون من خطرين رئيسيين يشكلهما الذكاء الاصطناعي على نطاق واسع.
أولاً، قالت "غلادستون للذكاء الاصطناعي"، إن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن تسليحها لإحداث أضرار لا يمكن إصلاحها. ثانياً، ذكر التقرير أن هناك مخاوف خاصة داخل مختبرات الذكاء الاصطناعي من أنها قد "تفقد السيطرة" في مرحلة ما على الأنظمة ذاتها التي تعمل على تطويرها، مع "عواقب مدمرة محتملة على الأمن العالمي".
وقال التقرير إن "صعود الذكاء الاصطناعي والذكاء العام الاصطناعي لديه القدرة على زعزعة استقرار الأمن العالمي بطرق تذكرنا بإدخال الأسلحة النووية"، مضيفًا أن هناك خطر حدوث "سباق تسلح" للذكاء الاصطناعي، والصراع و"حوادث مميتة بحجم أسلحة الدمار الشامل".
ويدعو تقرير غلادستون للذكاء الاصطناعي إلى اتخاذ خطوات جديدة جذرية تهدف إلى مواجهة هذا التهديد، بما في ذلك إطلاق وكالة جديدة للذكاء الاصطناعي، وفرض ضمانات تنظيمية "طارئة" وقيود على مقدار قوة الكمبيوتر التي يمكن استخدامها لتدريب نماذج الذكاء الاصطناعي.
وكتب المؤلفون في التقرير: "هناك حاجة واضحة وعاجلة لتدخل حكومة الولايات المتحدة".
ويشير التقرير إلى أنه رغم أن العمل تم إنتاجه لصالح وزارة الخارجية، إلا أن آراءه "لا تعكس آراء" الوكالة ولا الحكومة الأمريكية بشكل عام.
يُظهر إشعار حكومي صدر في عام 2022 عن مكتب صندوق منع الانتشار ونزع السلاح التابع لوزارة الخارجية أن الحكومة تعرض دفع ما يصل إلى 250 ألف دولار مقابل تقييم "مخاطر الانتشار والأمن" المرتبطة بالذكاء الاصطناعي المتقدم.
مخاوف تتعلق بالسلامة
قال هاريس، المدير التنفيذي لجلادستون للذكاء الاصطناعي، إن "المستوى غير المسبوق من الوصول" الذي تمتع به فريقه للمسؤولين في القطاعين العام والخاص أدى إلى استنتاجات مذهلة. قالت Gladstone AI إنها تحدثت إلى الفرق الفنية والقيادية من مالك تشات جي بي تي OpenAI، وGoogle DeepMind، والشركة الأم لفيسبوك "ميتا" وAnthropic
وقال هاريس في مقطع فيديو نُشر على الموقع الإلكتروني لـ Gladstone AI للإعلان عن التقرير: "على طول الطريق، علمنا بعض الأشياء المثيرة للقلق.. وراء الكواليس، يبدو وضع السلامة والأمن في الذكاء الاصطناعي المتقدم غير مناسب إلى حد كبير مقارنة بالمخاطر الأمنية الوطنية التي قد يطرحها الذكاء الاصطناعي قريبًا إلى حد ما."
وقال تقرير غلادستون للذكاء الاصطناعي إن الضغوط التنافسية تدفع الشركات إلى تسريع تطوير الذكاء الاصطناعي "على حساب السلامة والأمن"، مما يزيد من احتمال "سرقة" أنظمة الذكاء الاصطناعي الأكثر تقدما و"تسليحها" ضد الولايات المتحدة.
وتضاف هذه الاستنتاجات إلى قائمة متزايدة من التحذيرات بشأن المخاطر الوجودية التي يفرضها الذكاء الاصطناعي - بما في ذلك حتى من بعض أقوى الشخصيات في الصناعة.
منذ ما يقرب من عام، استقال جيفري هينتون، المعروف باسم "الأب الروحي للذكاء الاصطناعي"، من وظيفته في شركة غوغل وأطلق صافرة الإنذار بشأن التكنولوجيا التي ساعد في تطويرها. وقال هينتون إن هناك فرصة بنسبة 10% أن يؤدي الذكاء الاصطناعي إلى انقراض الإنسان خلال العقود الثلاثة المقبلة.
وقّع هينتون وعشرات من قادة صناعة الذكاء الاصطناعي والأكاديميين وغيرهم على بيان في يونيو الماضي جاء فيه "التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية."
ويشعر قادة الأعمال بقلق متزايد إزاء هذه المخاطر ــ حتى وهم يضخون مليارات الدولارات في الاستثمار في الذكاء الاصطناعي. في العام الماضي، قال 42% من الرؤساء التنفيذيين الذين شملهم الاستطلاع في قمة الرؤساء التنفيذيين بجامعة "ييل" العام الماضي إن الذكاء الاصطناعي لديه القدرة على تدمير البشرية بعد خمس إلى عشر سنوات من الآن.
قدرات تشبه قدرات الإنسان على التعلم
أشارتGladstone AI في تقريرها إلى بعض الأفراد البارزين الذين حذروا من المخاطر الوجودية التي يشكلها الذكاء الاصطناعي، بما في ذلك إيلون موسك، ورئيسة لجنة التجارة الفيدرالية لينا خان، والمسؤول التنفيذي الأول السابق في OpenAI.
ويشارك بعض الموظفين في شركات الذكاء الاصطناعي مخاوف مماثلة على انفراد، وفقًا لـ Gladstone AI.
قال التقرير: "أعرب أحد الأفراد في أحد مختبرات الذكاء الاصطناعي المعروفة عن وجهة نظر مفادها أنه إذا تم إطلاق نموذج محدد من الجيل التالي للذكاء الاصطناعي بدون مقيدات في الوصول، فسيكون ذلك" سيئًا للغاية "، لأن القدرة المقنعة المحتملة للنموذج يمكن "كسر الديمقراطية" إذا تم الاستفادة منها في مجالات مثل التدخل في الانتخابات أو التلاعب بالناخبين.
وقالت غلادستون إنها طلبت من خبراء الذكاء الاصطناعي في بعض المختبرات مشاركة تقديراتهم الشخصية بشكل خاص حول احتمال أن يؤدي حادث الذكاء الاصطناعي إلى "آثار عالمية لا رجعة فيها" في عام 2024. وتراوحت التقديرات بين 4% وما يصل إلى 20%، وفقًا للتقرير، الذي يشير إلى أن التقديرات كانت غير رسمية ومن المحتمل أن تخضع لتحيز كبير.
واحدة من أكبر المفاجآت هي مدى سرعة تطور الذكاء الاصطناعي - وتحديداً الذكاء العام الاصطناعي (AGI)، وهو شكل افتراضي من الذكاء الاصطناعي يتمتع بقدرة على التعلم تشبه قدرة الإنسان أو حتى قدرة تفوق طاقة البشر.
يقول التقرير إن الذكاء العام الاصطناعي يُنظر إليه على أنه "المحرك الرئيسي للمخاطر الكارثية الناجمة عن فقدان السيطرة"، ويشير إلى أن OpenAI وGoogle DeepMind وAnthropic وNvidia جميعهم صرحوا علنًا بإمكانية الوصول إلى الذكاء الاصطناعي العام بحلول عام 2028 - على الرغم من أن آخرين يعتقدون أن الأمر أبعد بكثير. وتشير Gladstone AI إلى أن الخلافات حول الجداول الزمنية للذكاء العام الاصطناعي تجعل من الصعب تطوير السياسات والضمانات، وهناك خطر يشكله التباطؤ في التنظيم بظل تطور التكنولوجيا.