حذّر تقرير جديد بتكليف من وزارة الخارجية الأميركية من مخاطر الذكاء الاصطناعي على الأمن القومي، ووصفها بالكارثية، مشيراً إلى أن الوقت ينفد أمام الحكومة الفيدرالية لتجنب الكارثة.

واستندت نتائج التقرير إلى مقابلات مع أكثر من 200 شخص على مدار أكثر من عام، بما في ذلك كبار المسؤولين التنفيذيين في شركات الذكاء الاصطناعي الرائدة، وباحثون في مجال الأمن السيبراني، وخبراء أسلحة الدمار الشامل، ومسؤولو الأمن القومي في الولايات المتحدة.

ويشير التقرير، الذي أصدرته (غلادستون إيه آي) هذا الأسبوع بتكليف من الخارجية الأميركية، بشكل قاطع إلى أن أنظمة الذكاء الاصطناعي الأكثر تقدماً قد تشكل تهديداً على مستوى الجنس البشري، ففي أسوأ الحالات قد تؤدي إلى انقراضه.

وقال مسؤول بوزارة الخارجية الأميركية لشبكة CNN إن إعداد التقرير يأتي في ضوء حرص السلطات الأميركية على تقييم مدى توافق الذكاء الاصطناعي مع حماية المصالح الأميركية في الداخل والخارج، ومع ذلك أكد المسؤول أن التقرير لا يمثل آراء الحكومة الأميركية.

ويجدد التحذير الوارد في التقرير التذكير بأنه على الرغم من أن إمكانات الذكاء الاصطناعي تأسر المستثمرين والجمهور فإن هناك مخاطر له أيضاً.

وقال جيريمي هاريس، الرئيس التنفيذي والمؤسس المشارك لشركة غلادستون إيه آي، لشبكة CNN يوم الثلاثاء «يمكّننا الذكاء الاصطناعي من علاج الأمراض، وتحقيق الاكتشافات العلمية، والتغلب على التحديات التي اعتقدنا ذات يوم أنه لا يمكن التغلب عليها».

لكنه أضاف أنه قد يجلب أيضاً مخاطر جسيمة، بما في ذلك كوارث يجب أن نكون على دراية بها، مشيراً إلى احتمالية أن تصبح أنظمة الذكاء الاصطناعي خارجة عن السيطرة.

وقالت المتحدثة باسم البيت الأبيض، روبين باترسون، إن الأمر التنفيذي الذي أصدره الرئيس جو بايدن بشأن الذكاء الاصطناعي هو «الإجراء الأكثر أهمية من قبل أي حكومة في العالم للوفاء بالوعد وإدارة مخاطر الذكاء الاصطناعي».

حاجة واضحة وعاجلة للتدخل

يحذر الباحثون من خطرين رئيسيين يشكلهما الذكاء الاصطناعي على نطاق واسع، إذ إن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن تسليحها لإحداث أضرار لا يمكن إصلاحها، بحسب تقرير غلادستون إيه آي.

وأضاف التقرير أن هناك مخاوف خاصة داخل مختبرات الذكاء الاصطناعي من أنها قد تفقد السيطرة في مرحلة ما على الأنظمة ذاتها التي تعمل على تطويرها، إذ حذّر التقرير من عواقب مدمرة محتملة على الأمن العالمي.

وقال التقرير إن صعود الذكاء الاصطناعي قد يزعزع استقرار الأمن العالمي بطرق تذكرنا ببداية ظهور الأسلحة النووية، مضيفاً أن هناك خطر حدوث سباق تسلح للذكاء الاصطناعي.

ويدعو التقرير إلى اتخاذ خطوات جديدة جذرية تهدف إلى مواجهة هذا التهديد، بما في ذلك إطلاق وكالة جديدة للذكاء الاصطناعي، وفرض ضمانات تنظيمية طارئة وقيود على مقدار قوة الكمبيوتر التي يمكن استخدامها لتدريب نماذج الذكاء الاصطناعي.

وأشار التقرير إلى أن هناك حاجة واضحة وعاجلة لتدخل الحكومة الأميركية.

مخاوف على السلامة

وقال تقرير غلادستون إن الضغوط التنافسية تدفع الشركات إلى تسريع تطوير الذكاء الاصطناعي على حساب السلامة والأمن، ما يزيد من احتمال «سرقة» أنظمة الذكاء الاصطناعي الأكثر تقدماً وتسليحها ضد الولايات المتحدة.

منذ ما يقرب من عام، استقال جيفري هينتون، المعروف باسم الأب الروحي للذكاء الاصطناعي، من وظيفته في شركة غوغل محذّراً من التكنولوجيا التي ساعد في تطويرها، وقال هينتون إن هناك فرصة بنحو 10 في المئة أن يؤدي الذكاء الاصطناعي إلى انقراض الإنسان خلال العقود الثلاثة المقبلة.

كوارث الذكاء الاصطناعي

وتحذر وثيقة ذات صلة نشرتها شركة غلادستون من أن تطوير الذكاء الاصطناعي من شأنه أن يؤدي إلى مخاطر كارثية تصل إلى مخاطر تشبه أسلحة الدمار الشامل، وذكر التقرير، على سبيل المثال، أنه يمكن استخدام أنظمة الذكاء الاصطناعي لتصميم وتنفيذ هجمات إلكترونية قادرة على شل البنية التحتية الحيوية.

كما تشمل الأمثلة الأخرى لمخاطر الذكاء الاصطناعي حملات التضليل واسعة النطاق التي تعمل على زعزعة استقرار المجتمع وتقويض الثقة في المؤسسات والتطبيقات الآلية المسلحة مثل هجمات بالطائرات بدون طيار.

(مات إيغان-CNN)