يحتاج مبتكرو الذكاء الاصطناعي إلى التخلي عن عقلية "اليوتوبيا التكنولوجية" وفقًا لهيئة مراقبة الإرهاب، وسط مخاوف من إمكانية استخدام التكنولوجيا الجديدة لتهيئة الأفراد الضعفاء، بحسب صحيفة "الغارديان" البريطانية.

قال جوناثان هول كيه سي، الذي يتمثل دوره في مراجعة مدى كفاية تشريعات الإرهاب، إن تهديد الأمن القومي من الذكاء الاصطناعي أصبح أكثر وضوحًا من أي وقت مضى وإن التكنولوجيا بحاجة إلى التصميم مع وضع نوايا الإرهابيين في الاعتبار.

وأكد أن الكثير من تطوير الذكاء الاصطناعي ركز على الإيجابيات المحتملة للتكنولوجيا مع تجاهل كيفية استخدام الإرهابيين لها لتنفيذ هجمات.

وأضاف كي سي: "إنهم بحاجة إلى بعض النازيين الجدد الرهيبين.. والعمل على ما يمكن أن يفعلوه، مبينا: "يجب عليك تثبيت الدفاعات ضد ما تعرف أن الناس سيفعلونه به".

عبّر المراجع المستقل للحكومة لتشريعات الإرهاب عن قلقه المتزايد من نطاق برامج الدردشة الإلكترونية الخاصة بالذكاء الاصطناعي لإقناع الأفراد الضعفاء أو المختلفين في الأعصاب بشن هجمات إرهابية.

وقال: "ما يقلقني هو إمكانية الإيحاء لدى البشر عندما يكونون منغمسين في هذا العالم ويكون الكمبيوتر في مأزق. استخدام اللغة في سياق الأمن القومي مهم لأن اللغة في النهاية تقنع الناس بفعل الأشياء".

من المفهوم أن الأجهزة الأمنية مهتمة بشكل خاص بقدرة روبوتات الدردشة التي تعمل بالذكاء الاصطناعي على رعاية الأطفال، الذين يشكلون بالفعل جزءًا متزايدًا من قضايا الإرهاب في الخدمة السرية.

مواجهة التحديات

مع تزايد الدعوات إلى تنظيم التكنولوجيا بعد تحذيرات الأسبوع الماضي من رواد الذكاء الاصطناعي من أنها قد تهدد بقاء الجنس البشري، من المتوقع أن يثير رئيس الوزراء ريشي سوناك القضية عندما يسافر إلى الولايات المتحدة الأربعاء للقاء الرئيس بايدن وكبار الشخصيات في الكونغرس.

وتتكثف الجهود لمواجهة تحديات الأمن القومي في المملكة المتحدة التي يفرضها الذكاء الاصطناعي بالشراكة بين الخدمة السرية ومعهد آلان تورينغ والهيئة الوطنية لعلوم البيانات والذكاء الاصطناعي.

قال الباحث في الأخلاقيات الرقمية في برنامج الدفاع والأمن التابع للمعهد ألكسندر بلانشارد إن عمله مع خدمات الأمن يشير إلى أن المملكة المتحدة تتعامل مع التحديات الأمنية التي يطرحها الذكاء الاصطناعي على محمل الجد.

وأضاف: "هناك استعداد كبير بين صانعي السياسة الدفاعية والأمنية لفهم ما يحدث، وكيف يمكن للجهات الفاعلة أن تستخدم الذكاء الاصطناعي، وما هي التهديدات؟".

في الأسبوع الماضي، قال سوناك إن بريطانيا تريد أن تصبح مركزًا عالميًا للذكاء الاصطناعي وتنظيمه، وأصر على أنها يمكن أن تقدم "فوائد هائلة للاقتصاد والمجتمع".

يقول كل من بلانشارد وهال إن القضية المركزية هي كيف يحتفظ البشر "بالاستقلالية المعرفية" - السيطرة - على الذكاء الاصطناعي وكيف يتم دمج هذا التحكم في التكنولوجيا.

تهديد إرهابي

يتضح بشكل متزايد احتمال أن يتم إعداد الأفراد الضعفاء وحدهم في غرف نومهم بواسطة الذكاء الاصطناعي.

وقال هول إن شركات التكنولوجيا بحاجة إلى التعلم من أخطاء التهاون في الماضي، حيث كانت وسائل التواصل الاجتماعي منصة رئيسية لتبادل المحتوى الإرهابي في الماضي.

وأضاف أن هناك حاجة أيضًا إلى مزيد من الشفافية من الشركات التي تقف وراء تكنولوجيا الذكاء الاصطناعي، وذلك في المقام الأول حول عدد الموظفين والمشرفين الذين وظفتهم.

وأكد أنه قد تكون هناك حاجة أيضًا إلى قوانين جديدة لمواجهة التهديد الإرهابي من منظمة العفو الدولية، للحد من الخطر المتزايد للأسلحة الفتاكة ذاتية التشغيل - الأجهزة التي تستخدم الذكاء الاصطناعي لتحديد أهدافها.

شوهدت الأسلحة الفتاكة ذاتية التشغيل بساحات القتال في أوكرانيا، مما أثار تساؤلات أخلاقية حول الآثار المترتبة على آلة القتل المستقلة المحمولة جواً.

وقال بلانشارد: "يمكن للذكاء الاصطناعي التعلم والتكيف والتفاعل مع البيئة ورفع مستوى سلوكها". 

(ترجمات)