وجدت واحدة من أحدث الدراسات حول قدرة مساعدي الذكاء الاصطناعي على غرار "تشات جي بي تي" بتغيير طريق تفكير المستخدمين دون علمهم، أنه عندما طُلب من الأشخاص استخدام هذه الروبوتات لمساعدتهم في كتابة مقال، يمكن للذكاء الاصطناعي أن يدفعهم لكتابة مقال إما لصالح أو ضد وجهة نظر معينة اعتمادًا على انحياز الخوارزمية، بحسب صحيفة "وول ستريت جورنال" الأميركية.

وأثر أداء هذا التمرين بشكل يمكن قياسه على آراء الأشخاص حول الموضوع بعد التمرين.

وقال الأستاذ في قسم علوم المعلومات في جامعة كورنيل والمؤلف الأول للورقة البحثية مور نعمان: "قد لا تعرف حتى أنك تتأثر" وسمّى هذه الظاهرة "الإقناع الكامن".

آفاق مقلقة

أكد الباحث "نظرًا لأن الذكاء الاصطناعي يجعلنا أكثر إنتاجية، فقد يغيّر أيضًا آرائنا بطرق خفية وغير متوقعة".

وأضاف "يكون هذا التأثير أقرب إلى الطريقة التي يؤثر بها البشر على بعضهم البعض من خلال التعاون والأعراف الاجتماعية، أكثر من نوع تأثير وسائل الإعلام الجماهيري ووسائل التواصل الاجتماعي المألوف لدينا".

يعتقد الباحثون الذين اكتشفوا هذه الظاهرة أن أفضل دفاع ضد هذا الشكل الجديد من التأثير النفسي هو توعية المزيد من الناس به.

قد تكون الدفاعات الأخرى مفيدة مثل الهيئات التنظيمية التي تفرض الشفافية حول كيفية عمل خوارزميات الذكاء الاصطناعي وما هي التحيزات البشرية التي تحاكيها.

كل هذا يمكن أن يؤدي إلى مستقبل يختار فيه الأشخاص أنظمة الذكاء الاصطناعي التي يستخدمونها - في العمل والمنزل وفي المكتب وفي تعليم أطفالهم - بناءً على القيم الإنسانية التي يتم التعبير عنها في الردود التي يقدمها الذكاء الاصطناعي.

قد يكون لبعض أنظمة الذكاء الاصطناعي "شخصيات" مختلفة بما في ذلك قناعات سياسية.

في المستقبل، قد تقدم الشركات والمؤسسات الأخرى أنظمة الذكاء الاصطناعي المصممة لهذا الغرض من الألف إلى الياء لمهام مختلفة.

قد يستخدم شخص ما في المبيعات مساعد الذكاء الاصطناعي الذي تم ضبطه ليكون أكثر إقناعًا - أطلق عليه SalesGPT فيما قد يستخدم شخص ما في خدمة العملاء شخصًا مدربًا ليكون مهذبًا جدًا مثل "SupportGPT".

كيفية تغيير الآراء

أظهرت إحدى الدراسات في عام 2021 أن الاستجابات التلقائية المدعومة بالذكاء الاصطناعي التي يقترحها "جيميل" من "غوغل" تسمى "الردود الذكية" والتي تميل إلى أن تكون إيجابية للغاية، تؤثر على الناس للتواصل بشكل أكثر إيجابية بشكل عام.

وجدت دراسة ثانية أن الردود الذكية، والتي يتم استخدامها مليارات المرات يوميا، يمكن أن تؤثر على أولئك الذين يتلقون مثل هذه الردود ليشعروا أن المرسل أكثر دفئًا وتعاونًا.

وجدت الدراسة أن أدوات البناء التي ستسمح للمستخدمين بالتفاعل مع الذكاء الاصطناعي لصياغة رسائل البريد الإلكتروني والمواد التسويقية والإعلانات والعروض التقديمية وجداول البيانات وما شابه ذلك هو الهدف الصريح لشركة مايكروسوفت و"غوغل" ناهيك عن العشرات إن لم يكن المئات من الشركات الناشئة.

تحرص كل من OpenAI و"غوغل"و"مايكروسوفت"، على تسليط الضوء على عملهم في مجال الذكاء الاصطناعي المسؤول الذي يتضمن فحص الأضرار المحتملة للمجال ومعالجتها.

وخدمة Jigsaw هي وحدة داخل "غوغل" تشارك في تقديم المشورة وبناء الأدوات للأشخاص داخل الشركة الذين يعملون على نماذج لغة كبيرة - والتي تدعم أنظمة الذكاء الاصطناعي القائمة على الدردشة كما تقول رئيس قسم الهندسة والمنتجات في الخدمة لوسي فاسرمان.

وتضيف: "ليس من الواضح عندما نبتكر شيئًا جديدًا كيف سيتفاعل الناس معه وكيف سيؤثر عليهم".

في بحث نعمان، كان الموضوع الذي تم تحريك الأشخاص لتغيير رأيهم بشأنه هو ما إذا كانت وسائل التواصل الاجتماعي مفيدة للمجتمع أم لا.

تفريغ "معتقدات" الذكاء الاصطناعي

قال الأستاذ المساعد في علوم الكمبيوتر وهو جزء من معهد الذكاء الاصطناعي المرتكز على الإنسان في جامعة ستانفورد تاتسونوري هاشيموتو إن خوارزميات الذكاء الاصطناعي مثل "تشات جي بي تي" ليس لديها معتقدات لكنها تعكس الآراء المكتسبة من تدريبهم ، ويمكن قياس هذه الآراء.

في ورقة بحثية حديثة، استخدم هاشيموتو وزملاؤه سنوات من نتائج الاستطلاع على مستوى الدولة من مركز "بيو" للأبحاث لمعرفة مدى جودة نماذج اللغات الكبيرة المختلفة - الأنظمة التي تدعم أنظمة الذكاء الاصطناعي مثل ChatGPT تعكس وجهات نظر الأميركيين.

وجد الفريق البحثي توزيع استجابات نماذج اللغات الكبيرة من شركات مثل "أوبن إيه آي" لا يتطابق مع ردود الأميركيين بشكل عام.

تتمثل إحدى تحديات إنشاء نماذج لغوية كبيرة في أنه نظرًا لتعقيد هذه الأنظمة وانفتاح التفاعلات معها، يبدو من الصعب جدًا إزالة الآراء والذاتية تمامًا منها دون التضحية أيضًا بفائدة هذه الأنظمة، كما يقول هاشيموتو.

وسيكون تقييم آراء الذكاء الاصطناعي مهمة مستمرة، حيث يتم تحديث النماذج مع ظهور نماذج جديدة.

ووق الصحيفة، لا تغطي ورقة هاشيموتو أحدث إصدارات نماذج OpenAI أو تلك من "غوغل" أو "مايكروسوفت"، ولكن سيتم إصدار تقييمات لتلك النماذج وغيرها الكثير على أساس منتظم، كجزء من مشروع في جامعة ستانفورد يُعرف باسم التقييم الشامل لـ نماذج اللغة .

اختيار "الذكاء" بناءً على قيمه

وقالت أستاذة علوم الكمبيوتر في جامعة كولومبيا ليديا شيلتون إنه بمجرد تزويد الناس بمعلومات حول تحيزات الذكاء الاصطناعي الذي يستخدمونه، فقد يقررون بناءً على هذا الأساس أيهما يستخدمونه وفي أي سياق.

وتضيف أن القيام بذلك يمكن أن يعيد الشعور بالوكالة للأشخاص الذين يستخدمون الذكاء الاصطناعي لمساعدتهم على إنشاء محتوى أو مساعدتهم على التواصل، ومساعدتهم على تجنب أي شعور بالتهديد من الإقناع الكامن.

(ترجمات)