بعد أيام قليلة من إعلان Google و Microsoft أنهما سيقدمان محركات بحث تم إنشاؤها بواسطة تقنيات روبوتية تعتمد على برمجيات ذكاء اصطناعي قادرة على إنتاج نصوص تحاكي ما يصنعه البشر، شعر الكثيرون بالقلق من أن المساعد الصوتي المدعوم بالذكاء الاصطناعي والمتاحة بالمنازل لدينا لا يمكن الوثوق بهم.
بصفة عامة، حذر باحثو الذكاء الاصطناعي في Google الشركة من أن روبوتات الدردشة ستكون "ببغاوات عشوائية" (من المحتمل أن تصرخ على أشياء خاطئة أو غبية أو مسيئة) و "عرضة للهلوسة" (من شأنها اختلاق الأشياء فقط ).
وكتب فريق من DeepMind، شركة الذكاء الاصطناعي المملوكة لشركة Alphabet، العام الماضي في عرض تقديمي عن المخاطر المحتملة: "روبوتات المحادثة هذه ليست ذكية في الواقع .. إنهم أغبياء يكذبون."
ولم يستغرق الأمر وقتًا طويلاً حتى تثبت روبوتات المحادثة هذه النقطة، فقد أظهر إعلان الأسبوع الماضي لروبوت Google الذي أطلقت عليه اسم Bard، إجابات فاشلة. في غضون ذلك، فشلت الإجابات التي قدمها روبوت Bing، سيدني، في الوقوف حتى أمام عمليات التحقق من المعلومات الأولية والبدائية.
يرى محللوم أن روبوتات الدردشة هي محركات هراء مصممة لتقول الأشياء بيقين لا جدال فيه ونقص كامل في الخبرة، فلماذا نشتري هراءهم؟
بصراحة، لا أحد يعرف حقًا سبب تصديق أي شخص لأي شيء. بعد آلاف السنين من النقاش، لم يتفق الفلاسفة وعلماء النفس وعلماء الأعصاب الرائدون في العالم حتى على آلية لسبب تصديق الناس للأشياء، أو حتى ماهية المعتقدات. لذلك من الصعب معرفة كيفية عملها، أو لماذا يكون أحد الأشياء أكثر تصديقًا من الآخر. لكن هناك بعض التكهنات حول سبب سقوطنا في غرام تطبيق ChatGPT: مثلاً نحن البشر نحب شخصًا أنيقًا يتمتع بأوراق اعتماد تبدو مثيرة للإعجاب، وهذا ما تبديه تلك التطبيقات، بل مع مرور الوقت، ستصبح الروبوتات أكثر تعقيداً في خداعنا.
أرقام رئيسة
على مدار العقدين الماضيين، كان هناك الكثير من الأبحاث حول سبب اعتقاد الناس بالمعلومات الخاطئة. افترض الكثيرون أننا سنواجه في الغالب خيالًا يتظاهر بأنه حقيقة في شكل دعاية أو وسائل التواصل الاجتماعي. لكن هذا على وشك التغيير. سيتم الآن تضمين المعلومات المضللة في محركات البحث التي نستخدمها.
الآن، ليست كل المعتقدات معتمدة بقوة ، أو حتى مبنية على الأدلة، لذلك ربما سيتعامل الأشخاص مع إجابات روبوتات الدردشة بالطريقة التي نتعامل بها مع أي معلومات جديدة.
يقول جو فيتريول، عالم السياسة في جامعة ليهاي الذي يدرس المعلومات المضللة، إنه يتوقع تصديق الناس لروبوت الدردشة إذا أخبرهم بأشياء تتوافق مع معتقداتهم وآرائهم الحالية - تمامًا كما يفعلون مع نتائج Google التقليدية. وما إذا كان روبوت المحادثة يقول الحقيقة أو هلوسات لن يهم حقًا.
وتكمن المشكلة في أننا لا نعرف حقًا ما الذي يجعل الناس يقعون تحت تأثير تفسير على آخر. تشير بعض الأبحاث إلى أن التفسيرات التي تتمتع بأكبر قدر من القوة هي تلك التي تكون أبسط وأكثر قابلية للتطبيق على نطاق واسع.
قبل أيام قليلة فقط من إعلان كل من Google و Microsoft عن رحلتهما الوشيكة لتطوير تلك الروبوتات، نشر فريق من علماء الاجتماع في جامعة ستانفورد طبعة أولية رائعة. لقد عرضوا على آلاف الأشخاص مقالات قصيرة مقنعة حول الموضوعات الساخنة مثل حظر الأسلحة الهجومية وضرائب الكربون. تمت كتابة بعض الإصدارات بواسطة chatbot GPT-3، وأخرى بواسطة الإنسان. ثم قام العلماء بقياس مدى تغيير الناس لآرائهم بناءً على المقالات.
اتضح أن الرسائل التي تم إنشاؤها بواسطة الذكاء الاصطناعي كانت مقنعة تمامًا مثل الرسائل البشرية. لكن الجزء الجامح هو السبب. عندما قام الباحثون باستخلاص المعلومات من البشر، قال أولئك الذين فضلوا مقالات الشات بوت إن الرسائل الحرفية من صنع الإنسان اعتمدت كثيرًا على الحكايات والصور، بينما كان GPT-3 أكثر استنادًا إلى الأدلة ومنطقًا جيدًا.
كما أن الجودة ذاتها التي جعلت الروبوت أقل إنسانية جعلت البشر أكثر عرضة لتصديقه. تمامًا مثل أفلام الخيال العلمي، لم تشعر روبوتات المحادثة بالشفقة أو الندم أو الخوف ولم يتوقفوا على الإطلاق أبدًا حتى اقتنع البشر.
الكسل البشري
إحدى النظريات حول سبب انتشار المعلومات المضللة والأخبار الزائفة هي أن الناس كسالى تمامًا. يشترون كل ما يبيعه مصدر موثوق به.
وإذا كانت روبوتات المحادثة تحصل على المعلومات المضللة بشكل صحيح معظم الوقت، فهذا جيد بما فيه الكفاية.
سوف تقدم لنا روبوتات الدردشة المدعومة بالذكاء الاصطناعي إجابات سهلة. علينا فقط أن نتذكر أن هذا ليس ما يجب أن نطلبه.