قالت Google إنها ستعمل على تقييد بعض أنواع الاستفسارات الخاصة بالانتخابات والتي قد يطرحها المستخدمون على برنامجها الجديد للذكاء الاصطناعي Gemini chatbot  وأكدت أنها بدأت بالفعل في تطبيق هذه التغييرات في الهند التي على مشارف انتخابات هذا الربيع.

وجاء منشور لـ Google نشر على مدونة الثلاثاء 12 مارس/آذار : "من باب الحذر الشديد بشأن مثل هذا الموضوع المهم، بدأنا في فرض قيود على أنواع الاستفسارات المتعلقة بالانتخابات والتي سيعيد جيميني ردودًا عليها". "نحن نتحمل مسؤوليتنا في توفير معلومات عالية الجودة لهذه الأنواع من الاستفسارات على محمل الجد، ونعمل باستمرار على تحسين وسائل الحماية لدينا".

اقرأ أيضاً: مأزق جديد لـ Google و Amazon بعد انتحار سيدة بريطانية

وقال متحدث باسم Google لـ CNBC إن التغييرات إن التغييرات تأتي من باب الحذر الزائد خاصة مع الاستعدادات للانتخابات العديدة التي ستجري حول العالم في 2024.

يأتي هذا بعد أن سحبت Google أداة لتوليد الصور بالذكاء الاصطناعي والتي سبق وأن اطلقتها، وذلك بعد ما أثارته من جدل حول عدم الدقة التاريخية والاستجابات التي لم تلقى رضا وأثارت جدلاً واساعاً، وكانت الشركة قد قدمت مولد الصور في وقت سابق من شهر فبراير من خلال Gemini - مجموعة Google الرئيسية لنماذج الذكاء الاصطناعي - كجزء من عملية تغيير كبيرة للعلامة التجارية.

وتأتي هذه التحركات وسط استعدادات واسعة من قبل شركات ومنصات الذكاء الاصطناعي لعام ضخم من الانتخابات في جميع أنحاء العالم والتي تؤثر على ما يصل إلى 4 مليارات شخص في أكثر من 40 دولة.

 أدى ظهور المحتوى الناتج عن الذكاء الاصطناعي إلى مخاوف خطيرة بشأن المعلومات المضللة المتعلقة بالانتخابات، مع زيادة عدد التزييف العميق الذي تم إنشاؤه بنسبة 900% على أساس سنوي، وفقًا لبيانات من شركة التعلم الآلي Clarity.

وقال جوش بيكر، السيناتور الديمقراطي عن ولاية كاليفورنيا، لشبكة CNBC الشهر الماضي في مقابلة: "هناك سبب للقلق الشديد بشأن كيفية استخدام الذكاء الاصطناعي لتضليل الناخبين في الحملات الانتخابية".

لم تتقدم تقنيات الكشف والعلامة المائية المستخدمة لتحديد التزييف العميق بالسرعة الكافية لمواكبة ذلك. حتى لو وافقت المنصات التي تقف وراء الصور ومقاطع الفيديو التي ينشئها الذكاء الاصطناعي على وضع علامات مائية غير مرئية وأنواع معينة من البيانات الوصفية، فهناك طرق للالتفاف حول تلك التدابير الوقائية. في بعض الأحيان، يمكن أن يؤدي التقاط الشاشة إلى خداع الكاشف.

لتبقى على اطلاع بآخر الأخبار تابع CNBC عربية على الواتس آب اضغط هنا وعلى تليغرام اضغط هنا