نموذج قائم على الذكاء الاصطناعيّ، يخترع نازيّين من ذوي البشرة السمراء، خطأ وقع فيه برنامج "جيميناي" المطوّر من غوغل، كان ليمرّ مرور الكرام بعد المسارعة إلى تصحيحه، لكنه يسلّط الضوء على النفوذ المفرط الذي تتمتع به حفنة من الشركات على هذه التكنولوجيا الأساسية، بشكل متزايد.
وقد تحدث الرئيس التنفيذي لمجموعة غوغل سوندر بيتشاي الشهر الماضي عن أخطاء "غير مقبولة على الإطلاق" من جانب تطبيق "جيميناي إيه آي" التابع لشركته، بعد أن أجبرته زلات مثل صور لقوات نازية متنوعة عرقياً على منع المستخدمين موقتاً من إنشاء صور لأشخاص.
وسخر مستخدمو وسائل التواصل الاجتماعيّ من غوغل، وانتقدوها بسبب صور غير دقيقة تاريخيًا، مثل تلك التي تُظهر امرأة أميركية سوداء تُنتخب عضوًا في مجلس الشيوخ في القرن التاسع عشر، فيما لم يحصل ذلك على أرض الواقع قبل العام 1992.
وقال المؤسس المشارك في غوغل سيرغي برين، في "هاكاثون" للذكاء الاصطناعيّ أقيم أخيرًا، "لقد حصلت أخطاء بالتأكيد لدينا في عملية توليد الصور"، مضيفًا أنه كان ينبغي على الشركة اختبار برنامج "جيميناي" بشكل أكثر شمولًا.
واعتبر أشخاص جرت مقابلتهم خلال مهرجان "ساوث باي ساوثوست" الشهير للفنون والتكنولوجيا في أوستن، أن تعثّر "جيميناي" يسلط الضوء على القوة المفرطة التي تمتلكها حفنة من الشركات على منصات الذكاء الاصطناعي، التي تتجه لتغيير طريقة عيش الناس وعملهم.
ورأى المحامي ورائد الأعمال في مجال التكنولوجيا جوشوا ويفر، أنّ غوغل اعتمدت في برمجيّتها هذه في بادئ الأمر، مسارًا يعتنق بشكل "مفرط" مبادئ حركة الـ"ووك" (المناهضة لكل أشكال التمييز وعدم المساواة)، ما يعني أنها ذهبت بعيدًا في جهودها لإبراز الشمول والتنوع.
وقال تشارلي بيرغوين، الرئيس التنفيذيّ لمختبر فالكيري للعلوم التطبيقية في تكساس، إنّ غوغل صححت أخطاءها بسرعة، لكنّ المشكلة الأساسية لا تزال قائمة. وشبّه إصلاح غوغل لخطأ "جيميناي" بوضع ضمادة على جرح ناتج عن تلقّي رصاصة.
وأشار ويفر إلى أنه في حين كانت غوغل تتمتع برفاهية الحصول على الوقت الكافي لتحسين منتجاتها، فإنها الآن تندفع في سباق الذكاء الاصطناعي مع "مايكروسوفت"، و"أوبن إيه آي"، و"أنثروبيك" وغيرها، مضيفًا "إنهم يتحركون بسرعة تتخطى حدود معارفهم".
كما أنّ الأخطاء التي ارتُكبت في إطار الجهود الرامية إلى مراعاة الحساسية الثقافية تشكّل نقاطًا متفجرة، خصوصًا في ضوء الانقسامات السياسية المتوترة في الولايات المتحدة، وهو الوضع الذي تفاقم بسبب منصة إكس المملوكة للملياردير إيلون ماسك.
وقال ويفر، "لا يتوانى الناس على تويتر ("إكس" حاليًا) عن الاحتفال بأيّ حدث محرج في مجال التكنولوجيا"، مضيفًا أنّ ردّ الفعل على الزلة التي حصلت عبر برنامج جيميناي كان "مبالغًا فيه".
ومع ذلك، أكد ويفر أنّ هذه الحادثة أثارت تساؤلات حول درجة تحكّم أولئك الذين يستخدمون أدوات الذكاء الاصطناعيّ بالمعلومات.
وأشار إلى أنه في العقد المقبل، يمكن أن تتجاوز كمية المعلومات - الصحيحة منها أو الخاطئة - التي يولّدها الذكاء الاصطناعيّ، تلك التي يولّدها البشر، ما يعني أنّ أولئك الذين يتحكمون في ضمانات الذكاء الاصطناعي، سيكون لهم تأثير كبير على العالم.
تحيز داخلي وخارجي
قالت كارين بالمر، وهي صانعة محتوى بالواقع المختلط حائزة جوائز لدى شركة "إنتر أكتيف فيلمز ليمتد" Interactive Films Ltd.، إنها تتخيل مستقبلًا يركب فيه شخص ما سيارة أجرة آلية، و"إذا قام الذكاء الاصطناعيّ بمسح وجهك، واعتقد أنّ هناك أيّ انتهاكات عالقة ضدك، سينقلك إلى مركز الشرطة المحلي"، وليس الوجهة المقصودة.يتم تدريب الذكاء الاصطناعيّ باستخدام كميات هائلة من البيانات، ويمكن استخدامه في مجموعة متزايدة من المهام، بدءًا من إنشاء الصور أو الصوت، وحتى تحديد ما إذا كان شخص ما مخوّلًا الحصول على قرض، أو ما إذا كان فحص طبّي يكشف الإصابة بالسرطان.
لكنّ هذه البيانات تأتي من عالم مليء بالتحيز الثقافيّ والمعلومات المضللة، وعدم المساواة الاجتماعية، فضلًا عن محتويات عبر الإنترنت يمكن أن تتضمن محادثات غير رسمية بين أصدقاء أو مشاركات استفزازية ومبالغ فيها عن عمد، ويمكن لنماذج الذكاء الاصطناعيّ أن تكرر هذه العيوب.
مع "جيميناي"، حاول مهندسو غوغل إعادة التوازن للخوارزميات لتقديم نتائج تعكس التنوع البشريّ بشكل أفضل.
لكن جاءت هذه الجهود بنتائج عكسية.
وقال محامي التكنولوجيا أليكس شهرستاني، وهو شريك إداريّ في شركة المحاماة "بروميس ليغال" المتعاونة مع شركات التكنولوجيا، "قد يكون من الصعب حقًا معرفة موضع التحيز وكيف جرى تضمينه".
ويعتقد هو وآخرون أنه حتى المهندسين ذوي النوايا الحسنة المشاركين في تدريب الذكاء الاصطناعي، لا يمكنهم إلا أن يجلبوا خبراتهم الحياتية وتحيّزهم اللاواعي إلى العملية.
كما انتقد بورغوين من مختبر فالكيري شركات التكنولوجيا الكبرى، على إبقاء أعمالها الداخلية في مجال الذكاء الاصطناعيّ التوليدي، مخفية في "صناديق سوداء"، بحيث لا يتمكن المستخدمون من اكتشاف أيّ انحيازات مخفية.
(وكالات)