قبل نحو عامين فرضت تقنيات الذكاء الاصطناعي نفسها على جدول أولويات صناع القرار في العديد من المجالات على مستوى العالم، بعد أن اتضح أن الجيل الجديد من هذه التكنولوجيا الرقمية ينطوي على فوائد جمة وتحديات ومخاطر كثيرة في الوقت نفسه.
وبسبب خطورة وأهمية ما تمثله تطورات تكنولوجيا الذكاء الاصطناعي نشرت مؤسسة الأبحاث والتطوير "راند" الأميركية للدراسات الإستراتيجية دراسة حول تأثيرات الذكاء الاصطناعي على قوانين حماية الخصوصية أعدها 6 خبراء هم تيفاني صادق الأستاذة في كلية القانون بجامعة ميشيغان، وكارلين ستانلي كبير باحثين في السياسة بمؤسسة راند، والمحلل السياسي جريجوري سيمث، والباحثة كريستينا مارسينك، والمحلل السياسي بول كورماري وساليل جوناشيكار المدير المشارك في مركز أبحاث راند أوروبا.
حماية الخصوصية
وتقول الدراسة إن الذكاء الاصطناعي يعد ببدء عصر من التطور التكنولوجي السريع الذي قد يؤثر على كل جوانب المجتمع تقريبًا سواء بشكل إيجابي أو سلبي. وتحتاج الاستفادة من مزايا الذكاء الاصطناعي جمع ومعالجة وتفسير كميات كبيرة من البيانات - بما في ذلك البيانات الشخصية والحساسة، لذلك، ظهرت الأسئلة المتعلقة بكيفية بحماية البيانات والحق في الخصوصية في النقاش العام.
وتلعب حماية الخصوصية دورا محوريا في محافظة الأفراد على معلوماتهم الشخصية وفي حماية المؤسسات للمعلومات الحساسة للأفراد ومنع استخدامها في عمليات الاحتيال أو الوصول غير المسموح به لبيانات الأفراد. ورغم ذلك تفتقد الولايات المتحدة لإطار تشريعي أو تنظيمي اتحادي شامل لتنظيم حقوق البيانات والخصوصية وحمايتها.
ومن أكثر الأمور المثيرة للقلق من منظور حماية البيانات في الذكاء الاصطناعي الغياب المحتمل لفهم كيفية قيام الخوارزميات باستخدام وجمع وتعديل البيانات أو اتخاذ القرارات على أساس البيانات.
الخيار الأول
وتقترح دراسة مؤسسة راند مجموعة من الخيارات المحتملة لمعالجة المخاطر الفريدة للذكاء الاصطناعي على الخصوصية، ومنها الحد من جمع البيانات والاكتفاء بالحد الأدنى منها، وهو ما يشير إلى ضرورة أن يقتصر جمع البيانات الشخصية على تلك المطلوبة أو اللازمة بشكل مباشر لتحقيق أهداف محددة بدقة. وهذا المبدأ يتعارض مع النهج الذي تستخدمه الكثير من الشركات اليوم والتي تجمع أكبر قدر ممكن من المعلومات.
وتحت مظلة تقليل جمع البيانات إلى أقصى درجة ممكن، يجب فرض قيود قانونية على استخدام البيانات بالنسبة للهدف المحدد أثناء جمعها.
الخيار الثاني
الخيار الثاني هو تقييمات التأثير الخوارزمي على الاستخدام العام. حيث تهدف تقييمات التأثير الخوارزمي إلى إخضاع المؤسسات التي تستخدم أنظمة صناعة القرار الآلية للمحاسبة.
وتواجه تقييمات التأثير الخوارزمي مشكلة التعتيم الخوارزمي من خلال كشفها عن الأضرار المحتملة الناتجة عن استخدام الذكاء الاصطناعي في صناعة القرار ودعوة المؤسسات لاتخاذ خطوات عملية للتخفيف من الأضرار المحددة.
وسيفرض أي تقييم للتأثير الخوارزمي الكشف عن أنظمة صناعة القرار المعتمدة على الذكاء الاصطناعي سواء القائمة أو المقترحة، بما في ذلك أغراضها ونطاقها والتأثيرات المحتملة على المجتمعات قبل بدء استخدام مثل هذه الخوارزميات.
الخيار الثالث
الخيار الثالث لمواجهة مخاطر الذكاء الاصطناعي على الخصوصية يتمثل في التدقيق الخوارزمي، والذي يعتبر تقييما منظما لأي نظام ذكاء اصطناعي لضمان توافقه مع الأهداف والمعايير والاشتراطات القانونية المحددة سلفا.
وفي إطار مثل هذا التدقيق، يتم فحص تصميم ومدخلات ومخرجات أي نظام وحالات الاستخدام والأداء بشكل عام وبصورة مستمرة لتحديد أي فجوات أو ثغرات أو مخاطر.
ويتضمن التدقيق الخوارزمي المناسب، وضع أهداف محددة وواضحة للتدقيق مثل التحقق من الأداء والدقة، بالإضافة إلى وضع معايير موحدة لتقييم أداء النظام.
وفي سياق الخصوصية، يمكن للتدقيق أن يؤكد أن البيانات تُستخدم في الإطار الذي وافق عليه الأشخاص وتحت مظلة اللوائح المعمول بها.
الخيار الرابع
الخيار الرابع لمعالجة هواجس الخصوصية هو الإفصاح الإلزامي، والذي يقضي بضرورة قيام المؤسسة التي تستخدم تكنولوجيا الذكاء الاصطناعي بإبلاغ العامة بذلك. على سبيل المثال يلزم قانون الذكاء الاصطناعي في الاتحاد الأوروبي الشركات بوضع علامة مميزة على أي محتوى منتج باستخدام الذكاء الاصطناعي.
كما يشترط قانون الاتحاد الأوروبي الإفصاح عن استخدام أنظمة الذكاء الاصطناعي لتصنيف الأشخاص أو التعرف على مشاعرهم أو نواياهم باستخدام البيانات البيومترية الخاصة بهم. وفي العام الماضي تم طرح مشروع قانون مماثل في الولايات المتحدة.
الخيار الخامس
وأخيرا تمثل الاعتبارات المتعلقة بصناع السياسة الخيار الخامس والأخير لمعالجة مخاطر الذكاء الاصطناعي على الخصوصية، حيث يجب عليهم تحقيق التوازن الصحيح بين التنظيم والابتكار. ولذلك فإن توسيع دائرة المشاركين في صياغة سياسات وقواعد استخدام الذكاء الاصطناعي يمكن أن تساعد في تهدئة المخاوف من أن تؤدي القواعد والنظم إلى خنق الابتكار والتطوير والاستفادة من المزايا التي توفرها تقنيات الذكاء الاصطناعي.
وفي هذا الإطار تبنى قانون الاتحاد الأوروبي للذكاء الاصطناعي دعوة كل الأطراف المعنية بهذه الصناعة وبخاصة مطوري نماذج الذكاء الاصطناعي للمشاركة في وضع مدونة السلوك المنظمة لنماذج الذكاء الاصطناعي العامة.
كما يتضمن قانون الاتحاد الأوروبي بنودا لدعم الابتكار وبخاصة بين الشركات الصغيرة والمتوسطة ومنها الشركات الناشئة.
على سبيل المثال، يوفر القانون ما تسمى "صناديق الاختبار التنظيمية" والتي تعني إيجاد بيئة اختبار وتجربة خاضعة لرقابة صارمة من جانب الجهات التنظيمية. والهدف المحدد من "صندوق الاختبار التنظيمي" هو تعزيز ابتكارات الذكاء الاصطناعي من خلال توفير أطر لتطوير وتدريب وإثبات صحة واختبار أنظمة الذكاء الاصطناعي بطريقة تضمن الامتثال لقانون الذكاء الاصطناعي للاتحاد الأوروبي، وبالتالي تخفيف عدم اليقين القانوني بالنسبة لموفري هذه الأنظمة.
(د ب أ)