استخدام الذكاء الاصطناعي لإيجاد التحيز في الذكاء الاصطناعي

في عام 2018 ، بدأت ليز أوسوليفان وزملاؤها في شركة بارزة للذكاء الاصطناعي العمل على نظام يمكنه تلقائيًا إزالة العري والصور الإباحية الأخرى من الإنترنت.

لقد أرسلوا ملايين الصور عبر الإنترنت إلى العمال في الهند ، الذين أمضوا أسابيع في إضافة علامات إلى مواد إباحية. سيتم استخدام البيانات المقترنة بالصور لتعليم برامج الذكاء الاصطناعي كيفية التعرف على الصور غير اللائقة. ولكن بمجرد وضع علامات على الصور ، لاحظت السيدة أوسوليفان وفريقها مشكلة: قام العمال الهنود بتصنيف جميع صور الأزواج من نفس الجنس على أنها غير لائقة.

بالنسبة للسيدة أوسوليفان ، أظهرت اللحظة مدى سهولة – وغالبًا – يمكن للتحيز التسلل إلى الذكاء الاصطناعي. قالت إنها كانت “لعبة قاسية من Whac-a-Mole”.

هذا الشهر ، تم تعيين السيدة أوسوليفان ، وهي من نيويوركر تبلغ من العمر 36 عامًا ، مديرة تنفيذية لشركة جديدة ، Parity. الشركة الناشئة هي واحدة من العديد من المنظمات ، بما في ذلك أكثر من اثنتي عشرة شركة ناشئة وبعض أكبر الأسماء في مجال التكنولوجيا ، وتقدم أدوات وخدمات مصممة لتحديد وإزالة التحيز من أنظمة الذكاء الاصطناعي.

قريبًا ، قد تحتاج الشركات إلى تلك المساعدة. في أبريل / نيسان ، حذرت لجنة التجارة الفيدرالية من بيع أنظمة ذكاء اصطناعي متحيزة عنصريًا أو يمكن أن تمنع الأفراد من الحصول على وظائف أو إسكان أو تأمين أو مزايا أخرى. بعد أسبوع ، كشف الاتحاد الأوروبي عن مشروع لوائح يمكن أن تعاقب الشركات على تقديم مثل هذه التكنولوجيا.

من غير الواضح كيف يمكن للجهات التنظيمية أن تتحيز للشرطة. في الأسبوع الماضي ، أصدر المعهد الوطني للمعايير والتكنولوجيا ، وهو مختبر أبحاث حكومي غالبًا ما يوجه عمله السياسة ، مقترحًا يوضح بالتفصيل كيف يمكن للشركات مكافحة التحيز في الذكاء الاصطناعي ، بما في ذلك التغييرات في طريقة تصور التكنولوجيا وبناؤها.

يعتقد الكثير في صناعة التكنولوجيا أن الشركات يجب أن تبدأ في الاستعداد لحملة صارمة. قال كريستيان ترونكوسو ، المدير الأول للسياسة القانونية في Software Alliance ، وهي مجموعة تجارية تمثل بعض أكبر وأقدم شركات البرمجيات: “لا مفر من وجود نوع من التشريع أو التنظيم”. “في كل مرة توجد فيها واحدة من هذه القصص المروعة عن الذكاء الاصطناعي ، فإنها تقضي على ثقة الناس وإيمانهم”

على مدى السنوات العديدة الماضية ، أظهرت الدراسات أن خدمات التعرف على الوجه وأنظمة الرعاية الصحية وحتى أجهزة المساعدة الرقمية الناطقة يمكن أن تكون متحيزة ضد النساء والملونين والفئات المهمشة الأخرى. وسط جوقة متزايدة من الشكاوى حول هذه القضية ، اتخذ بعض المنظمين المحليين بالفعل إجراءات.

في أواخر عام 2019 ، فتحت الهيئات التنظيمية الحكومية في نيويورك تحقيقًا في UnitedHealth Group بعد أن وجدت دراسة أن الخوارزمية المستخدمة في المستشفى أعطت الأولوية لرعاية المرضى البيض على المرضى السود ، حتى عندما كان المرضى البيض أكثر صحة. في العام الماضي ، حققت الدولة في خدمة ائتمان Apple Card بعد مزاعم بأنها تميز ضد المرأة. حكم المنظمون أن بنك جولدمان ساكس ، الذي يدير البطاقة ، لم يميز ، في حين أن وضع تحقيق يونايتد هيلث غير واضح.

قال المتحدث باسم UnitedHealth ، تايلر ماسون ، إن خوارزمية الشركة أسيء استخدامها من قبل أحد شركائها ولم تكن متحيزة عنصريًا. وامتنعت شركة آبل عن التعليق.

تم استثمار أكثر من 100 مليون دولار خلال الأشهر الستة الماضية في شركات تستكشف القضايا الأخلاقية المتعلقة بالذكاء الاصطناعي ، بعد 186 مليون دولار العام الماضي ، وفقًا لشركة PitchBook ، وهي شركة أبحاث تتعقب النشاط المالي.

لكن الجهود المبذولة لمعالجة المشكلة وصلت إلى نقطة تحول هذا الشهر عندما قدم تحالف البرمجيات إطارًا مفصلاً لمكافحة التحيز في الذكاء الاصطناعي ، بما في ذلك الاعتراف بأن بعض التقنيات الآلية تتطلب إشرافًا منتظمًا من البشر. تعتقد المجموعة التجارية أن الوثيقة يمكن أن تساعد الشركات على تغيير سلوكها ويمكن أن توضح للهيئات التنظيمية والمشرعين كيفية التحكم في المشكلة.

على الرغم من تعرضهم لانتقادات بسبب التحيز في أنظمتهم الخاصة ، فإن Amazon و IBM و Google و Microsoft يقدمون أيضًا أدوات لمحاربتها.

قالت السيدة أوسوليفان إنه لا يوجد حل بسيط للتحيز في الذكاء الاصطناعي. القضية الشائكة هي أن البعض في الصناعة يتساءلون عما إذا كانت المشكلة منتشرة أو ضارة كما تعتقد.

قالت: “تغيير العقليات لا يحدث بين عشية وضحاها – وهذا صحيح أكثر عندما تتحدث عن الشركات الكبيرة”. “إنك تحاول تغيير ليس فقط عقل شخص واحد ولكن العديد من العقول.”

عندما بدأت في تقديم المشورة للشركات بشأن التحيز للذكاء الاصطناعي منذ أكثر من عامين ، كانت السيدة أوسوليفان تقابل غالبًا بالتشكيك. تبنى العديد من المديرين التنفيذيين والمهندسين ما أسموه “العدالة من خلال الجهل” ، بحجة أن أفضل طريقة لبناء تكنولوجيا عادلة هو تجاهل قضايا مثل العرق والجنس.

على نحو متزايد ، كانت الشركات تبني أنظمة تعلمت المهام من خلال تحليل كميات هائلة من البيانات ، بما في ذلك الصور والأصوات والنصوص والإحصائيات. كان الاعتقاد أنه إذا تعلم النظام من أكبر قدر ممكن من البيانات ، فسيتبع ذلك الإنصاف.

ولكن كما رأت السيدة أوسوليفان بعد وضع العلامات في الهند ، يمكن أن يتسلل التحيز إلى النظام عندما يختار المصممون البيانات الخاطئة أو يفرزونها بطريقة خاطئة. تشير الدراسات إلى أن خدمات التعرف على الوجوه يمكن أن تكون متحيزة ضد النساء والأشخاص الملونين عندما يتم تدريبهم على مجموعات الصور التي يهيمن عليها الرجال البيض.

يمكن أن يكون المصممون أعمى عن هذه المشاكل. كان العمال في الهند – حيث كانت علاقات المثليين لا تزال غير قانونية في ذلك الوقت وحيث كانت المواقف تجاه المثليين والمثليات مختلفة تمامًا عن تلك الموجودة في الولايات المتحدة – يصنفون الصور على النحو الذي يرونه مناسبًا.

رأت السيدة أوسوليفان عيوب ومخاطر الذكاء الاصطناعي أثناء عملها في Clarifai ، الشركة التي أدارت مشروع وضع العلامات. قالت إنها تركت الشركة بعد أن أدركت أنها تبني أنظمة للجيش تعتقد أنها يمكن أن تستخدم في نهاية المطاف لقتلها. ولم ترد شركة Clarifai على طلب للتعليق.

وهي تعتقد الآن أنه بعد سنوات من الشكاوى العامة حول التحيز في الذكاء الاصطناعي – ناهيك عن تهديد التنظيم – تتغير المواقف. في إطاره الجديد للحد من التحيز الضار ، حذر تحالف البرمجيات من العدالة من خلال الجهل ، قائلاً إن الحجة لم تصمد.

قالت السيدة أوسوليفان: “إنهم يقرون بأنك بحاجة إلى قلب الصخور ومعرفة ما تحتها”.

لا تزال هناك مقاومة. وقالت إن الصدام الأخير في جوجل ، حيث تم طرد اثنين من باحثي الأخلاقيات ، كان مؤشرا على الوضع في العديد من الشركات. غالبًا ما تتعارض جهود مكافحة التحيز مع ثقافة الشركة والدفع المستمر لبناء تكنولوجيا جديدة وإخراجها من الباب والبدء في جني الأموال.

كما أنه لا يزال من الصعب معرفة مدى خطورة المشكلة. قال جاك كلارك ، أحد مؤلفي مؤشر الذكاء الاصطناعي ، وهو محاولة لتتبع تكنولوجيا وسياسات الذكاء الاصطناعي في جميع أنحاء العالم: “لدينا القليل جدًا من البيانات اللازمة لنمذجة قضايا السلامة المجتمعية الأوسع نطاقًا باستخدام هذه الأنظمة ، بما في ذلك التحيز”. “العديد من الأشياء التي يهتم بها الشخص العادي – مثل الإنصاف – لم يتم قياسها بعد بطريقة منضبطة أو على نطاق واسع.”

تعمل السيدة أوسوليفان ، وهي تخصص فلسفة في الكلية وعضو في الاتحاد الأمريكي للحريات المدنية ، على بناء التكافؤ حول أداة مصممة بواسطة رومان شودري ، وهو باحث أخلاقي معروف في مجال الذكاء الاصطناعي ، وقد أمضى سنوات في شركة Accenture للاستشارات التجارية قبل أن يصبح مديرًا تنفيذيًا في Twitter. أسس الدكتور شودري إصدارًا سابقًا من Parity وقام ببنائه حول نفس الأداة.

بينما تقدم الشركات الناشئة الأخرى ، مثل Fiddler AI و Weights and Biases ، أدوات لمراقبة خدمات الذكاء الاصطناعي وتحديد السلوك المتحيز المحتمل ، تهدف تقنية Parity إلى تحليل البيانات والتقنيات والأساليب التي تستخدمها الشركة لبناء خدماتها ومن ثم تحديد مجالات المخاطر واقتراح التغييرات.

تستخدم الأداة تقنية الذكاء الاصطناعي التي يمكن أن تكون متحيزة في حد ذاتها ، مما يوضح الطبيعة ذات الحدين للذكاء الاصطناعي – وصعوبة مهمة السيدة أوسوليفان.

الأدوات التي يمكنها تحديد التحيز في الذكاء الاصطناعي غير كاملة ، تمامًا كما أن الذكاء الاصطناعي غير كامل. لكن قوة هذه الأداة ، كما قالت ، تكمن في تحديد المشاكل المحتملة – لجعل الناس ينظرون عن كثب إلى هذه القضية.

وأوضحت أن الهدف في النهاية هو خلق حوار أوسع بين الأشخاص الذين لديهم مجموعة واسعة من وجهات النظر. تأتي المشكلة عندما يتم تجاهل المشكلة – أو عندما يتبنى أولئك الذين يناقشون القضايا نفس وجهة النظر.

“أنت بحاجة إلى وجهات نظر متنوعة. ولكن هل يمكنك الحصول على وجهات نظر متنوعة حقًا في شركة واحدة؟ ” سألت السيدة أوسوليفان. “إنه سؤال مهم للغاية لست متأكدًا من أنني أستطيع الإجابة عليه.”

رابط المصدر




الخبر من المصدر

تمت ترجمة هذا الخبر باستخدام ادوات الترجمة الفورية من Google

مساحة إعلانية - ضع إعلانك هنا
الكلمات الدلالية
إعلان

إقرأ أيضاً:

شاهد الحادثة:
إغلاق