تطبيقات

لا يزال تطبيق صور Google غير قادر على العثور على Gorillas. ولا يمكن لأبل.


ائتمان…ديزيريه ريوس / نيويورك تايمز

بعد ثماني سنوات من الجدل حول تصنيف برامج تحليل الصور على أنها غوريلا سوداء – وعلى الرغم من التقدم الكبير في رؤية الكمبيوتر – لا يزال عمالقة التكنولوجيا يخشون تكرار الخطأ.


عندما أصدرت Google تطبيق الصور المستقل في مايو 2015 ، انبهر الناس بما يمكنها فعله: تحليل الصور لتسمية الأشخاص والأماكن والأشياء الموجودة فيها ، وهو عرض مذهل للمستهلك في ذلك الوقت. ولكن بعد شهرين من الإصدار ، اكتشف مطور البرامج ، Jacky Alciné ، أن Google قد صنفت صورًا له وصديق ، كلاهما أسود ، على أنها “غوريلا” ، وهو مصطلح مسيء بشكل خاص لأنه يردد قرونًا من العنصرية المجازات.

في الجدل الذي أعقب ذلك ، منعت Google برنامجها من تصنيف أي شيء في الصور على أنه غوريلا ، وتعهدت بإصلاح المشكلة. بعد ثماني سنوات ، مع تطورات كبيرة في الذكاء الاصطناعي ، اختبرنا ما إذا كانت Google قد حلت المشكلة ، وألقينا نظرة على أدوات مماثلة من منافسيها: Apple و Amazon و Microsoft.

كان هناك فرد واحد من عائلة الرئيسيات تمكنت Google و Apple من التعرف عليه – الليمور ، وهو حيوان مذهل بشكل دائم وذيل طويل يشترك في إبهام متعارض مع البشر ، ولكنه أقرب إلى القرابة من القرود.

من الواضح أن أدوات Google و Apple كانت الأكثر تعقيدًا عندما يتعلق الأمر بتحليل الصور.

ومع ذلك ، اتخذت شركة Google ، التي يدعم برنامجها الذي يعمل بنظام Android معظم الهواتف الذكية في العالم ، قرارًا بإيقاف القدرة على البحث بصريًا عن الرئيسيات خوفًا من ارتكاب خطأ مسيء وتصنيف شخص ما على أنه حيوان. ويبدو أن شركة آبل ، مع التكنولوجيا التي كان أداؤها مشابهًا لأداء جوجل في اختبارنا ، قد عطلت القدرة على البحث عن القرود والقردة أيضًا.

قد لا يحتاج المستهلكون إلى إجراء مثل هذا البحث بشكل متكرر – على الرغم من أنه في عام 2019 ، اشتكى أحد مستخدمي iPhone في منتدى دعم عملاء Apple من أن البرنامج “لا يمكن العثور على القرود في الصور على جهازي. ” لكن هذه القضية تثير أسئلة أكبر حول العيوب الأخرى غير الثابتة ، أو غير القابلة للإصلاح ، الكامنة في الخدمات التي تعتمد على رؤية الكمبيوتر – وهي تقنية تفسر الصور المرئية – بالإضافة إلى المنتجات الأخرى المدعومة بالذكاء الاصطناعي

شعر السيد Alciné بالفزع عندما علم أن Google لم تحل المشكلة بالكامل حتى الآن ، وقال إن المجتمع يضع الكثير من الثقة في التكنولوجيا.

قال: “لن أؤمن إلى الأبد بهذا الذكاء الاصطناعي”.

تُستخدم منتجات الرؤية الحاسوبية الآن في مهام عادية مثل إرسال تنبيه عندما تكون هناك حزمة على عتبة الباب ، وثقل مثل التنقل في السيارات والعثور على الجناة في تحقيقات إنفاذ القانون.

يمكن أن تعكس الأخطاء المواقف العنصرية بين أولئك الذين يشفرون البيانات. في حادثة الغوريلا ، قال اثنان من موظفي Google السابقين الذين عملوا على هذه التقنية إن المشكلة تكمن في أن الشركة لم تضع صورًا كافية للأشخاص السود في مجموعة الصور التي استخدمتها لتدريب نظام الذكاء الاصطناعي الخاص بها. ونتيجة لذلك ، لم تكن التكنولوجيا مألوفة بما فيه الكفاية مع الأشخاص ذوي البشرة الداكنة وخلطتهم على الغوريلا.

عندما يصبح الذكاء الاصطناعي أكثر ترسخًا في حياتنا ، فإنه يثير مخاوف من عواقب غير مقصودة. على الرغم من اختلاف منتجات رؤية الكمبيوتر وروبوتات الدردشة التي تعمل بالذكاء الاصطناعي مثل ChatGPT ، إلا أن كلاهما يعتمد على حزم البيانات الأساسية التي تدرب البرنامج ، ويمكن أن يختل كلاهما بسبب عيوب في البيانات أو التحيزات المدمجة في التعليمات البرمجية الخاصة بهما.

مايكروسوفت مؤخرا قدرة المستخدمين المحدودة للتفاعل مع روبوت محادثة مدمج في محرك البحث الخاص به ، Bing ، بعد تحريضه محادثات غير لائقة.

يوضح قرار Microsoft ، مثل اختيار Google لمنع الخوارزمية الخاصة بها من تحديد الغوريلا تمامًا ، نهجًا مشتركًا في الصناعة – لإيقاف ميزات التكنولوجيا التي تعطل بدلاً من إصلاحها.

قال فيسنتي أوردونيز ، الأستاذ في جامعة رايس الذي يدرس الرؤية الحاسوبية ، “إن حل هذه القضايا مهم”. “كيف يمكننا الوثوق بهذا البرنامج لسيناريوهات أخرى؟”

قال مايكل ماركوني ، المتحدث باسم Google ، إن Google منعت تطبيق الصور الخاص بها من تصنيف أي شيء على أنه قرد أو قرد لأنها قررت أن الفائدة “لا تفوق مخاطر الضرر”.

رفضت Apple التعليق على عدم قدرة المستخدمين على البحث عن معظم الرئيسيات على تطبيقها.

قال ممثلون من أمازون ومايكروسوفت إن الشركات كانت تسعى دائمًا إلى تحسين منتجاتها.

عندما كانت Google تطور تطبيق الصور الخاص بها ، والذي تم إصداره قبل ثماني سنوات ، جمعت كمية كبيرة من الصور لتدريب نظام الذكاء الاصطناعي على التعرف على الأشخاص والحيوانات والأشياء.

قال اثنان من موظفي Google السابقين إن إشرافه الكبير – عدم وجود صور كافية للأشخاص السود في بيانات التدريب الخاصة به – تسبب في تعطل التطبيق لاحقًا. قال الموظفون السابقون إن الشركة فشلت في الكشف عن مشكلة “الغوريلا” في ذلك الوقت لأنها لم تطلب عددًا كافيًا من الموظفين لاختبار الميزة قبل ظهورها العام.

اعتذرت Google بغزارة عن حادثة الغوريلا ، لكنها كانت واحدة من عدد من الحلقات في صناعة التكنولوجيا الأوسع التي أدت إلى اتهامات بالتحيز.

تشمل المنتجات الأخرى التي تم انتقادها كاميرات الويب لتتبع الوجه من HPوالتي لم تستطع الكشف عن بعض الأشخاص ذوي البشرة الداكنة ، و ساعة آبل ، التي ، حسب في دعوى قضائية، فشل في قراءة مستويات الأكسجين في الدم بدقة عبر ألوان البشرة. تشير الثغرات إلى أن المنتجات التقنية لم يتم تصميمها للأشخاص ذوي البشرة الداكنة. (أشار أبل إلى ورقة اعتبارًا من عام 2022 الذي عرض بالتفصيل جهوده لاختبار تطبيق الأكسجين في الدم على “مجموعة واسعة من أنواع البشرة ونغماتها.”)

بعد سنوات من خطأ صور Google ، واجهت الشركة مشكلة مماثلة مع كاميرا الأمن المنزلي من Nest أثناء الاختبار الداخلي ، وفقًا لشخص مطلع على الحادث كان يعمل في Google في ذلك الوقت. كاميرا نيست ، التي استخدمت الذكاء الاصطناعي لتحديد ما إذا كان شخص ما على الممتلكات مألوفًا أم غير مألوف ، أخطأت في أن بعض السود هم حيوانات. قال الشخص إن Google هرعت لإصلاح المشكلة قبل أن يتمكن المستخدمون من الوصول إلى المنتج.

ومع ذلك ، يستمر عملاء Nest في تقديم شكوى في منتديات الشركة حول العيوب الأخرى. في عام 2021 ، تلقى أحد العملاء تنبيهات بأن والدته كانت تدق جرس الباب لكنه وجد حماته على الجانب الآخر من الباب. عندما اشتكى المستخدمون من أن النظام كان يخلط بين الوجوه التي وضعوا عليها علامة “مألوفة” ، نصحهم ممثل دعم العملاء في المنتدى بحذف جميع ملصقاتهم والبدء من جديد.

قال السيد ماركوني ، المتحدث باسم Google ، “هدفنا هو منع حدوث هذه الأنواع من الأخطاء على الإطلاق”. وأضاف أن الشركة حسنت تقنيتها “من خلال الشراكة مع الخبراء وتنويع مجموعات بيانات الصور الخاصة بنا”.

في عام 2019 ، حاولت Google تحسين ميزة التعرف على الوجه للهواتف الذكية التي تعمل بنظام Android من خلال زيادة عدد الأشخاص ذوي البشرة الداكنة في مجموعة البيانات الخاصة بها. لكن المتعاقدين الذين وظفتهم جوجل لجمع فحوصات الوجه يقال لجأوا إلى تكتيك مقلق للتعويض عن ندرة البيانات المتنوعة: استهدفوا المشردين والطلاب. وصف المسؤولون التنفيذيون في Google الحادث بأنه “مزعج للغاية” في ذلك الوقت.

بينما عملت Google خلف الكواليس لتحسين التكنولوجيا ، لم تسمح للمستخدمين أبدًا بالحكم على تلك الجهود.

انضمت مارجريت ميتشل ، باحثة ومؤسس مشارك لمجموعة Ethical AI التابعة لـ Google ، إلى الشركة بعد حادثة الغوريلا وتعاونت مع فريق Photos. قالت في مقابلة أجريت معها مؤخرًا إنها كانت من دعاة قرار Google بإزالة “علامة الغوريلا ، على الأقل لفترة من الوقت”.

قال الدكتور ميتشل: “عليك أن تفكر في عدد المرات التي يحتاج فيها شخص ما إلى تصنيف غوريلا مقابل إدامة الصور النمطية الضارة”. “الفوائد لا تفوق الأضرار المحتملة للخطأ.”

توقع الدكتور أوردونيز ، الأستاذ ، أن Google و Apple يمكن أن يكونا قادرين الآن على التمييز بين الرئيسيات والبشر ، لكنهما لم يرغبوا في تمكين الميزة نظرًا للمخاطر المحتملة على السمعة إذا اختفت مرة أخرى.

أصدرت Google منذ ذلك الحين منتجًا أكثر قوة لتحليل الصور ، Google Lens ، أداة للبحث في الويب بالصور بدلاً من النص. سلكي اكتشفت في عام 2018 أن الأداة لم تتمكن أيضًا من التعرف على غوريلا.

قال الدكتور ميتشل ، الذي لم يعد يعمل في Google ، إن هذه الأنظمة ليست مضمونة على الإطلاق. نظرًا لأن مليارات الأشخاص يستخدمون خدمات Google ، فستظهر حتى الأخطاء النادرة التي تحدث لشخص واحد فقط من بين مليار مستخدم.

وقالت: “لا يتطلب الأمر سوى خطأ واحد لحدوث تداعيات اجتماعية هائلة” ، مشيرة إلى ذلك على أنه “الإبرة المسمومة في كومة قش”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى