متنوع

لا تستطيع السيارات المستقلة التعرف على المشاة ذوي البشرة الداكنة

لا تستطيع السيارات المستقلة التعرف على المشاة ذوي البشرة الداكنة


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

أظهر تقرير جديد أن الأنظمة المصممة لمساعدة السيارات ذاتية القيادة في التعرف على المشاة قد تواجه صعوبة في التعرف على الأشخاص ذوي البشرة الداكنة. تم تحميل البحث المقلق إلى خادم ما قبل الطباعة arxiv.

راجع أيضًا: التحيز في الذكاء الاصطناعي يتطلب الانضباط والشفقة

توجد أدلة بالفعل على أن بعض برامج التعرف على الوجه تكافح للعمل مع درجات لون البشرة الداكنة. لكن نتائج الدراسة الخاصة بالسيارات ذاتية القيادة قد تكون قاتلة.

أفضل عرض في العالم هو التحيز

قام باحثون من Georgia Tech بالتحقيق في ثمانية نماذج ذكاء اصطناعي مستخدمة في أحدث أنظمة الكشف عن الأشياء لإكمال دراستهم. تسمح هذه الأنظمة للمركبات ذاتية القيادة بالتعرف على إشارات الطرق والمشاة والأشياء الأخرى أثناء تنقلهم في الطرق.

لقد اختبروا هذه الأنظمة باستخدام فئتين مختلفتين بناءً على مقياس فيتزباتريك. مقياس شائع الاستخدام لتصنيف لون بشرة الإنسان.

البشرة الداكنة معرضة لخطر أكبر

بشكل عام ، انخفضت دقة النظام بنسبة 5 في المائة عندما تم تقديمه مع مجموعات من صور المشاة بدرجات لون بشرة داكنة. ووفقًا للورقة المنشورة ، أظهرت النماذج "أداء أضعف بشكل موحد" عند مواجهة المشاة بثلاثة ظلال داكنة على المقياس.

تأتي هذه النتائج بعد تعديل النتيجة لمراعاة ما إذا كانت الصورة قد التقطت أثناء النهار أو في الليل. باختصار ، يشير التقرير إلى أن الأشخاص ذوي البشرة الداكنة سيكونون أقل أمانًا بالقرب من الطرق التي تهيمن عليها المركبات ذاتية القيادة من أولئك ذوي البشرة الفاتحة.

يبدأ القضاء على التحيز بالتنوع في البحث

يقدم التقرير لحسن الحظ عرضًا موجزًا ​​لكيفية معالجة هذا الواقع الذي لا يسبر غوره. يبدأ هذا ببساطة بزيادة عدد صور المشاة ذوي البشرة الداكنة في مجموعات البيانات المستخدمة لتدريب الأنظمة.

يحتاج المهندسون المسؤولون عن تطوير هذه الأنظمة إلى التركيز بشكل أكبر على تدريب الأنظمة بدقة أعلى لهذه المجموعة.

يعد التقرير ، الذي يأمل المؤلفون أنه يقدم أدلة مقنعة كافية لمعالجة هذه المشكلة الحرجة قبل نشر أنظمة التعرف هذه في العالم ، تذكيرًا آخر بالافتقار العام للتنوع في عالم الذكاء الاصطناعي.

لسوء الحظ ، هذا ليس التقرير الأول عن العنصرية القاتلة المحتملة في الأنظمة التي تعمل بالذكاء الاصطناعي. في مايو من العام الماضي ، ذكرت ProPublica أن البرامج المستخدمة لمساعدة القضاة في تحديد الخطر الذي يمثله الجاني لإعادة ارتكاب جريمة ما كان متحيزًا ضد السود.

التنميط العنصري قاتل

يتم استخدام النظام من قبل القضاة في الأحكام الجنائية ، وهو يوفر درجة بناءً على ما إذا كان من المحتمل أن يعود الشخص إلى الجريمة. تشير الدرجة العالية إلى أنهم سيعودون للإجرام ، وتشير الدرجة المنخفضة إلى أنه أقل احتمالًا.

قام الصحفيون الاستقصائيون بتقييم درجة المخاطر المخصصة لأكثر من 7000 شخص في مقاطعة بروارد في فلوريدا في عامي 2013 و 2014 ثم راقبوا لمعرفة ما إذا كان نفس الأشخاص قد اتهموا بأي جرائم جديدة في العامين المقبلين.

لم تثبت الخوارزمية أنها غير موثوقة فحسب ، بل إن 20٪ فقط من الأشخاص الذين توقعوا ارتكاب جرائم عنيفة فعلوا ذلك. كما كانت متحيزة عنصريًا.

كان من المرجح أن يتم وضع علامة على المتهمين السود كمجرمين في المستقبل ، حيث تم تصنيفهم خطأً بما يقرب من ضعف معدل المتهمين البيض. في حين تم تصنيف المدعى عليهم البيض على أنهم خطر منخفض أكثر من المتهمين السود.

يجب على مجتمع تطوير الذكاء الاصطناعي العمل معًا واتخاذ موقف علني ضد هذا النوع من التحيز الضار بشكل كبير.


شاهد الفيديو: وثائقي: سيارات تنطلق من جديد (يونيو 2022).


تعليقات:

  1. Akicage

    المناقشات جيدة دائمًا ، ولكن تذكر أنه لا يمكن الوثوق بكل رأي. في كثير من الأحيان في مواضيع خطيرة ومعقدة للغاية ، يتم إدراج التعليقات من قبل الأطفال ، وأحيانًا يؤدي إلى طريق مسدود. لا شك في أنه يحدث أن نفس تلاميذ المدارس يمكنهم تقديم نصيحة جيدة. ولكن هذا هو الاستثناء أكثر من القاعدة.

  2. Niklas

    أعتقد أنني أرتكب أخطاء. أنا قادر على إثبات ذلك. اكتب لي في PM.

  3. Talmaran

    انا أنضم. كان معي أيضا. دعونا نناقش هذه المسألة.

  4. Mazonn

    الجملة الدقيقة

  5. Cuetzpalli

    العبارة رائعة وفي الوقت المناسب



اكتب رسالة