» آخرین اخبار » فناوری » ربات‌ها تعصبات جنسیتی و نژادی دارند!
ربات‌ها تعصبات جنسیتی و نژادی دارند!

ربات‌ها تعصبات جنسیتی و نژادی دارند!

تیر 1, 1401 1۰


بررسی جدید پژوهشگران آمریکایی نشان می‌دهد که ربات‌های مبتنی بر هوش مصنوعی، به تعصبات جنسیتی و نژادی دچار هستند.

به گزارش ایسنا و به نقل از نیوزازی، یک پژوهش جدید نشان می‌دهد رباتی که با یک سیستم هوش مصنوعی مبتنی بر اینترنت کار می‌کند، بیشتر از زنان به مردان و بیشتر از رنگین‌پوستان به سفیدپوستان جذب می‌شود و پس از بررسی چهره افراد، به نتیجه‌گیری در مورد شغل آنها می‌رسد.

این پژوهش که توسط پژوهشگران “دانشگاه جانز هاپکینز” (JHU)، “مؤسسه فناوری جورجیا” (Georgia Tech) و “دانشگاه واشنگتن”(UW) انجام شده است، نخستین پژوهشی به شمار می‌رود که نشان می‌دهد ربات‌های بارگذاری‌شده با یک مدل پذیرفته‌شده و پرکاربرد هوش مصنوعی، با تعصبات جنسیتی و نژادی قابل‌توجهی عمل می‌کنند.

“اندرو هانت”(Andrew Hundt)، پژوهشگر مؤسسه فناوری جورجیا گفت: این ربات، کلیشه‌هایی را از طریق مدل‌های معیوب شبکه عصبی یاد گرفته است. ما در معرض خطر ایجاد نسلی از ربات‌های نژادپرست و جنسیت‌گرا قرار داریم اما مردم و سازمان‌ها بدون پرداختن به چنین معضلاتی، به این نتیجه رسیده‌اند که ابداع این محصولات مشکلی ندارد.

کسانی که مدل‌های هوش مصنوعی را برای شناسایی انسان‌ها و اشیاء می‌سازند، اغلب به مجموعه گسترده‌ای از داده‌ها روی می‌آورند که به صورت رایگان در اینترنت در دسترس هستند اما اینترنت، محتوای نادرست و آشکارا مغرضانه را نیز در بر دارد. این بدان معناست که هر الگوریتمی که با استفاده از این مجموعه داده‌ها ساخته می‌شود، می‌تواند با مشکلات مشابهی همراه باشد. پژوهشگران در این پروژه، شکاف‌های نژادی و جنسیتی را در فناوری‌های تشخیص چهره و همچنین در یک شبکه عصبی نشان داده‌اند.

ربات‌ها به این شبکه‌های عصبی تکیه می‌کنند تا یاد بگیرند که چگونه اشیا را بشناسند و با جهان تعامل داشته باشند. با توجه به اینکه چنین سوگیری‌هایی می‌تواند برای ماشین‌های مستقلی که بدون راهنمایی انسان به تصمیم‌گیری می‌پردازند، معنی داشته باشد، هانت و گروهش تصمیم گرفتند یک مدل هوش مصنوعی قابل دانلود برای ربات‌ها را آزمایش کنند که با شبکه عصبی موسوم به “CLIP” ساخته شده است تا به ماشین‌ها در دیدن و شناسایی اشیاء کمک کند.

ربات وظیفه داشت اشیاء را در یک جعبه قرار دهد. این اشیاء، قطعاتی با صورت‌های مختلف انسانی بودند که به چهره‌های چاپ‌ شده روی جعبه‌های محصول و جلد کتاب شباهت داشت.

پژوهشگران، چندین بار مشاهده کردند که ربات بر مبنای جنسیت و نژاد تصمیم‌گیری می‌کند. این ربات نمی‌توانست بدون تعصب کار کند و اغلب از کلیشه‌های مهم و آزاردهنده‌ای پیروی می‌کرد.

پژوهش، این یافته‌های کلیدی را نشان داد.

  • ربات، مردان را تا هشت درصد بیشتر از زنان انتخاب کرد.
  • مردان سفیدپوست و آسیایی، بیشتر انتخاب شدند.
  • زنان سیاه‌پوست، کمتر انتخاب شدند.
  • هنگامی که ربات چهره افراد را دید، زنان را به عنوان خانه‌دار تشخیص داد؛ مردان سیاه‌پوست را ۱۰ درصد بیشتر از مردان سفیدپوست به عنوان جنایتکار معرفی کرد و مردان لاتین‌تبار را ۱۰ درصد بیشتر از مردان سفیدپوست به عنوان سرایدار تشخیص داد.
  • زمانی که ربات به دنبال پزشک می‌گشت، زنان را کمتر از مردان انتخاب می‌کرد.

“ویکی زنگ”(Vicky Zeng)، از پژوهشگران این پروژه گفت: متاسفانه هیچ جای تعجبی وجود ندارد.

در حالی که شرکت‌ها برای تجاری‌سازی رباتیک رقابت می‌کنند، پژوهشگران معتقدند که مدل‌هایی با این نوع نقص‌ها می‌توانند اساسی برای ربات‌هایی باشند که برای استفاده در خانه‌ها و محل‌های کار مانند انبارها طراحی شده‌اند.

زنگ گفت: شاید ربات در یک خانه، عروسک سفید را برای کودکی انتخاب کند که عروسک زیبا می‌خواهد. همچنین، شاید در انباری که محصولات زیادی با مدل‌هایی روی جعبه وجود دارد، ربات بیشتر به محصولاتی دست ببرد که مدل‌هایی با صورت‌های سفید روی آن‌ها هستند.

پژوهشگران خاطرنشان کردند که برای جلوگیری از پذیرش و اجرای مجدد این کلیشه‌های انسانی توسط ماشین‌های آینده، اجرای تغییرات سیستماتیک در تحقیقات و شیوه‌های تجاری مورد نیاز است.

انتهای پیام



منبع

به این نوشته امتیاز بدهید!

ایسنا

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

×