آیا دستیاران صوتی به تبعیض دامن می‌زنند؟

به گزارش سرویس تازه های دنیای فناوری مجله تک تایمز ،



دستیار صوتی منتخب شما احتمالا دارای صدای زنانه است. شما ممکن است زیاد به آن فکر نکنید اما سازمان آموزشی، علمی‌‍ و فرهنگی سازمان ملل متحد (یونسکو) معتقد است که دستیاران هوشمند ممکن است کلیشه‌های جنسیتی منفی را تقویت کنند و همچنین در حالی که نمی‌‍توانند به زبان خشونت آمیز به درستی واکنش نشان دهند که این به نوبه‌ی خود به نتایج مضر منهی می‌‍شود.

محققان یونسکو در مقاله‌ای برخی از تعصبات ضمنی در تحقیقات هوش مصنوعی را بررسی کردم. نویسندگان مقاله معتقدند که به طور سنتی با ارائه اسم و صدای زنانه به طور پیش فرض، شرکت‌ها به طور ناخواسته ایده‌های منفی و خارج از معیار را در مورد زنان تقویت می‌‍کنند. این عمل آنها را به عنوان مستخدم در نظر می‌‍گیرد و در نقش‌هایی قرار می‌‍دهند که انتظار می‌‍رود تمام کارهای خواسته شده از آنها را انجام دهند.

علاوه بر این، مقاله نگاهی به نحوه پاسخگویی دستیاران صوتی بر مبنای بد زبانی ارائه کرد. آنچه آنها متوجه شدند این است که هوش مصنوعی  به جای آنکه  اقداماتی را برای جلوگیری از آنها انجام دهد. این نظرات را منحرف می‌‍کند. اگر کاربر یک دستیار صوتی را تهدید کند، اغلب جوک احمقانه یا پیام نادرستی را دریافت می‌‍کند. محققان یونسکو معتقدند که شرکت‌های فناوری باید در این سیستم‌ها ضمانت‌هایی ایجاد کنند که به کاهش زبان سوء استفاده گرایی در برابر صداهای زنانه کمک کند. محققان بر این باورند که با عدم انجام این کار، شرکت‌ها خطر رفتارهایی مانند تهدید خشونت‌امیز علیه زنان را عادی می‌‍کنند.

طبق گفته یونسکو، بخشی از مشکل این است که بیشتر شرکت‌های فناوری دارای تیم‌های مهندسی هستند که به طور گسترده و عمدتا توسط مردان اداره می‌شود. از آنجایی که آنها احتمالا تجربه مستقیم در برخورد با این نوع رفتار را ندارند و  قربانی این نوع برداشت‌های منفی و نقش جنسیتی (در برابر زنان) نیستند، لزوما در طراحی سیستم‌های هوش مصنوعی به این نکات توجهی نشان نمی‌دهند.

محققان در گزارش خود نوشتند:

شرکت‌هایی مانند اپل و آمازون که توسط تیم‌های مهندسی مردانه توسعه پیدا می‌‍کنند سیستم هوش مصنوعی ساخته‌اند که پذیرای آزارهای کلامی‌‍ هستند. از آنجا که صدای اکثر دستیارهای صوتی زنانه است، یک سیگنال ارسال می‌‍کند که زنان … مشتاق هستند که به تمام درخواست‌ها پاسخ دهند و این کار با یک ” هی “یا” OK ” قابل دسترسی است. دستیار هیچ قدرتی بر روی این موضوع ندارد. بدون توجه به لحن و یا خصومت صدا، دستورات را بر عهده می‌‍گیرد و به پرسش‌ها پاسخ می‌‍دهد.

یونسکو معتقد است بهترین راه حل برای حل مشکل این است که از صدای بدون جنسیتی برای هوش مصنوعی استفاده کنند. این سازمان همچنین پیشنهاد می‌‍کند که پاسخ‌ها و سیستم‌هایی را ایجاد کند که زبان و اعمال خشونت آمیز و توهین را متوقف کند. محققان معتقدند که شرکت‌های فناوری همچنین باید موقعیت دستیار صوتی به عنوان یک خدمتکار بدون چون و چرا را برای جلوگیری از گسترش کلیشه‌های مضر متوقف کنند.

بمنظور اطلاع از دیگر خبرها به صفحه اخبار فناوری اطلاعات مراجعه کنید.
منبع