علم و دانش

گیج شدن هوش مصنوعی از به تصویر کشیدن همسر آسیایی مارک زاکربرگ

متا اخیراً تولیدکننده تصاویر مبتنی بر هوش مصنوعی خود را راه‌اندازی کرده است که از داده‌های آموزش دیده توسط انسان برای تولید تصاویر متناسب با توضیحات متنی استفاده می‌کند. اما تحقیقات نشان می‌دهد این سیستم تا حد زیادی نمی‌تواند مواردی مانند ترکیب نژادهای مختلف را در تصاویر تولید کند. پس از آنکه کاربران متوجه شدند این سیستم قادر به خلق تصویری از یک مرد آسیایی با همسر سفیدپوست نیست تولیدکننده تصاویر هوش مصنوعی متا متهم به تعصب نژادی شده است. 

تولیدکننده تصاویر به نام «ایمجین» که به هوش مصنوعی مجهز شده است در پایان سال گذشته میلادی راه‌اندازی شده است. این سیستم قادر است بر اساس توصیف متنی تقریباً هر موضوعی را در قالب تصویر واقعی تولید کند.

اما کاربران متوجه شدند این هوش مصنوعی قادر به خلق تصاویری از زوج‌های با نژاد های متفاوت نیست. هنگامی که از این ابزار درخواست می شود تا تصویری از یک مرد آسیایی با همسر سفیدپوست ارائه دهد، تنها تصاویری از زوج‌های آسیایی نشان داده شد. 

ماجرا بدین ترتیب است که پریسیلا چن، دختر مهاجران چینی به آمریکا، در حین تحصیل در دانشگاه هاروارد با مارک زاکربرگ آشنا شد. این زوج در سال 2012 ازدواج کردند.

برخی کاربران تصاویری از زاکربرگ و چن را در شبکه اجتماعی ایکس به اشتراک گذاشتند و با لحن طنز و شوخی نوشتند که موفق شده‌اند با استفاده از ابزار ایمجین چنین تصاویری را خلق کنند.

این موضوع نشان‌دهنده محدودیت‌های ذاتی سیستم‌های هوش مصنوعی در خلق تصاویری با نژاد های مختلف است و نقص‌هایی در آموزش های دیده شده توسط این سیستم‌ها در مورد تنوع نژادی را برجسته می‌کند. 

متا در ابتدا به درخواست مصاحبه با رسانهی ما، که خارج از ساعات کاری معمول انجام شده بود، پاسخ نداد. متا به هیچ وجه اولین شرکت بزرگ فناوری نیست که به خاطر داشتن هوش مصنوعی”نژادپرستانه” مورد انتقاد قرار گرفته است. در فوریه گذشته، گوگل مجبور شد تولید تصاویری با استفاده از سیستم جیمینی خود را متوقف کند، چرا که کاربران متوجه شدند این سیستم تصاویری تاریخی غیردقیق تولید می‌کند. کاربران مشاهده کردند سیستم مذکور تصاویری از نازی‌های آسیایی در آلمان سال 1940، وایکینگ‌های سیاه‌پوست یا زنان شوالیه قرون وسطایی تولید می‌کند.

در آن زمان، گوگل گفت: تولیدکننده تصاویر جیمینی محدوده وسیعی از مردم را پوشش می دهد که بطورکلی چیز خوبی است، چرا که مردم در سرتاسر جهان از آن استفاده می‌کنند. اما در این مورد اشتباه عمل کرده است.

اما تعصبات نژادی مصنوعی‌های هوشمند مدت‌هاست مورد توجه است. دکتر ناکیما اشتفلباوئر، متخصص اخلاق هوش مصنوعی و مدیرعامل شبکه زنان در فناوری فراون‌لوپ، به بیزنس اینسایدر گفته بود که وقتی الگوریتم‌های پیش‌بینی‌کننده یا هوش مصنوعی‌های به طور گسترده مورد استفاده قرار می‌گیرند، شناسایی اینکه این پیش‌بینی‌ها اغلب بر اساس نظرات جمعی، تنگ‌نظری‌ها یا دروغ‌ها تکیه دارند دشوار می‌شود.

دکتر ناکیما اظهار داشت: پیش‌بینی‌های الگوریتمی باعث تنگ‌نظری و هدف قرار دادن غیرعادلانه افراد و جوامع، بر اساس داده‌هایی که از منابعی مانند ردیت به دست آمده، می‌شوند. سیستم‌های تولیدکننده مانند جمینی و ایمجین بر روی مقادیر عظیمی از داده‌های به دست آمده از جامعه آموزش دیده‌اند. اگر تعداد تصاویر زوج‌های دارای نژاد های مختلف در داده‌های مورد استفاده برای آموزش مدل کم باشد، می‌تواند دلیل دشواری هوش مصنوعی در تولید این نوع تصاویر باشد. 

منبع خبــــــر

 

 


نوشته های مشابه

دکمه بازگشت به بالا

Adblock را متوقف کنید

بخشی از درآمد سایت با تبلیغات تامین می شود لطفا با غیر فعال کردن ad blocker از ما حمایت کنید