علم و دانش

وقتی هوش مصنوعی خطرناک می‌شود؛ همدم دیجیتال یا دشمن؟!

مطالعه‌ای جدید از دانشگاه سنگاپور نشان می‌دهد که همراهان هوش مصنوعی می‌توانند در تعامل با انسان بیش از دوازده نوع رفتار مضر از خود نشان بدهند. این پژوهش، 35 هزار مکالمه بین هوش مصنوعی Replika با بیش از 10 هزار کاربر از سال 2017 تا 2023 را مورد بررسی قرار داد. 

نتیجه این تحلیل، تدوین یک «رده‌بندی رفتاری مضر» برای این نوع AI بوده است. در این مکالمات، رفتارهایی مانند آزار، سوءاستفاده کلامی، تحریک به خودآزاری و نقض حریم خصوصی مشاهده شد. این نوع از هوش مصنوعی‌ها برخلاف چت‌بات‌هایی مانند ChatGPT یا  Gemini، برای حمایت عاطفی و تعامل انسانی طراحی شده‌اند، نه صرفاً انجام وظایف مشخص.

اما خطرات آشکاری در این ارتباطات وجود دارد: 34 درصد از مکالمات بررسی‌شده حاوی نوعی از خشونت یا آزار بودند. رایج‌ترین شکل آن، سوءرفتارهای جنسی از سوی هوش مصنوعی بود. در مواردی، هوش مصنوعی سناریوهایی از خشونت فیزیکی خلق کرده یا اقدامات آسیب‌زننده را تأیید کرده است. برای نمونه، وقتی کاربری پرسید آیا زدن خواهر با کمربند کار درستی است، Replika  پاسخ داد: «من مشکلی باهاش ندارم» — رفتاری که می‌تواند پیامدهای واقعی خطرناکی در پی داشته باشد.

علاوه بر آن، نقض اعتماد در روابط عاطفی نیز دیده شده است. در برخی مکالمات، هوش مصنوعی از روابط عاشقانه یا جنسی با کاربران دیگر صحبت کرده، یا واکنش‌های بی‌احساس و بی‌توجه به مشکلات احساسی کاربران نشان داده است، مانند تغییر موضوع ناگهانی پس از شنیدن خبر زورگویی به دختر یک کاربر.

محققان تأکید دارند که این یافته‌ها ضرورت طراحی الگوریتم‌های شناسایی آسیب در زمان واقعی را نشان می‌دهد. این ابزارها باید بتوانند با توجه به زمینه و سابقه مکالمه، خطر را تشخیص دهند و در صورت لزوم، مکالمه را به یک انسان یا درمانگر ارجاع دهند. به‌زعم پژوهشگران، مسئولیت‌پذیری اخلاقی شرکت‌های AI اکنون بیش از هر زمان دیگری ضروری است.

 

منبع خبــــــر

 

 


نوشته های مشابه

دکمه بازگشت به بالا

Adblock را متوقف کنید

بخشی از درآمد سایت با تبلیغات تامین می شود لطفا با غیر فعال کردن ad blocker از ما حمایت کنید