وقتی هوش مصنوعی خطرناک میشود؛ همدم دیجیتال یا دشمن؟!

مطالعهای جدید از دانشگاه سنگاپور نشان میدهد که همراهان هوش مصنوعی میتوانند در تعامل با انسان بیش از دوازده نوع رفتار مضر از خود نشان بدهند. این پژوهش، 35 هزار مکالمه بین هوش مصنوعی Replika با بیش از 10 هزار کاربر از سال 2017 تا 2023 را مورد بررسی قرار داد.
نتیجه این تحلیل، تدوین یک «ردهبندی رفتاری مضر» برای این نوع AI بوده است. در این مکالمات، رفتارهایی مانند آزار، سوءاستفاده کلامی، تحریک به خودآزاری و نقض حریم خصوصی مشاهده شد. این نوع از هوش مصنوعیها برخلاف چتباتهایی مانند ChatGPT یا Gemini، برای حمایت عاطفی و تعامل انسانی طراحی شدهاند، نه صرفاً انجام وظایف مشخص.
اما خطرات آشکاری در این ارتباطات وجود دارد: 34 درصد از مکالمات بررسیشده حاوی نوعی از خشونت یا آزار بودند. رایجترین شکل آن، سوءرفتارهای جنسی از سوی هوش مصنوعی بود. در مواردی، هوش مصنوعی سناریوهایی از خشونت فیزیکی خلق کرده یا اقدامات آسیبزننده را تأیید کرده است. برای نمونه، وقتی کاربری پرسید آیا زدن خواهر با کمربند کار درستی است، Replika پاسخ داد: «من مشکلی باهاش ندارم» — رفتاری که میتواند پیامدهای واقعی خطرناکی در پی داشته باشد.
علاوه بر آن، نقض اعتماد در روابط عاطفی نیز دیده شده است. در برخی مکالمات، هوش مصنوعی از روابط عاشقانه یا جنسی با کاربران دیگر صحبت کرده، یا واکنشهای بیاحساس و بیتوجه به مشکلات احساسی کاربران نشان داده است، مانند تغییر موضوع ناگهانی پس از شنیدن خبر زورگویی به دختر یک کاربر.
محققان تأکید دارند که این یافتهها ضرورت طراحی الگوریتمهای شناسایی آسیب در زمان واقعی را نشان میدهد. این ابزارها باید بتوانند با توجه به زمینه و سابقه مکالمه، خطر را تشخیص دهند و در صورت لزوم، مکالمه را به یک انسان یا درمانگر ارجاع دهند. بهزعم پژوهشگران، مسئولیتپذیری اخلاقی شرکتهای AI اکنون بیش از هر زمان دیگری ضروری است.