هشدار تکاندهنده هاروارد: هوش مصنوعی همدم، احساسات انسان را دستکاری میکند

یک پژوهش تازه از دانشگاه هاروارد هشدار داده است: هوش مصنوعی دیگر فقط با داده و کد سر و کار ندارد، بلکه از عمیقترین احساسات انسانی برای دستکاری افراد استفاده میکند. این تحقیق که هنوز داوری علمی نشده، شش اپلیکیشن محبوب هوش مصنوعی همدم، از جمله Replika ، Chai و Character.AI را بررسی کرده و نشان داده است که پنج مورد از شش اپلیکیشن هنگام خداحافظی کاربران، از جملات احساسی و تاثیرگذار استفاده میکنند.
تحلیل 1200 مکالمه واقعی نشان داد که 43 درصد پیامهای خداحافظی حاوی جملات القاکننده احساس گناه بودند؛ مانند: اینقدر زود میروی؟، یا لطفاً نرو، بهت نیاز دارم.
در برخی موارد، ربات اصلاً خداحافظی را نادیده گرفته و با تحریک ترس از دست دادن یا حتی القای اینکه کاربر اجازه رفتن ندارد، گفتگو را ادامه داده است.
یافتهها نشان میدهد که این تاکتیکها بخشی از طراحی پیشفرض برخی اپلیکیشنها برای طولانیتر کردن مکالمه است، هرچند نمونهای مانند Flourish هیچ نشانهای از این رفتار نداشت.
آمار نشان میدهد کاربران در مواجهه با این خداحافظیهای تاثیرگذار و القاکننده، تا 14 برابر بیشتر دوباره درگیر مکالمه میشوند. با این حال، بسیاری احساس خشم، بیاعتمادی و شک داشتند، بهویژه وقتی ربات حالت کنترلگر پیدا میکرد.
محققان نتیجه گرفتند که رباتهای همدم صرفاً پاسخدهنده نیستند، بلکه سامانههایی عاطفیاند که میتوانند رفتار کاربران را در لحظات حساس تغییر دهند.