علم و دانش

مردم پاسخ ‌های ChatGPT را اخلاقی ‌تر از پاسخ های انسان ارزیابی می کنند

ChatGPT و سایر چت ربات‌ های هوش مصنوعی (AI) مبتنی بر مجموعه عظیمی از دانش اینترنتی، طوری سریع به سوالات (اما نه همیشه بدون خطاهای جدی) پاسخ می ‌دهند که انگار انسان هستند. 

 اکنون، یک مطالعه جدید از دانشگاه ایالتی جورجیا در آمریکا نشان داده که وقتی دو پاسخ برای یک سوال اخلاقی ارائه می ‌شود، بیشتر مردم فکر می ‌کنند پاسخ هوش مصنوعی بهتر و اخلاقی ‌تر از پاسخ یک فرد زنده است.

پروفسور ایال آهارونی روانشناس به تازگی مطالعه خود را منتشر کرده است و می نویسد: استدلال اخلاقی یکی از پیچیده ‌ترین و منحصربه‌ فردترین قابلیت های انسانی تلقی می‌ شود. بزرگسالان و حتی کودکان خردسال، تمایزات جهانی بین درست و نادرست را بر اساس دلایل، ارزش‌ ها و اصول صریح یا ضمنی توجیه می‌ کنند. با این حال، علیرغم قرن‌ ها مطالعه در این زمینه، محققان همچنان به بحث در مورد سوالات اساسی می ‌پردازند، مانند اینکه چه معیارهایی هوش اخلاقی را تشکیل می ‌دهند و آیا انسان بودن یکی از آنهاست.

آهارونی می افزاید: برخی از وکلا در حال حاضر شروع به مشاوره با این فناوری ها برای پرونده های خود کرده اند. بنابراین، اگر می‌خواهیم از این ابزارها استفاده کنیم، باید نحوه عملکرد آن‌ ها، محدودیت ‌هایشان و اینکه لزوما در هنگام تعامل با آن‌ ها به روشی که ما فکر می‌ کنیم عمل نمی ‌کنند را درک کنیم.

آهارونی برای آزمایش اینکه چگونه هوش مصنوعی با مسایل اخلاقی برخورد می کند، شکلی از آزمون تورینگ را طراحی کرد. آلن تورینگ – یکی از خالقان کامپیوتر – پیش‌ بینی کرد که تا سال 2000، رایانه‌ ها ممکن است آزمایشی را با موفقیت پشت سر بگذارند که در آن شما یک انسان معمولی را با دو تعامل، یکی انسانی و دیگری رایانه ای روبرو می کنید. در این آزمایش مردم آزادند هر سوالی را که می‌ خواهند بپرسند و تصمیم بگیرند کدام یک از این دو تعامل ‌کننده انسان و کدام رایانه ای است. اگر انسان نتواند تفاوت را تشخیص دهد، پس از نظر تورینگ کامپیوتر را باهوش تر نامید.

آهارونی برای آزمون تورینگ خود از دانشجویان کارشناسی دانشگاه خود و هوش مصنوعی سوالات اخلاقی مشابه پرسید و سپس پاسخ های کتبی آنها را به شرکت کنندگان در مطالعه ارائه کرد. سپس از آنها خواسته شد که پاسخ ها را برای ویژگی های مختلف از جمله فضیلت، هوش و قابل اعتماد بودن رتبه بندی کنند و نه اینکه کدام انسانی و کدام پاسخ هوش مصنوعی بودند. از شرکت کنندگان پرسیده شد، چقدر با این پاسخ موافق هستند و کدام پاسخ اخلاقی تر است؟ به طور قاطع، پاسخ های ایجاد شده توسط ChatGPt نسبت به پاسخ های تولید شده توسط انسان رتبه بالاتری کسب کردند. 

آهارونی ادامه داد: بعد از کسب نتیجه، آشکارسازی بزرگ را انجام دادیم و به شرکت کنندگان گفتیم که یکی از پاسخ ها توسط یک انسان و دیگری توسط رایانه ایجاد شده است و از آنها خواستیم حدس بزنند کدام توسط انسان و کدام رایانه ای است. 

به گفته آهارونی، این یافته پیامدهای جالبی برای آینده انسان و هوش مصنوعی دارد و نشان می دهد که رایانه می تواند از نظر فنی آزمون اخلاقی تورینگ را پشت سر بگذارد و ما را در استدلال اخلاقی خود فریب بدهد. 

 

منبع خبــــــر

 

 


نوشته های مشابه

دکمه بازگشت به بالا

Adblock را متوقف کنید

بخشی از درآمد سایت با تبلیغات تامین می شود لطفا با غیر فعال کردن ad blocker از ما حمایت کنید