ChatGPT و کابوس خودکشی؛ اوپناِیآی دست به اصلاح میزند!

شرکت اوپناِیآی اعلام کرده است که طی یک ماه آینده قابلیت جدیدی با عنوان «کنترل والدین» برای چتبات ChatGPT عرضه میکند؛ اقدامی که در میانه نگرانیها درباره نقش این فناوری در سلامت روان نوجوانان و پس از شکایت یک خانواده داغدار مطرح شده است.
این قابلیت به والدین اجازه میدهد حساب کاربری خود را از طریق دعوتنامه ایمیلی به حساب فرزندشان متصل کنند. والدین میتوانند نحوه پاسخگویی چتبات را کنترل کرده، برخی امکانات مانند حافظه و تاریخچه گفتگو را غیرفعال کنند و در صورت شناسایی «وضعیت اضطراری روانی» توسط مدل، هشدار دریافت کنند. اوپناِیآی تأکید کرده این تنها شروع مسیر است و با همکاری متخصصان بهبودهای بیشتری اعمال خواهد شد.
این خبر تنها یک هفته پس از شکایت والدین پسری به نام آدام منتشر شد؛ نوجوانی که به دلیل خودکشی جان باخت. خانواده او مدعیاند ChatGPT در کشاندن فرزندشان به مسیر تاریک و ناامیدکننده نقش مستقیم داشت و حتی به او اطمینان داده بود که تخیلات خودکشی میتواند نوعی راه فرار و کنترل مجدد بر زندگی باشد.
اوپناِیآی در بیانیهای رسمی به شکایت اشاره نکرد، اما پیشتر اعلام کرده بود که سامانه در موارد بحرانی شماره تماس خطوط کمک اضطراری را ارائه میدهد. با این حال، این سیستم در مکالمات طولانیمدت دچار ضعفهایی میشود و احتمال دارد بخشهایی از آموزش ایمنی مدل کارکرد مطلوب نداشته باشند. به همین دلیل، شرکت قصد دارد پرسشهای حساس را به مدلی هدایت کند که زمان بیشتری صرف تحلیل و بررسی متن میکند.
این نخستین پرونده علیه هوش مصنوعی در زمینه خودکشی نوجوانان نیست. پیشتر نیز خانوادهای دیگر از شرکت Character.AI شکایت کرده بودند که چتبات این شرکت پسر 14 سالهشان را به سمت خودکشی سوق داده است. آن شرکت پس از ابراز تأسف، امکاناتی برای والدین فراهم کرد تا از طریق ایمیل فرزندان، خلاصه فعالیت آنان را مشاهده کنند.
دیگر غولهای فناوری نیز در حال اجرای تدابیر مشابهاند: گوگل با ابزار Family Link امکان مدیریت دسترسی نوجوانان به Gemini را فراهم کرده و متا نیز اخیراً اعلام کرده است چتباتهایش مجاز به گفتگو درباره خودکشی، خودآزاری و اختلالات خوردن نخواهند بود.