ممنوعیت چتباتهای همراه هوش مصنوعی برای کودکان؛ آیا کانادا باید راه آمریکا را برود؟

آمریکا با معرفی لایحه GUARD Act، شرکتهای ارائهدهنده چتباتهای هوش مصنوعی را ملزم میکند تا سن کاربران را احراز کرده و دسترسی خردسالان را مسدود کنند. هدف اصلی این قانون محافظت از نوجوانان در برابر تأثیرات عاطفی و روانی چتباتهاست؛ نگرانیای که پس از شهادت والدینی که تجربههای فرزندانشان با ChatGPT و Character.AI به خودآزاری یا خودکشی منجر شده، شدت یافته است. طبق این قانون، پلتفرمهایی مانند ChatGPT، Claude و Replika باید نه تنها سن کاربران را تأیید کنند، بلکه به آنها یادآوری کنند که خدمات روانشناختی ارائه نمیدهند و تخطی از آن میتواند جریمه سنگینی تا ۱۰۰ هزار دلار به دنبال داشته باشد.
در کانادا، هنوز قانونی مشابه وجود ندارد. دولت فدرال در حال بررسی Bill C-27 است که به تنظیم کلی هوش مصنوعی و حریم خصوصی میپردازد، اما بخش مشخصی برای حفاظت کودکان در برابر چتباتها ندارد. این وضعیت پرسش مهمی را مطرح میکند: آیا اتاوا باید همان مسیر سختگیرانه آمریکا را دنبال کند؟
حامیان ممنوعیت معتقدند هوش مصنوعی میتواند نوجوانان را درگیر وابستگی عاطفی کند و ذهنهای آسیبپذیر را در معرض خطر روانی قرار دهد. نمونههایی مانند خودکشی در آمریکا یا پروندههای مشابه، هشداردهندهاند. از دید آنان، دولتها باید مانند محافظت از کودکان در برابر محتوای مستهجن یا قمار آنلاین، از آنها در برابر تعاملات عاطفی مصنوعی نیز حمایت کنند.
در مقابل، منتقدان میگویند ممنوعیت کامل میتواند به سانسور دیجیتال منجر شود و فرصت یادگیری مسئولانه فناوری را از نوجوانان بگیرد. به جای آن، آموزش سواد رسانهای و هوش مصنوعی راهکار موثرتری است.
برای کانادا بهترین گزینه، ایجاد چارچوبی بومی است که نوآوری و ایمنی را متوازن کند، شامل نسخههای ایمن برای نوجوانان، آموزش خانوادهها و معلمان، شفافسازی دادهها و همکاری دولت و صنعت برای ابزارهای نظارتی. به جای ترس، خرد و آیندهنگری میتواند کانادا را پیش از آمریکا آماده سازد.










