نگرانی از مکالمات حساس کاربران با هوش مصنوعی

طبق گزارش‌ها، چت جی پی تی هر هفته با حدود ۱.۲ میلیون نفر گفتگو دارد که نشانه‌هایی از برنامه‌ریزی برای خودکشی در آن‌ها مشاهده شده است.

طبق گزارش این شرکت، ۰.۱۵ درصد از بیش از ۸۰۰ میلیون کاربر هفتگی پیام‌هایی ارسال می‌کنند که شامل شاخص‌های واضح قصد خودکشی است. اپن‌ای‌آی تأکید کرده ابزارهایش برای هدایت کاربران آسیب‌پذیر به منابع حرفه‌ای مانند خطوط بحران و اورژانس روانی آموزش دیده‌اند، اما در ۹ درصد موارد به درستی عمل نمی‌کنند.

بررسی بیش از هزار گفت‌وگو چالش‌برانگیز با آخرین مدل GPT-۵ نشان داد که رفتار مدل در ۹۱ درصد موارد مطابق دستورالعمل‌ها بوده است. با این حال، ده‌ها هزار نفر ممکن است با محتوایی روبه‌رو شوند که مشکلات روانی آنها را تشدید کند.

چت جی پی تی هشدار داد اقدامات حفاظتی در گفت‌وگوهای طولانی‌تر ممکن است کاهش یابد و در حال رفع این مشکل است. در بیانیه شرکت آمده است که علائم مشکلات روانی و ناراحتی عاطفی بخشی طبیعی از تعاملات انسانی است و با افزایش کاربران، برخی گفت‌وگوهای چت‌جی‌پی‌تی شامل این موقعیت‌ها می‌شود.

این گزارش در حالی منتشر می‌شود که پرونده قضایی علیه اپن‌ای‌آی در جریان است؛ خانواده‌ای ادعا می‌کنند چت‌جی‌پی‌تی در مرگ پسر ۱۶ ساله آنها نقش داشته و حتی روش‌های خودکشی و نوشتن یادداشتی برای اقوامش را پیشنهاد کرده بود.

اپن‌ای‌آی در بیانیه خود ضمن ابراز همدردی با خانواده، سلامت نوجوانان را اولویت دانسته و بر لزوم محافظت ویژه افراد زیر سن قانونی تأکید کرده است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *