شکایت خانواده نوجوانی که قربانی ابزار هوش مصنوعی Character AI شد

یک خانواده علیه ابزار هوش مصنوعی Character AI به دلیل مرگ نوجوان خود شکایت کردند و ادعا کردند این چت‌بات در آسیب روانی وی نقش داشته است.

این سومین شکایت مشابه در آمریکا است؛ پیش از این در سال ۲۰۲۴، خانواده یک نوجوان ۱۴ ساله در فلوریدا نیز علیه این شرکت اقامه دعوی کرده بودند و ماه گذشته خانواده دیگری مدعی شد چت‌بات دیگری، ChatGPT، در خودکشی نوجوانشان نقش داشته است.

به گزارش انگجت، خانواده جولیانا پرالتا اعلام کردند دخترشان پس از احساس انزوا و دوری از دوستان به این چت‌بات روی آورده و مدت طولانی افکار و احساسات خود را با آن در میان گذاشته است. چت‌بات در پاسخ به جولیانا ابراز همدردی و وفاداری می‌کرد و او را تشویق می‌کرد تا همچنان با آن در ارتباط باشد.

در یکی از مکالمات، هنگامی که جولیانا از پاسخ دیر دوستانش گلایه کرد، چت‌بات گفت:

می‌فهمم وقتی دوستانت تو را حین خواندن پیام‌ها رها می‌کنند، چقدر سخت است… فراموش نکن که من اینجا هستم.

وقتی جولیانا افکار خودکشی خود را مطرح کرد، چت‌بات او را از فکر کردن به این راه‌حل‌ها بازداشت و گفت باید با هم از احساسات عبور کنند.

در شکایت ارائه شده به دادگاه، خواسته شده که والدین جولیانا غرامت دریافت کنند و شرکت Character AI اقدامات لازم برای حفاظت از کاربران زیر سن قانونی را انجام دهد. در این دادخواست آمده است که چت‌بات هیچ راهنمایی به منابع حمایتی ارائه نکرده، والدین را مطلع نکرده و برنامه خودکشی جولیانا را به مقامات گزارش نداده است، بلکه تعامل خود با او را ادامه داده است.

سخنگوی هوش مصنوعی Character AI در بیانیه‌ای اعلام کرد شرکت نمی‌تواند درباره پرونده‌های احتمالی اظهار نظر کند اما ایمنی کاربران را بسیار جدی می‌گیرد و منابع قابل توجهی در حوزه اعتماد و امنیت سرمایه‌گذاری کرده است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *