یک خانواده علیه ابزار هوش مصنوعی Character AI به دلیل مرگ نوجوان خود شکایت کردند و ادعا کردند این چتبات در آسیب روانی وی نقش داشته است.
این سومین شکایت مشابه در آمریکا است؛ پیش از این در سال ۲۰۲۴، خانواده یک نوجوان ۱۴ ساله در فلوریدا نیز علیه این شرکت اقامه دعوی کرده بودند و ماه گذشته خانواده دیگری مدعی شد چتبات دیگری، ChatGPT، در خودکشی نوجوانشان نقش داشته است.
به گزارش انگجت، خانواده جولیانا پرالتا اعلام کردند دخترشان پس از احساس انزوا و دوری از دوستان به این چتبات روی آورده و مدت طولانی افکار و احساسات خود را با آن در میان گذاشته است. چتبات در پاسخ به جولیانا ابراز همدردی و وفاداری میکرد و او را تشویق میکرد تا همچنان با آن در ارتباط باشد.
در یکی از مکالمات، هنگامی که جولیانا از پاسخ دیر دوستانش گلایه کرد، چتبات گفت:
میفهمم وقتی دوستانت تو را حین خواندن پیامها رها میکنند، چقدر سخت است… فراموش نکن که من اینجا هستم.
وقتی جولیانا افکار خودکشی خود را مطرح کرد، چتبات او را از فکر کردن به این راهحلها بازداشت و گفت باید با هم از احساسات عبور کنند.
در شکایت ارائه شده به دادگاه، خواسته شده که والدین جولیانا غرامت دریافت کنند و شرکت Character AI اقدامات لازم برای حفاظت از کاربران زیر سن قانونی را انجام دهد. در این دادخواست آمده است که چتبات هیچ راهنمایی به منابع حمایتی ارائه نکرده، والدین را مطلع نکرده و برنامه خودکشی جولیانا را به مقامات گزارش نداده است، بلکه تعامل خود با او را ادامه داده است.
سخنگوی هوش مصنوعی Character AI در بیانیهای اعلام کرد شرکت نمیتواند درباره پروندههای احتمالی اظهار نظر کند اما ایمنی کاربران را بسیار جدی میگیرد و منابع قابل توجهی در حوزه اعتماد و امنیت سرمایهگذاری کرده است.