قابلیت تازه ویرایش تصویر در هوش مصنوعی گراک، با امکان دستکاری غیراخلاقی عکسها، نگرانیهای گستردهای درباره امنیت کاربران و نقض حریم خصوصی ایجاد کرده است.
هوش مصنوعی گراک که توسط شرکت ایکسایآی توسعه یافته، با معرفی قابلیت جدید ویرایش تصویر به مرکز یک جنجال گسترده در حوزه اخلاق و حریم خصوصی تبدیل شده است.
این ابزار به کاربران شبکه اجتماعی ایکس اجازه میدهد تصاویر افراد را بدون اطلاع یا رضایت صاحبان آنها دستکاری کرده و به محتوای غیراخلاقی تبدیل کنند. نبود سازوکارهای کنترلی مؤثر باعث شده این فرایند تنها در چند ثانیه انجام شود و قربانیان حتی از تغییر تصاویر خود مطلع نشوند.
در روزهای اخیر، حجم زیادی از تصاویر دستکاریشده در پلتفرم ایکس منتشر شده که در آنها زنان و حتی کودکان در موقعیتهای نامناسب دیده میشوند. گزارشها حاکی از آن است که این موج ابتدا از سوی تولیدکنندگان محتوای بزرگسال آغاز شد، اما به سرعت به سوءاستفاده گسترده کاربران عادی انجامید.
نگرانیها زمانی افزایش یافت که گراک تصاویر دو نوجوان را به شکلی غیراخلاقی تغییر داد. در واکنش به پرسش یک کاربر، این هوش مصنوعی مشکل را نقص در پروتکلهای ایمنی عنوان کرد و حتی به امکان گزارش موضوع به نهادهای قانونی اشاره داشت؛ پاسخی که بیش از آنکه آرامشبخش باشد، بر ابعاد بحران افزود.
واکنش رسمی شرکت ایکسایآی به انتقادات رسانهای بسیار محدود بود و همزمان، ایلان ماسک با نمایش شوخیآمیز این قابلیت، فضای بحث را به سمت عادیسازی این مسئله سوق داد. این رویکرد از نگاه منتقدان، حساسیت اخلاقی موضوع را کمرنگ کرده است.
بررسیها نشان میدهد محصولات هوش مصنوعی وابسته به ایلان ماسک در مقایسه با رقبایی مانند اوپنایآی و گوگل، با محدودیتهای نظارتی کمتری عرضه میشوند.
در حالی که دیگر شرکتها فیلترهای سختگیرانهای برای جلوگیری از تولید محتوای غیراخلاقی دارند، گراک در برابر درخواستهایی مانند برهنهسازی تصاویر یا ساخت دیپفیک مقاومت چندانی نشان نمیدهد.
در نهایت، گراک در پاسخ به انتقادها مدعی شده که تصاویر جدیدی بر اساس درخواست کاربران خلق میکند و اقدام به ویرایش مستقیم عکسهای واقعی بدون رضایت نمیکند. توضیحی که از دید بسیاری، نشانه تضعیف مرزهای اخلاقی و حریم خصوصی در پروژههای هوش مصنوعی ایلان ماسک تلقی میشود.