استفاده از هوش مصنوعی در دادگاه ؛ پیام احساسی یک قربانی از زبان آواتار مجازی

در یکی از موارد بی‌سابقه قضایی، خانواده‌ای از هوش مصنوعی برای ساخت آواتار یک قربانی و ارسال پیام احساسی‌اش در دادگاه استفاده کردند.

در یک اتفاق منحصر به‌فرد، هوش مصنوعی نقشی برجسته در یک جلسه دادگاه ایفا کرد و به خانواده یک قربانی اجازه داد تا پیام احساسی او را از زبان آواتار مجازی‌اش منتقل کنند.

این حادثه در آریزونا رخ داد، جایی که خانواده مردی به نام کریستوفر پلکی که در یک درگیری خیابانی در سال ۲۰۲۱ جان خود را از دست داده بود، تصمیم گرفتند از فناوری هوش مصنوعی برای بازسازی دیجیتال او استفاده کنند. در پی این تصمیم، یک نسخه شبیه‌سازی‌شده از کریستوفر به‌صورت آواتار در جلسه صدور حکم حضور یافت و مستقیماً با فردی که به قتل او متهم شده بود، صحبت کرد.

آواتار کریستوفر با سویشرت سبز رنگ و ریش کامل، در برابر پس‌زمینه‌ای سفید ظاهر شد و در پیامش به‌وضوح اشاره کرد که او صرفاً یک نسخه شبیه‌سازی‌شده است. گرچه هماهنگی بین صدا و حرکات صورت آواتار کمی به هم ریخته بود، اما پیام احساسی و تأثیرگذار او توانست در دل حاضران اثر بگذارد. کریستوفر با لحن تلخ و تأمل‌برانگیزی گفت که شاید در شرایطی دیگر، او و قاتلش می‌توانستند دوستان خوبی برای یکدیگر باشند.

کریستوفر پلکی، که ۳۷ سال داشت و از کهنه‌سربازان ارتش آمریکا بود، در آن درگیری کشته شد. خانواده‌اش برای گرامی‌داشت یاد او و بیان رنج خود، تصمیم گرفتند از هوش مصنوعی برای ساخت آواتار و ارسال پیام او بهره‌گیرند.

این ویدئو به‌عنوان مدرک قانونی در نظر گرفته نشد، اما دادگاه اجازه داد که در مرحله صدور حکم پخش شود. در نهایت، گابریل پل اورکاسیتاس که به‌جرم قتل غیرعمد و تهدید جان دیگران محکوم شده بود، به ده سال و نیم زندان محکوم شد.

استیسی ویلز، خواهر کریستوفر، که متن ویدئو را نوشته بود، گفت که بیان احساساتش در این موقعیت بسیار دشوار بوده است. او معتقد بود که برادرش ممکن بود در شرایط دیگری نگاهی مهربانانه‌تر نسبت به قاتلش داشته باشد.

هدف از ساخت این آواتار، به گفته استیسی، نشان دادن انسانیت برادرش و اثر عمیق این تراژدی بر خانواده بود. برای ساخت این آواتار، استیسی با همسرش و یکی از دوستانشان که در حوزه فناوری فعال است همکاری کرد.

استفاده از هوش مصنوعی در این پرونده، به‌عنوان رویکردی نوین و احساسی در سیستم قضایی، توجه‌ها را به خود جلب کرده است. اگرچه در گذشته برخی دادگاه‌ها به‌دلیل مشکلات مرتبط با جعل پرونده‌ها، نسبت به استفاده از فناوری هوش مصنوعی محتاط بودند، این‌بار با یک رویکرد متفاوت روبه‌رو شدند.

هری سوردن، استاد حقوق در دانشگاه کلرادو، درباره خطرات این نوع شبیه‌سازی‌ها هشدار داده و گفته است که چنین محتوای دیجیتالی ممکن است به‌شدت احساسات مخاطب را تحت تأثیر قرار دهد و اثرات خطرناکی به‌همراه داشته باشد. او تأکید کرده که این ابزارها هرچند واقعی به نظر می‌رسند، اما در حقیقت بازسازی‌هایی از واقعیت هستند و باید به‌عنوان یک شبیه‌سازی در نظر گرفته شوند.

اگرچه امیدواریم هیچ‌کس در موقعیت مشابهی قرار نگیرد، این پرونده نشان داد که فناوری هوش مصنوعی می‌تواند در جنبه‌های مختلف زندگی انسان‌ها، حتی در مسائل قضایی، نقشی غیرمنتظره و عمیق ایفا کند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *