در یکی از موارد بیسابقه قضایی، خانوادهای از هوش مصنوعی برای ساخت آواتار یک قربانی و ارسال پیام احساسیاش در دادگاه استفاده کردند.
در یک اتفاق منحصر بهفرد، هوش مصنوعی نقشی برجسته در یک جلسه دادگاه ایفا کرد و به خانواده یک قربانی اجازه داد تا پیام احساسی او را از زبان آواتار مجازیاش منتقل کنند.
این حادثه در آریزونا رخ داد، جایی که خانواده مردی به نام کریستوفر پلکی که در یک درگیری خیابانی در سال ۲۰۲۱ جان خود را از دست داده بود، تصمیم گرفتند از فناوری هوش مصنوعی برای بازسازی دیجیتال او استفاده کنند. در پی این تصمیم، یک نسخه شبیهسازیشده از کریستوفر بهصورت آواتار در جلسه صدور حکم حضور یافت و مستقیماً با فردی که به قتل او متهم شده بود، صحبت کرد.
آواتار کریستوفر با سویشرت سبز رنگ و ریش کامل، در برابر پسزمینهای سفید ظاهر شد و در پیامش بهوضوح اشاره کرد که او صرفاً یک نسخه شبیهسازیشده است. گرچه هماهنگی بین صدا و حرکات صورت آواتار کمی به هم ریخته بود، اما پیام احساسی و تأثیرگذار او توانست در دل حاضران اثر بگذارد. کریستوفر با لحن تلخ و تأملبرانگیزی گفت که شاید در شرایطی دیگر، او و قاتلش میتوانستند دوستان خوبی برای یکدیگر باشند.
کریستوفر پلکی، که ۳۷ سال داشت و از کهنهسربازان ارتش آمریکا بود، در آن درگیری کشته شد. خانوادهاش برای گرامیداشت یاد او و بیان رنج خود، تصمیم گرفتند از هوش مصنوعی برای ساخت آواتار و ارسال پیام او بهرهگیرند.
این ویدئو بهعنوان مدرک قانونی در نظر گرفته نشد، اما دادگاه اجازه داد که در مرحله صدور حکم پخش شود. در نهایت، گابریل پل اورکاسیتاس که بهجرم قتل غیرعمد و تهدید جان دیگران محکوم شده بود، به ده سال و نیم زندان محکوم شد.
استیسی ویلز، خواهر کریستوفر، که متن ویدئو را نوشته بود، گفت که بیان احساساتش در این موقعیت بسیار دشوار بوده است. او معتقد بود که برادرش ممکن بود در شرایط دیگری نگاهی مهربانانهتر نسبت به قاتلش داشته باشد.
هدف از ساخت این آواتار، به گفته استیسی، نشان دادن انسانیت برادرش و اثر عمیق این تراژدی بر خانواده بود. برای ساخت این آواتار، استیسی با همسرش و یکی از دوستانشان که در حوزه فناوری فعال است همکاری کرد.
استفاده از هوش مصنوعی در این پرونده، بهعنوان رویکردی نوین و احساسی در سیستم قضایی، توجهها را به خود جلب کرده است. اگرچه در گذشته برخی دادگاهها بهدلیل مشکلات مرتبط با جعل پروندهها، نسبت به استفاده از فناوری هوش مصنوعی محتاط بودند، اینبار با یک رویکرد متفاوت روبهرو شدند.
هری سوردن، استاد حقوق در دانشگاه کلرادو، درباره خطرات این نوع شبیهسازیها هشدار داده و گفته است که چنین محتوای دیجیتالی ممکن است بهشدت احساسات مخاطب را تحت تأثیر قرار دهد و اثرات خطرناکی بههمراه داشته باشد. او تأکید کرده که این ابزارها هرچند واقعی به نظر میرسند، اما در حقیقت بازسازیهایی از واقعیت هستند و باید بهعنوان یک شبیهسازی در نظر گرفته شوند.
اگرچه امیدواریم هیچکس در موقعیت مشابهی قرار نگیرد، این پرونده نشان داد که فناوری هوش مصنوعی میتواند در جنبههای مختلف زندگی انسانها، حتی در مسائل قضایی، نقشی غیرمنتظره و عمیق ایفا کند.