Chris Pelkey vdiq në një të shtënë me armë në rrugë në Arizona tre vjet më parë, shkruan BBC.
Por me ndihmën e inteligjencës artificiale, ai u rikthye në fillim të këtij muaji në dënimin e vrasësit të tij për të dhënë vetë deklaratën e viktimës, transmeton Telegrafi.
Anëtarët e familjes thanë se përdorën teknologjinë në lulëzim për ta lejuar Pelkey të përdorte fjalët e tij, për të folur për incidentin që i mori jetën.
Ndërsa disa ekspertë argumentojnë se përdorimi unik i AI-së është vetëm një hap tjetër drejt së ardhmes, të tjerë thonë se mund të bëhet një shpat i rrëshqitshëm për përdorimin e teknologjisë në çështjet ligjore.
Familja e tij përdori regjistrime zëri, video dhe fotografi të Pelkey, i cili ishte 37 vjeç kur u vra, për ta rikrijuar atë në një video duke përdorur AI-në, tha motra e tij Stacey Wales për BBC-në.
Wales tha se i shkroi fjalët që versioni i AI-së lexoi në gjykatë bazuar në sa falës e dinte se ishte vëllai i saj.
“Për Gabriel Horcasitas, burrin që më qëlloi, është për të ardhur keq që u takuam atë ditë në ato rrethana. Në një jetë tjetër, ndoshta mund të kishim qenë miq”, tha versioni i AU-së i Pelkey në gjykatë.
“Unë besoj në falje dhe në një Zot që fal. Gjithmonë kam besuar dhe ende besoj”, vazhdon versioni i inteligjencës artificiale i Pelkey - i veshur me një kapelë gri bejsbolli.
Teknologjia u përdor në dënimin e vrasësit të tij – Horcasitas tashmë ishte shpallur fajtor nga një juri – rreth katër vjet pasi Horcasitas qëlloi Pelkey pranë një semafori në Arizona.
Gjyqtari i Arizonës që mbikëqyri çështjen, Todd Lang, dukej se e vlerësoi përdorimin e inteligjencës artificiale në seancën dëgjimore. Ai e dënoi Horcasitas me 10 vjet e gjysmë burg për akuzat e vrasjes së paqëllimshme.
“E adhurova atë inteligjencë artificiale, faleminderit për këtë. Sado i zemëruar që je, aq e zemëruar me të drejtë është familja, dëgjova faljen. Mendoj se kjo ishte e vërtetë “, tha gjyqtari Lang.
Paul Grimm, një gjyqtar federal në pension dhe profesor i Shkollës së Drejtësisë Duke, i tha BBC-së se nuk u habit kur pa inteligjencën artificiale të përdorur në dënimin e Horcasitas.
Gjykatat e Arizonës, theksoi ai, tashmë kanë filluar ta përdorin inteligjencën artificiale në mënyra të tjera. Kur Gjykata Supreme e shtetit lëshon një vendim, për shembull, ajo ka një sistem të inteligjencës artificiale që i bën këto vendime të tretshme për njerëzit.
Dhe Grimm tha se për shkak se u përdor pa praninë e një jurie, vetëm që një gjyqtar të vendoste dënimin, teknologjia u lejua.
“Ne do ta mbështetemi [inteligjencën artificiale] rast pas rasti, por teknologjia është e papërmbajtshme”, tha ai.
Por disa ekspertë si Derek Leben, një profesor i etikës së biznesit në Universitetin Carnegie Mellon, janë të shqetësuar për përdorimin e inteligjencës artificiale dhe precedentin që vendos ky rast.
Ndërsa Leben nuk e vë në dyshim qëllimin ose veprimet e kësaj familjeje, ai shqetësohet se jo të gjitha përdorimet e inteligjencës artificiale do të jenë në përputhje me dëshirat e viktimës.
“Nëse kemi njerëz të tjerë që e bëjnë këtë në të ardhmen, a do të marrim gjithmonë besnikëri ndaj asaj që personi, viktima në këtë rast, do të kishte dashur”, pyeti Leben.