Em um momento marcante para o sistema de justiça americano, a família de Christopher Pelkey usou a inteligência synthetic para permitir que ele “falasse” postumamente com a sentença do homem condenado por matá -lo durante um incidente de raiva na estrada de 2021 no Arizona.Pelkey, um veterano do Exército dos EUA de 37 anos que havia cumprido três turnês no Iraque e no Afeganistão, foi morto a tiros por Gabriel Paul Horcasitas, enquanto ambos foram parados em um sinal vermelho em Chandler, Arizona. De acordo com a CBS Information, Pelkey estava caminhando em direção ao carro de Horcasitas quando foi baleado no peito. Na semana passada, Horcasitas foi condenado a ten,5 anos de prisão por homicídio culposo.Durante a sentença, um vídeo gerado por AI de quase quatro minutos foi realizado no tribunal, mostrando uma recriação digital de Pelkey entregando uma declaração de impacto da vítima. O Avatar, criado usando uma única fotografia e áudio de um vídeo do YouTube em que Pelkey discutiu o TEPT, cumprimentou o tribunal com um aviso: “Sou uma versão de Chris Pelkey recriada através da IA que usa minha foto e meu perfil de voz”.“É uma pena nos encontrarmos naquele dia nessas circunstâncias. Em outra vida, provavelmente poderíamos ter sido amigos”, disse a AI Pelkey, de acordo com o New York Occasions. “Eu acredito em perdão e em Deus, que perdoa. Eu sempre tenho e ainda faço”, acrescentou o avatar da IA.O vídeo, escrito pela irmã de Pelkey, Stacey Wales, teve como objetivo refletir sua natureza perdoadora. Ela foi citada pela BBC dizendo: “Abordamos isso com ética e ethical, porque essa é uma ferramenta poderosa … como um martelo, ela pode construir ou destruir. Usamos para construir”.A renderização da IA atingiu um acorde com o juiz Todd Lang, do Tribunal Superior do Condado de Maricopa. “Adorei a IA”, disse ele, conforme citado pela BBC Information. “E por mais zangado que você esteja, e justificadamente zangado como a família, ouvi o perdão. E sei que o Sr. Horcasitas apreciou isso, mas eu também”, acrescentou Lang.No entanto, o uso de IA em um processo judicial tão pessoal e emocional levantou questões entre especialistas jurídicos. Gary Marchant, professor de direito e membro do comitê de IA do Arizona, foi citado pela CBS Information dizendo que há preocupação de que “evidências de Deepfake” possam influenciar juízes e júris. “É fácil de criar, e qualquer um pode fazê -lo em um telefone”, alertou.Apesar dessas preocupações, o vídeo da IA foi permitido porque a lei do Arizona permite declarações de impacto da vítima em qualquer formato digital, explicou a advogada de direitos das vítimas Jessica Gattuso, conforme a agência de notícias AP. O vídeo também foi apoiado por quase 50 cartas enviadas por familiares e amigos que ecoaram sua mensagem.O advogado de Horcasitas, Jason Lamm, apresentou um recurso, sugerindo que o juiz pode ter confiado indevidamente no vídeo da IA na sentença. “No entanto, essa pode ser uma situação em que eles levaram muito longe”, Lamm foi citado pelo New York Occasions.Embora o avatar da IA tenha sido usado apenas na fase de sentença e não durante os ensaios, dos quais houve dois devido a um erro de divulgação no primeiro, o incidente levou um debate mais amplo sobre o lugar da IA no tribunal. Cynthia Godsoe, professora da faculdade de direito do Brooklyn, foi citada pelo The Occasions dizendo que essa tecnologia pode “inflamar emoções mais do que imagens”, alertando os tribunais para pisar com cuidado.Mas outros veem potencial. Como observou Maura R. Grossman, da Força -Tarefa de AI da American Bar Affiliation, “não há júri que possa ser indevidamente influenciado” e, portanto, ela não achou “eticamente ou legalmente preocupante”.