El insólito testimonio de un fantasma digital: la IA revoluciona la justicia (¿o no?)
Un caso judicial en Arizona, Estados Unidos, ha desatado un debate fascinante (y algo escalofriante) sobre el uso de la inteligencia artificial en los tribunales. La presentación de un video generado por IA que simulaba el testimonio de la víctima, Christopher Pelkey, resultó en la condena de Gabriel Horcasitas, su asesino. Pero, ¿estamos ante un avance revolucionario o un peligroso precedente?
Un «testimonio» desde el más allá digital
El video, además de incluir un testimonio generado por IA, incorporó «material auténtico, incluyendo grabaciones caseras y una fotografía intervenida con un filtro de envejecimiento que proyectaba cómo habría lucido Pelkey en su vejez». La frase más impactante, según quienes lo vieron, fue: «Esto es lo más cercano a cómo me vería si hubiera tenido la oportunidad de envejecer. Recuerden que llegar a viejo es un privilegio que no todos reciben. Abrácenlo, y dejen de preocuparse por las arrugas».
Según Stacey Wales, familiar de Pelkey, «quienes conocieron a Christopher coincidieron en que la representación digital lograba capturar fielmente su espíritu y forma de pensar«. Una declaración que, si bien conmovedora, abre interrogantes sobre la subjetividad y la manipulación en este tipo de representaciones.
¿Influencia indebida? La defensa levanta la voz
Tras la presentación del video, Gabriel Horcasitas fue condenado a 10 años y medio de prisión. El juez Todd Lang admitió que, tras ver la grabación, «podía imaginar que Pelkey realmente habría sentido y expresado esas palabras». Jason Lamm, abogado defensor de Horcasitas, argumentó que la sentencia pudo haber sido «influenciada de forma indebida por la declaración generada con inteligencia artificial» y anunció una apelación. La polémica está servida.
Un comité para analizar los riesgos de la IA en la justicia
Ann Timmer, ministra presidenta de la Corte Suprema del estado, advirtió que, si bien la IA puede «mejorar la eficiencia del sistema judicial», también implica riesgos. “Si se emplea de manera inapropiada, puede entorpecer o incluso alterar el curso de la justicia”, declaró, anunciando la creación de un comité para analizar los usos de la IA y emitir recomendaciones al respecto. «En última instancia, los usuarios, incluidos los tribunales, son responsables de la veracidad del contenido generado», puntualizó.
Este no es el primer caso de «resurrección» digital de víctimas. En México, la organización Propuesta Cívica ya había utilizado esta tecnología para dar voz a periodistas asesinados. El debate, sin duda, recién comienza.