La inteligencia artificial se está abriendo camino en todos los aspectos de la vida, incluido el sistema legal estadounidense. Pero a medida que la tecnología se vuelve más ubicua, el problema de las mentiras o tonterías generadas por la IA (también conocidas como “alucinaciones”) persiste.
Estas alucinaciones de IA están en el centro de las afirmaciones del ex miembro de Fugees, Prakazrel “Pras” Michel, quien acusó a un modelo de IA creado por EyeLevel de torpedear su caso de fraude multimillonario, una afirmación que el cofundador y director de operaciones de EyeLevel, Neil Katz, llama falso.
En abril, Michel fue declarado culpable de 10 cargos en su juicio por conspiración, incluida la manipulación de testigos, la falsificación de documentos y el desempeño de un agente extranjero no registrado. Michel enfrenta hasta 20 años de prisión después de su condena como agente de China, ya que los fiscales dijeron que canalizó su dinero para tratar de influir en los políticos estadounidenses.
“Los abogados de Pras Michel nos contrataron para hacer algo único, algo que no se había hecho antes”, dijo Katz. Descifrar en una entrevista.
Según un informe del Associated Pressdurante los argumentos finales del abogado de Michel en ese momento, el abogado defensor David Kenner citó erróneamente una letra de la canción “I’ll Be Missing You” de Sean “Diddy” Combs, atribuyendo incorrectamente la canción a los Fugees.
Como explicó Katz, a EyeLevel se le encomendó la tarea de construir una IA entrenada en transcripciones judiciales que permitiera a los abogados hacer preguntas complejas en lenguaje natural sobre lo ocurrido durante el juicio. Dijo que no extrajo ninguna otra información de Internet, por ejemplo.
Los procedimientos judiciales generan notoriamente toneladas de papeleo. El juicio penal del fundador de FTX, Sam Bankman-Fried, que aún está en curso, ya ha generado cientos de documentos. Por otra parte, la quiebra del fracasado intercambio de criptomonedas tiene más de 3.300 documentos, algunos de ellos de decenas de páginas.
“Esto supone un cambio absoluto en los litigios complejos”, escribió Kenner en una entrada del blog EyeLevel. “El sistema convirtió horas o días de trabajo legal en segundos. Esta es una mirada al futuro de cómo se llevarán los casos.”
El lunes, el nuevo abogado defensor de Michel, Peter Zeidenberg, presentó una moción, publicada en línea por Reuters—para un nuevo juicio en el Tribunal de Distrito de Estados Unidos para el Distrito de Columbia.
“Kenner utilizó un programa experimental de inteligencia artificial para escribir su argumento final, que presentó argumentos frívolos, combinó los esquemas y no destacó las debilidades clave en el caso del gobierno”, escribió Zeidenberg. Añadió que Michael busca un nuevo juicio “porque numerosos errores, muchos de ellos precipitados por su ineficaz abogado litigante, socavan la confianza en el veredicto”.
Katz refutó las afirmaciones.
“No ocurrió como dicen; “Este equipo no tiene conocimiento alguno de inteligencia artificial ni de nuestro producto en particular”, dijo Katz. Descifrar. “Su afirmación está plagada de desinformación. Ojalá hubieran utilizado nuestro software de IA; tal vez hubieran podido escribir la verdad”.
Los abogados de Michel aún no han respondido a Descifrar petición de comentario. Katz también refutó las afirmaciones de que Kenner tiene un interés financiero en EyeLevel, diciendo que la empresa fue contratada para ayudar al equipo legal de Michel.
“La acusación contenida en su presentación de que David Kenner y sus asociados tienen algún tipo de interés financiero secreto en nuestras empresas es categóricamente falsa”, dijo Katz. Descifrar. “Kenner escribió una reseña muy positiva sobre el rendimiento de nuestro software porque consideró que ese era el caso. No le pagaron por eso; no le dieron acciones”.
Lanzado en 2019, EyeLevel, con sede en Berkley, desarrolla modelos de IA generativa para consumidores (EyeLevel for CX) y profesionales del derecho (EyeLevel for Law). Como explicó Katz, EyeLevel fue uno de los primeros desarrolladores en trabajar con el creador de ChatGPT, OpenAI, y dijo que la compañía tiene como objetivo proporcionar “IA veraz”, o herramientas sólidas y libres de alucinaciones para personas y profesionales legales que tal vez no tengan acceso a fondos para pagar por un equipo grande.
Normalmente, los modelos de IA generativa se entrenan con grandes conjuntos de datos recopilados de diversas fuentes, incluida Internet. Lo que hace diferente a EyeLevel, dijo Katz, es que este modelo de IA se entrena únicamente en documentos judiciales.
“El [AI] “Se entrenó exclusivamente en las transcripciones, exclusivamente en los hechos presentados en el tribunal, por ambas partes y también en lo dicho por el juez”, dijo Katz. “Y entonces, cuando le haces preguntas a esta IA, solo proporciona respuestas objetivas y libres de alucinaciones basadas en lo que ha sucedido”.
A pesar de cómo se entrena un modelo de IA, los expertos advierten sobre la costumbre del programa de mentir o alucinar. En abril, ChatGPT acusó falsamente al abogado defensor penal estadounidense Jonathan Turley de cometer agresión sexual. El chatbot llegó incluso a proporcionar un enlace falso a un El Correo de Washington artículo para probar su afirmación.
OpenAI está invirtiendo mucho en combatir las alucinaciones de IA, e incluso está incorporando equipos rojos de terceros para probar su conjunto de herramientas de IA.
“Cuando los usuarios se registran para utilizar la herramienta, nos esforzamos por ser lo más transparentes posible para que ChatGPT no siempre sea preciso”, dice OpenAI en su sitio web. “Sin embargo, reconocemos que queda mucho más trabajo por hacer para reducir aún más la probabilidad de alucinaciones y educar al público sobre las limitaciones actuales de estas herramientas de IA”.
Editado por Stacy Elliott y Andrew Hayward.