Un abogado utiliza ChatGPT para fabricar pruebas en un caso judicial

Un abogado confió en el uso de ChatGPT para respaldar su argumento en un caso legal en Nueva York. El abogado presentó una serie de decisiones judiciales falsas en su informe, creyendo erróneamente que eran auténticas. El juez calificó esta situación como sin precedentes y el abogado ahora enfrenta posibles sanciones y suspensión.

En los tiempos previos a la era digital, un experimentado magistrado de la Audiencia de Barcelona pronunció una de esas frases que los cronistas de los tribunales nunca olvidan. Durante un juicio, aconsejó a un acusado que buscara un abogado que lo defendiera de su propio abogado. Esta frase ha perdurado en el tiempo y en el naciente mundo de la inteligencia artificial (IA) aún conserva su relevancia, ya que todavía existen abogados que carecen de habilidades y conocimientos en esta área.

Un caso reciente registrado en los juzgados de Nueva York demuestra que la inteligencia artificial, incluso en sus primeras etapas de desarrollo, tiene la capacidad de imitar comportamientos tan humanos como las trampas. Este caso involucra a una demanda presentada por un ciudadano llamado Roberto Mata contra la aerolínea Avianca. Mata denunció haber sufrido una lesión en la rodilla cuando un carrito de servicio metálico lo golpeó durante un vuelo hacia el aeropuerto JFK de Nueva York. La compañía aérea solicitó al juez federal de Manhattan que desestimara el caso, pero el abogado del pasajero se opuso vehementemente a dicha petición.

El abogado Steven S. Schwartz, en su calidad de supuesto experto jurista, presentó un informe de diez páginas que estaba lleno de jurisprudencia. Incluyó una docena de decisiones judiciales «importantes» que respaldaban la validez de la denuncia y el efecto de suspensión automática sobre la posible prescripción. Entre estas resoluciones se mencionaban los casos de «Martínez contra Delta Air Lines», «Zicherman contra Korean Air Lines» y, especialmente relevante para su argumento, «Varghese contra China Southern Airlines».

Sin embargo, el juez calificó esta situación como una «circunstancia sin precedentes» cuando tanto los abogados de Avianca como el propio juez no pudieron encontrar ninguna de estas resoluciones ni las citas y referencias mencionadas en el documento. El misterio finalmente se resolvió cuando se descubrió que todas estas decisiones judiciales y referencias eran falsas, creadas por la famosa herramienta de IA conocida como ChatGPT.

Esta herramienta de IA ha sido responsable de varias travesuras, como manipular fotografías para obtener premios, componer canciones que parecen ser de estrellas musicales y redactar trabajos y discursos escolares. Y esto es solo el comienzo. El juez Castel destacó en su orden para solicitar una explicación al abogado que al menos seis de los casos presentados parecían ser decisiones judiciales falsas, con citas y referencias falsas y información interna falsa. Esta situación fue calificada como una «circunstancia sin precedentes».

El abogado Schwartz, del bufete Levidow, Levidow & Oberman, ahora enfrenta posibles sanciones y suspensión. En su defensa, solicitó clemencia y lamentó haber confiado en un chatbot. Afirmó que nunca antes lo había utilizado para investigaciones y que desconocía que su contenido pudiera ser falso. De hecho, en ocasiones le preguntó a la herramienta si los casos eran reales, y esta le respondió afirmativamente.

Schwartz se comprometió a no utilizar la IA para complementar sus investigaciones «sin una verificación absoluta de su autenticidad».

Etiquetas

Comparte este artículo:

Te puede interesar

Suscríbete a EasyLaw Magazine

Recibe cada martes la revista en tu email con las últimas novedades del sector legal

No te haremos spam