Anulan en EU la orden de una corte estatal por posible uso de AI que inventó casos como argumentos | IT Masters Mag

INTELIGENCIA ARTIFICIAL

Anulan en EU la orden de una corte estatal por posible uso de AI que inventó casos como argumentos



Dirección copiada

Es la la primera ocasión en que la Corte de Apelaciones de Georgia confronta los problemas que pueden derivar de la aparente adopción de GenAI por parte de un abogado.

Publicado el 8 jul 2025



Ai,Law,And,Ethics,And,Legal,Concepts,Artificial,Intelligence,Law
AI law and ethics and legal concepts artificial intelligence law and online technology of legal regulations Controlling artificial intelligence technology is a risk. Judicial gavel and law icon

El Tribunal de Apelaciones de Georgia (Estados Unidos) anuló una orden de una corte estatal de primera instancia porque se basaba en casos judiciales inexistentes, presumiblemente generados por un modelo de inteligencia artificial (AI, por sus siglas en inglés).

El asunto se refiere al intento de una mujer de impugnar una orden de divorcio otorgada a su esposo en julio de 2022. La decisión de un tribunal inferior incluyó citas inventadas por lo que ella apeló. La Corte de Apelaciones determinó que la falsedad de los casos era suficiente para anular la orden del juzgado de primera instancia.

Dos de los casos citados, argumentó el tribunal en su resolución, parecen ser ficticios, posiblemente ‘alucinaciones’ creadas por inteligencia artificial generativa [GenAI]”.

El documento aclara que una alucinación es un fenómeno en el que un modelo grande de lenguaje (LLM, por sus siglas en inglés) percibe patrones u objetos inexistentes o imperceptibles para los observadores humanos, creando resultados absurdos o totalmente inexactos.

“Nos preocupa la mención de casos falsos en la orden del tribunal de primera instancia”, declaró en su decisión que ordena al tribunal inferior revisar la petición de la esposa.

Como tribunal de revisión, agregó, “no realizamos ninguna constatación de hecho sobre cómo se produjo esta irregularidad, observando únicamente que la orden supuestamente fue preparada por la abogada del esposo, Diana Lynch”.

Multan a la abogada

Los jueces de apelación indicaron que Lynch repitió las citas falsas de la orden del tribunal de primera instancia ante el tribunal de apelaciones y las amplió, incluso después de que la esposa hubiera impugnado los casos ficticios en la orden del tribunal de primera instancia.

En total, el Tribunal de Apelaciones declaró que los escritos de Lynch contenían 11 citas de casos falsos de un total de 15, “que son alucinadas o no tienen nada que ver con las proposiciones para las que se citan”.

Una de las menciones respaldaba una solicitud frívola de honorarios de abogado. Por lo que dicha corte impuso a Lynch una multa de $2,500 dólares.

No es el primer caso

Aunque el Tribunal de Apelaciones calificó el caso como la primera ocasión en que confronta los problemas que pueden derivar de la aparente adopción de GenAI por parte de un abogado, señaló que otros tribunales han comentado al respecto.

En una opinión de 2023, recordó, un tribunal federal de distrito señaló que “no hay nada intrínsecamente inapropiado en el uso de una herramienta confiable de inteligencia artificial para asistencia. Sin embargo, las normas vigentes imponen a los abogados una función de control para garantizar la exactitud de sus presentaciones”.

La orden de apelación cita un informe de la Corte Suprema de Estados Unidos como advertencia, señalando:

En su Informe de Fin de Año de 2023 sobre el Poder Judicial Federal, el presidente del Tribunal Supremo, John Roberts, advirtió que “cualquier uso de la AI requiere cautela y humildad”.

Roberts señaló específicamente que las aplicaciones de AI de uso común pueden ser propensas a “alucinaciones”, lo que provocó que los abogados que utilizaban esos programas presentaran escritos con citas de casos inexistentes.


Canales

Artículos relacionados

Artículo 1 de 5