• 30/10/2025 19:10

Alucinaciones de abogados por la IA entre la presión y el descuido

Tiempo estimado de lectura: 3 minutos, 4 segundos

Diego Fierro Rodríguez

Inteligencia Artificial

En un mundo en el que la inteligencia artificial (en adelante, IA) se ha convertido en una herramienta indispensable para muchos profesionales, el ámbito jurídico no es la excepción. Sin embargo, el uso apresurado y sin verificación de herramientas como ChatGPT ha llevado a situaciones embarazosas y costosas para abogados en todo el mundo. Un caso reciente en California ilustra perfectamente este dilema: un abogado fue multado con 10,000 $ por presentar un apelación llena de citas falsas generadas por IA.

Esta multa histórica no solo resalta las «alucinaciones» de los modelos de IA —es decir, la generación de información falsa presentada con confianza—, sino también la presión por adoptar tecnologías emergentes y el descuido en su supervisión. La información se ha llegado a conocer por medio del artículo «California issues historic fine over lawyer’s ChatGPT fabrications», de Khari Johnson, publicado el pasado día 22 de septiembre de 2025 en https://calmatters.org/economy/technology/2025/09/chatgpt-lawyer-fine-ai-regulation/.

El día 22 de septiembre de 2025, el Tribunal de Apelación del 2º Distrito de California emitió una opinión contundente contra el abogado Amir Mostafavi, del área de Los Ángeles. Mostafavi presentó una apelación en julio de 2023 que incluía 23 citas de casos, de las cuales 21 resultaron ser completamente inventadas por ChatGPT. El tribunal lo multó por presentar una apelación frívola, violar las reglas judiciales, citar casos falsos y desperdiciar recursos públicos.

Mostafavi admitió que escribió el borrador inicial y usó ChatGPT para «mejorarlo», sin darse cuenta de que la herramienta agregaría citas ficticias. «No sabía que inventaría cosas», declaró a CalMatters. A pesar del error, defiende el uso de la IA, comparándola con la transición de bibliotecas físicas a bases de datos en línea. Sin embargo, advierte: «Mientras tanto, vamos a tener algunas víctimas, algunos daños, algunos destrozos. Espero que este ejemplo ayude a otros a no caer en el agujero. Estoy pagando el precio.»

Esta no es una anomalía aislada. En mayo de 2025, un juez federal en California ordenó a dos firmas de abogados pagar 31,100 $ por usar investigación falsa generada por IA, describiendo el incidente como un «atajo fácil» que requiere un fuerte disuasivo. Otros casos incluyen la descalificación de tres abogados de Butler Snow en Alabama en julio de 2025 por citas inventadas, y una sanción de 6,000 $ a un abogado por citas falsas en un caso de beneficios laborales en mayo del mismo año. Incluso en el caso de Mike Lindell, los abogados fueron multados miles de dólares en julio de 2025 por errores generados por IA.

Expertos como Damien Charlotin, profesor en una escuela de negocios en París que rastrea estos incidentes, predicen un aumento exponencial. De unos pocos casos al mes a principios de 2025, ahora ve varios al día. «Cuanto más difícil sea tu argumento legal, más tenderá el modelo a alucinar, porque intentará complacerte», explica, destacando el sesgo de confirmación.

Un análisis de mayo de 2024 del RegLab de Stanford revela que tres de cada cuatro abogados planean usar IA generativa, pero estas herramientas generan alucinaciones en una de cada tres consultas. Jenny Wondracek, quien lidera un proyecto de rastreo, identifica 52 casos en California y más de 600 a nivel nacional, y sospecha que la cifra subirá debido a la brecha entre innovación y educación. Encuentra estos errores con mayor frecuencia en abogados sobrecargados o en litigantes intervinientes en tribunales de familia. Alarmantemente, ha documentado tres jueces citando autoridades falsas en decisiones recientes.

Mark McKenna, codirector del Instituto de Tecnología, Derecho y Política de UCLA, elogia las multas como castigo por «abdicar de la responsabilidad». Andrew Selbst, profesor en UCLA, apunta a la presión: «Esto se nos está imponiendo a todos. Se impulsa en firmas y escuelas sin lidiar con las consecuencias».

Un informe científico clave, que voy a denominar consecuentemente el Informe Dantart, fue publicado el 11 de septiembre de 2025 por Alex Dantart —CEO y cofundador de la legaltech Little John— para advertir que el mayor riesgo no son las alucinaciones de la IA, sino la «confianza ciega» de los juristas que la usan. El estudio, titulado «Inteligencia Artificial jurídica y el desafío de la veracidad: análisis de alucinaciones, optimización de RAG y principios para una integración responsable», sostiene que los modelos de lenguaje grandes (en adelante, LLM) priorizan la plausibilidad sobre la veracidad. «Inventar información no es un error, sino una consecuencia natural de su diseño», recuerda Dantart.

El informe destaca que estrategias como RAG (Retrieval-Augmented Generation), que conecta la IA con bases de datos, aún fallan con errores del 17% al 33% en soluciones comerciales. Dantart propone un cambio a una IA «consultiva» —como un «archivero experto» que cita fuentes verificadas— en lugar de generativa, que es útil para ideas pero no para precisión jurídica. Impulsa la supervisión humana: la IA refuerza el rol del abogado, exigiendo escepticismo y responsabilidad.

Entre la presión por no quedarse atrás y el descuido en la verificación, las alucinaciones de la IA están causando «destrozos» en el sistema judicial. Autoridades en California, como el Consejo Judicial y la Asociación de Abogados, están implementando regulaciones, requiriendo políticas de uso para diciembre de 2025. Otros estados sugieren suspensiones temporales o cursos éticos para infractores.

La lección es clara: la IA es una herramienta poderosa, pero sin precaución, puede convertirse en un arma de doble filo. Como sugiere el Informe Dantart, el foco debe estar en la fiabilidad y la transparencia para evitar que la innovación socave la integridad jurídica.

 

La entrada Alucinaciones de abogados por la IA entre la presión y el descuido se publicó primero en Lawyerpress NEWS.


Artículo de Redacción publicado en https://www.lawyerpress.com/2025/10/07/alucinaciones-de-abogados-por-la-ia-entre-la-presion-y-el-descuido/