• 09/04/2026 05:27

El último recordatorio navarro sobre el uso forense de los algoritmos y la mala fe procesal

Tiempo estimado de lectura: 9 minutos, 24 segundos

Diego Fierro Rodríguez

Diego Fierro Rodríguez

Diego Fierro Rodríguez

I. El contexto de una advertencia

El Tribunal Superior de Justicia de Navarra ha emitido recientemente un auto que trasciende el ámbito estrictamente sancionador para convertirse en una reflexión meditada sobre los límites de la tecnología en el ejercicio de la abogacía. No es el primer caso en esta comunidad, lo cual ya resulta preocupante, y no tiene pinta de que vaya a ser el último. En marzo de 2026, la Sala de lo Social de este órgano jurisdiccional archivó mediante auto una pieza separada incoada contra una letrada que, en un recurso de octubre de 2025, había incorporado ocho citas jurisprudenciales completamente inexistentes. Lo que podría haberse resuelto como un mero incidente procesal se ha transformado en una oportunidad para que el Tribunal exponga, con la autoridad que le confiere su posición en la estructura judicial, una advertencia que resuena con especial intensidad en estos tiempos de transformación digital acelerada.

El auto no sanciona finalmente a la profesional, pero su contenido merece una atención que va más allá de la mera noticia procesal. Los magistrados han sabido equilibrar la necesidad de preservar la integridad del proceso con la comprensión de los errores humanos, sin por ello dejar de señalar con claridad meridiana que el uso descuidado de la inteligencia artificial constituye una vulneración de la buena fe procesal susceptible de sanción económica. Esta dualidad entre la clemencia particular y la severidad del principio general constituye el núcleo de un debate que afecta a toda la comunidad jurídica.

II. Los hechos y su dimensión sistemática

La letrada presentó un recurso que contenía referencias a sentencias del Tribunal Constitucional, del Tribunal Supremo, del propio Tribunal Superior de Navarra y del Tribunal Superior de Justicia de Madrid. Ninguna de estas ocho citas correspondía a resoluciones reales. El mecanismo de detección, que el Tribunal no detalla pero que presumiblemente operó mediante la verificación rutinaria por parte de los servicios jurídicos o de los propios magistrados, activó un procedimiento que ilustra la sensibilidad actual de los órganos judiciales respecto a la autenticidad de los materiales aportados.

El Tribunal Superior abrió pieza separada el 20 de febrero de 2026, considerando que tal conducta no solo vulneraba la buena fe procesal, sino que manifestaba una falta de respeto a los magistrados, un desprecio de la función jurisdiccional y una perturbación del trabajo del Tribunal. Esta caracterización tripartita resulta especialmente significativa porque trasciende la mera infracción formal para adentrarse en la esfera de la dignidad institucional. No se trata únicamente de que las citas fueran falsas; es que su presentación indiscriminada obliga al Tribunal a despilfarrar recursos en verificar la inverosimilitud, distrayendo atención de los asuntos sustanciales que deben resolver.

La respuesta de la abogada fue inmediata y, desde la perspectiva procesal, inteligente. En un primer escrito, presentado cinco días después de la apertura de la pieza separada, reconoció el error sin atribuirlo a mala intención, lo atribuyó a la falta de revisión de un borrador preparado con asistencia tecnológica, retiró íntegramente las citas afectadas y formuló disculpas personales y formales. Posteriormente, el 3 de marzo, presentó un segundo escrito reiterando las excusas y solicitando el archivo, argumentando que la mera apertura del expediente sancionador ya había cumplido una función pedagógica. El Tribunal accedió a esta petición mediante auto, pero no sin antes dejar constancia expresa de que el uso fraudulento de la inteligencia artificial es sancionable por mala fe procesal, con multas que, conforme a la Ley de Enjuiciamiento Civil, oscilan entre 180 y 6.000 euros.

III. La naturaleza de la mala fe procesal en la era algorítmica

La mala fe procesal, configurada en el artículo 13 de la Ley de Enjuiciamiento Civil como la contravención dolosa o temeraria de las obligaciones procesales, adquiere en este contexto una dimensión particular que merece examen detenido. Tradicionalmente, la jurisprudencia ha distinguido entre el dolo, caracterizado por la intención de perjudicar o de obtener ventaja indebida, y la mera negligencia grave o temeridad. Sin embargo, la intervención de sistemas de inteligencia artificial generativa introduce una tercera categoría que resiste la clasificación binaria clásica: la confianza excesiva en herramientas tecnológicas que simulan racionalidad jurídica sin poseerla.

La Sala de lo Social del Tribunal Superior de Navarra ha optado por una interpretación que, sin ignorar esta complejidad, mantiene la responsabilidad del profesional como eje central. Lo anterior me sugiere que los magistrados operan con una presunción fundamental: el abogado no puede delegar su función de verificación en un algoritmo, del mismo modo que no puede delegarla en un estudiante en prácticas o en un texto encontrado al azar en internet. La tecnología, por sofisticada que sea, no absorbe la responsabilidad profesional; antes bien, la magnifica porque aumenta exponencialmente el alcance del error cuando este se produce.

Debe tenerse en consideración que la inteligencia artificial generativa no inventa jurisprudencia por malicia propia, sino por diseño estadístico. Estos sistemas predicen la siguiente palabra más probable en una secuencia, no consultan bases de datos jurídicos oficiales. Cuando generan una cita, están proponiendo una combinación de elementos que resulta estadísticamente plausible: un número de sentencia que podría existir, un tribunal que efectivamente existe, una fecha dentro del rango razonable. El resultado es una falacia que luce verosímil, lo cual la hace más peligrosa que una invención manifiestamente absurda. El profesional que no verifica estas referencias incurre en una forma de temeridad que la jurisprudencia viene calificando como mala fe cuando produce efectos perturbadores en el proceso.

IV. El deber de verificación como núcleo de la responsabilidad

El Tribunal Superior de Justicia de Navarra enfatiza en su auto que la revisión y validación de documentos legales sigue siendo responsabilidad exclusiva de los abogados. Esta afirmación, que podría parecer obvia, adquiere relevancia constitucional en tanto que se vincula con el derecho fundamental a la tutela judicial efectiva. Si los operadores jurídicos incorporan al proceso informaciones inexactas generadas algorítmicamente, están comprometiendo no solo su propia reputación, sino la integridad del sistema de justicia en su conjunto.

La analogía con otros supuestos de responsabilidad profesional resulta ilustrativa. Cuando un médico utiliza un software de diagnóstico asistido por inteligencia artificial, la responsabilidad por el error diagnóstico sigue recayendo sobre el facultativo que debe verificar los resultados. Del mismo modo, cuando un arquitecto emplea programas de cálculo estructural, la responsabilidad por el colapso del edificio no se transfiere al algoritmo. La profesión jurídica no es diferente en este aspecto esencial: las herramientas son auxiliares, nunca sustitutivas del juicio profesional.

Entiendo que la dificultad radica en la naturaleza seductora de estos sistemas. Presentan sus resultados con una apariencia de autoridad que contrasta con la humildad epistémica que debería caracterizar al profesional del derecho. Una cita generada por inteligencia artificial no viene acompañada de una advertencia sobre su fiabilidad; luce exactamente igual que una cita real extraída de una base de datos oficial. Esta opacidad exige del abogado una actitud de vigilancia redoblada, una especie de escepticismo metodológico que debería ser inherente a la formación jurídica pero que la presión temporal y la complacencia tecnológica tienden a erosionar.

V. La función pedagógica del auto

El archivo de la causa mediante auto, lejos de constituir una mera indulgencia, responde a una lógica procesal sofisticada. El Tribunal valora la inmediatez de la rectificación, la ausencia de voluntariedad en el error y, sobre todo, el reconocimiento explícito de la falta. Esta última circunstancia resulta particularmente relevante porque contraría la tendencia defensiva habitual en los procedimientos disciplinarios, donde la negación sistemática de la responsabilidad suele agravar la sanción. En palabras del propio auto, la «inmediata reacción de la letrada excusando el error cometido» fue la clave para que la Sala se inclinara por el archivo.

El auto establece un precedente conductual más que jurídico en sentido estricto. Los magistrados dejan sentado que la reacción inmediata y sincera ante el error detectado puede neutralizar la necesidad de sanción, pero no la existencia de la infracción. Es decir, la mala fe procesal se configura objetivamente con la presentación de citas inexistentes, independientemente de la intencionalidad subjetiva; lo que la rectificación oportuna permite es evitar la consecuencia sancionadora, no negar la antijuridicidad de la conducta.

Asumo que esta distinción resultará útil para la práctica forense. Muchos profesionales, ante el descubrimiento de un error de esta naturaleza, podrían verse tentados de justificarlo o minimizarlo. El auto navarro sugiere que el camino más seguro es el reconocimiento inmediato y la retractación sin reservas. La estrategia defensiva que prioriza la reputación a corto plazo sobre la corrección del error resulta contraproducente ante órganos jurisdiccionales que, como el Tribunal Superior de Navarra, valoran la integridad procesal por encima de la perfección aparente.

VI. Implicaciones deontológicas y éticas

El texto del auto utiliza una fórmula que merece subrayarse: advierte de las implicaciones legales, deontológicas y éticas del uso descuidado de las nuevas tecnologías. Esta triple referencia no es casual. La dimensión legal se circunscribe a la mala fe procesal y sus consecuencias sancionadoras. La dimensión deontológica remite al Código Deontológico de la Abogacía Española, que en su artículo 4 establece el deber de diligencia y en su artículo 11 el deber de veracidad. La dimensión ética, más amplia, alude a la responsabilidad social de la profesión jurídica en la construcción de un sistema de justicia que merezca confianza pública.

Hay que reseñar que estas tres esferas no siempre coinciden. Es posible que una conducta no sea sancionable legalmente pero resulte éticamente reprobable, o que cumpla los estándares deontológicos mientras genera problemas jurídicos. En el caso examinado, la concurrencia de las tres dimensiones es evidente: la presentación de citas falsas vulnera la buena fe procesal (legal), contradice el deber de veracidad (deontológico) y socava la confianza en la institución judicial (ético). El auto, al abordarlas conjuntamente, ofrece una visión integral de la problemática.

Ello me obliga a deducir que el Tribunal Superior de Navarra está trazando una línea que va más allá del caso concreto. La referencia explícita a las nuevas tecnologías sitúa el precedente en el contexto de una transformación estructural del ejercicio profesional. No se trata de un incidente aislado sino de una manifestación temprana de un fenómeno que probablemente se reproducirá con frecuencia creciente. El auto funciona como señal de tráfico en una intersección donde el tránsito tecnológico se intensifica: se puede circular, pero con precauciones específicas que la experiencia aún no ha naturalizado en la práctica profesional.

VII. La perturbación del trabajo judicial

Un aspecto particularmente interesante de la fundamentación del Tribunal es la caracterización del perjuicio causado. Los magistrados no se limitan a señalar la inexactitud material de las citas, sino que destacan la perturbación del trabajo del Tribunal. Esta categoría, que remite a conceptos procesales clásicos como el abuso del derecho o la litigiosidad temeraria, adquiere contenido nuevo cuando se aplica a los costes de verificación de información algorítmica.

La administración de justicia opera con recursos limitados de tiempo y personal. Cuando un órgano judicial debe detener su actividad sustancial para verificar si una sentencia citada existe realmente, está incurriendo en un coste de oportunidad que se traduce en retraso para otros asuntos. Este efecto multiplicador del error justifica la severidad con que el Tribunal califica inicialmente la conducta. La mala fe procesal, en esta perspectiva, no solo perjudica a la parte contraria o al propio proceso en que se produce, sino al sistema en su conjunto.

Considero que esta caracterización resulta especialmente pertinente en la era de la digitalización judicial. Los tribunales están implementando sistemas de gestión electrónica, bases de datos de resoluciones y herramientas de búsqueda avanzada precisamente para aumentar la eficiencia. La introducción de información falsa generada por algoritmos constituye una forma de contaminación digital que contrarresta estos esfuerzos de modernización. Es, en cierto sentido, un sabotaje a la racionalización del funcionamiento judicial.

VIII. Lecciones para la práctica forense

El auto del Tribunal Superior de Justicia de Navarra ofrece enseñanzas prácticas que trascienden el ámbito estrictamente sancionador. En primer lugar, establece que el uso de inteligencia artificial en la preparación de escritos no está prohibido ni es, per se, censurable. Lo que resulta inadmisible es la ausencia de verificación posterior. Esta distinción preserva el valor de las herramientas tecnológicas mientras delimita claramente sus límites.

En segundo lugar, el precedente sugiere un protocolo de actuación ante la detección de errores de este tipo: reconocimiento inmediato, retractación sin reservas, solicitud explícita de archivo y demostración de que el incidente ha servido para reforzar los mecanismos de control interno. La profesional afectada no solo pidió disculpas, sino que modificó su conducta procesal para evitar repeticiones. Esta actitud proactiva resulta más convincente que la mera excusa verbal.

En tercer lugar, el auto invita a reflexionar sobre la formación continua de los operadores jurídicos. La inteligencia artificial generativa representa una discontinuidad tecnológica que requiere competencias específicas que no se adquieren en la formación universitaria tradicional. Los colegios de abogados, las escuelas de práctica jurídica y los departamentos de formación de las firmas deben incorporar módulos específicos sobre el uso crítico de estas herramientas. No se trata de rechazar la tecnología, sino de domesticarla mediante una comprensión adecuada de sus mecanismos y limitaciones.

IX. Perspectivas de evolución

El caso analizado probablemente sea el primero de una serie que irá definiendo los contornos de la responsabilidad profesional en el uso de inteligencia artificial. Los tribunales superiores de justicia de otras comunidades autónomas, el Tribunal Supremo y, eventualmente, el Tribunal Constitucional, tendrán ocasión de pronunciarse sobre aspectos que en el auto navarro quedan abiertos. ¿Es suficiente la verificación manual o se exigirán estándares técnicos de validación automatizada? ¿Hasta qué punto la presión temporal puede atenuar la responsabilidad por errores de este tipo? ¿Deben los colegios profesionales establecer protocolos específicos de uso de inteligencia artificial?

Estas cuestiones no admiten respuestas definitivas en el estado actual del debate. Lo que sí resulta claro es que la jurisprudencia está construyendo una casuística que, con el tiempo, permitirá extraer principios generales. El auto del Tribunal Superior de Navarra contribuye a esta construcción con una aproximación equilibrada que combina la firmeza en la declaración de principios con la comprensión de las dificultades prácticas.

La inteligencia artificial no desaparecerá del entorno profesional; por el contrario, su presencia se intensificará. Lo que el auto examinado propone es una integración responsable, donde la tecnología sirva como auxiliar del juicio profesional sin sustituirlo. Esta posición media evita tanto el rechazo tecnofóbico, que privaría a la profesión de herramientas legítimamente útiles, como la adopción acrítica, que convertiría a los abogados en meros operadores de sistemas que no comprenden.

X. Reflexiones finales

El Tribunal Superior de Justicia de Navarra ha convertido un incidente procesal en una ocasión de reflexión colectiva. Su auto, al archivar la pieza sancionadora pero dejar constancia expresa de la gravedad del uso descuidado de la inteligencia artificial, establece un equilibrio que preserva tanto la autoridad judicial como la posibilidad de mejora profesional. La advertencia contenida en el fallo resuena con especial claridad: el uso fraudulento de estas tecnologías es sancionable, y la mala fe procesal no requiere necesariamente dolo en el sentido tradicional, bastando la temeridad que supone presentar sin verificación materiales generados algorítmicamente.

Para la abogacía, el mensaje es inequívoco. Las herramientas de inteligencia artificial pueden incrementar la productividad y facilitar el acceso a la información, pero no liberan del deber de verificación que constituye el núcleo de la responsabilidad profesional. La credibilidad del operador jurídico depende de la certeza de lo que afirma, y esta certeza no puede delegarse en sistemas cuyo funcionamiento interno escapa al control profesional.

El sistema de justicia, por su parte, ha demostrado capacidad de adaptación. Los tribunales están desarrollando mecanismos de detección de información inexacta y estandarizando respuestas que combinan la represión de conductas graves con la pedagogía de las menos comprometidas. Esta evolución casuística, aunque aún incipiente, traza un camino que otros órganos jurisdiccionales probablemente seguirán.

El auto de marzo de 2026 del Tribunal Superior de Justicia de Navarra permanecerá como referencia obligada en el debate sobre el derecho y la inteligencia artificial. No porque establezca doctrina revolucionaria, sino porque aplica con sensatez principios consolidados a un fenómeno nuevo, demostrando que el derecho procesal posee la flexibilidad necesaria para integrar transformaciones tecnológicas sin sacrificar sus valores esenciales. En última instancia, la tecnología es neutral; lo que la dignifica o la corrompe es el uso que hacen de ella los operadores jurídicos, sometidos siempre a los estándares de responsabilidad que la función judicial exige.

La entrada El último recordatorio navarro sobre el uso forense de los algoritmos y la mala fe procesal se publicó primero en Lawyerpress NEWS.


Artículo de Redacción publicado en https://www.lawyerpress.com/2026/04/09/el-ultimo-recordatorio-navarro-sobre-el-uso-forense-de-los-algoritmos-y-la-mala-fe-procesal/