Diego Fierro Rodríguez

Diego Fierro Rodríguez
El Auto del Tribunal Superior de Justicia de Navarra de 4 de septiembre de 2024, constituye un hito relevante en la jurisprudencia española al abordar, por primera vez, el uso de la inteligencia artificial (en adelante, IA) generativa, específicamente ChatGPT, en la redacción de documentos procesales y las implicaciones legales y éticas derivadas de su utilización. Este caso nace de una querella presentada por un abogado que, para optimizar su tiempo y recursos, recurrió al uso de ChatGPT para elaborar el escrito inicial. No obstante, poco después, el letrado advirtió un error de gran envergadura: el modelo de IA había incluido referencias erróneas a legislación colombiana en lugar de la normativa española aplicable, lo que supuso un serio problema de exactitud y fiabilidad en el documento procesal de parte.
Debe tenerse en consideración que el artículo 247.3 y 4 de la Ley de Enjuiciamiento Civil (en adelante, LEC) dispone que los jueces pueden sancionar a las partes que utilicen el proceso de manera desleal o con abuso de derecho. En el contexto de este caso, se debió determinar si la falta de verificación de los documentos generados por IA podía encuadrarse en un uso negligente de los recursos procesales. La jurisprudencia previa del Tribunal Supremo ha enfatizado la necesidad de que los abogados y las partes actúen con diligencia en la presentación de escritos y en la defensa de los intereses de sus clientes.
El funcionamiento de los modelos de IA como ChatGPT se basa en el uso de algoritmos avanzados de aprendizaje automático que procesan ingentes volúmenes de datos y generan respuestas textuales basadas en patrones lingüísticos y probabilidades estadísticas. Sin embargo, la tecnología que sustenta estas herramientas no posee una capacidad intrínseca para verificar la veracidad de la información ni para diferenciar entre distintas jurisdicciones. El fenómeno de las «alucinaciones» en los modelos de IA, que se manifiesta en la generación de contenido que suena plausible pero es incorrecto o no está fundamentado en hechos, es una de las limitaciones más preocupantes en el contexto jurídico. La cuestión es especialmente relevante, ya que el resultado puede parecer verosímil, pero requiere la verificación humana.
La reacción del abogado fue crucial en el desarrollo del caso, ya que, al percatarse del error, presentó de inmediato un escrito en el que asumía la responsabilidad y se excusaba por el uso indebido de la herramienta de IA. Este gesto denota una conciencia profesional y un sentido de responsabilidad ética que el tribunal consideró como atenuantes al momento de evaluar si se había incurrido en abuso de derecho o en mala fe procesal, tal como lo contemplan los artículos 247.3 y 247.4 de la LEC.
Resulta indispensable entender que la apertura de una pieza separada para investigar la conducta del letrado fue una medida excepcional que subrayó la importancia de establecer un precedente en la utilización de nuevas tecnologías en el ámbito de la abogacía. En este sentido, el análisis judicial resaltó una importante idea:
«El uso de las tecnologías emergentes y de los materiales generados por inteligencia artificial en los procedimientos judiciales no está exento de importantes consideraciones éticas y legales para garantizar un uso responsable».
Esta afirmación pone de relieve la responsabilidad indelegable de los abogados en la revisión y validación de los documentos presentados en el proceso. A pesar de las ventajas operativas que ofrecen las herramientas de IA, la confianza ciega en ellas puede derivar en consecuencias graves tanto para los profesionales como para los justiciables. El deber de verificación es, por tanto, un imperativo que permanece inalterado a pesar de la incorporación de tecnologías avanzadas en la práctica profesional.
La jurisprudencia y doctrina que se asientan en torno a la figura de la mala fe procesal se centran en conductas que buscan eludir o distorsionar la justicia a través de actuaciones negligentes o abusivas, algo que guarda relación con el aprovechamiento de la IA. En este sentido, por el auto comentado se afirma lo siguiente:
«No nos cabe duda que el uso descuidado de estas tecnologías en los procedimientos judiciales plantea importantes implicaciones deontológicas y, desde luego, es susceptible de integrar un claro ejemplo de mala fe procesal y de abuso del proceso».
Este juicio de valor se refleja en la preocupación del tribunal por sentar un precedente que, sin resultar sancionador, ofrezca un marco de advertencia clara sobre las responsabilidades de los abogados al emplear herramientas tecnológicas.
El tribunal resolvió archivar la pieza separada sin imponer una sanción pecuniaria, lo que demuestra un enfoque equilibrado entre la rigidez de la normativa procesal y la comprensión de la complejidad de la materia. La decisión se sustentó en la novedad del caso y en la rápida reacción del abogado para reconocer el error, un hecho que demostró su buena fe. No obstante, la Sala dejó clara una advertencia para el futuro:
«En la singularidad del caso que nos ocupa, el hecho de que nos encontremos ante una materia ciertamente novedosa, así como la inmediata reacción del Letrado querellante excusando el error cometido, determina que la Sala se incline por el archivo de la presente pieza separada sin imponer la correspondiente sanción pecuniaria, sirviendo la presente -quizá- de advertencia de las implicaciones legales, deontológicas y éticas que puede plantear el uso descuidado de las nuevas tecnologías».
La decisión refuerza la idea de que la innovación tecnológica debe ir acompañada de una supervisión humana minuciosa y de un juicio profesional responsable.
El contexto procesal y la necesidad de garantizar la integridad del procedimiento judicial se ven profundamente impactados por la introducción de tecnologías emergentes como la IA. La decisión del Tribunal Superior de Justicia de Navarra pone de manifiesto que, a pesar de los avances en la automatización y la generación de documentos, los principios de prudencia y veracidad no pueden ser desatendidos.
Resulta indispensable resaltar que el abogado no solo debe ser competente en las materias jurídicas, sino también en la evaluación y manejo de las herramientas que decide utilizar en el ejercicio de su labor. Esta competencia implica un conocimiento que trasciende lo puramente técnico y abarca una comprensión ética y deontológica de los riesgos asociados.
El caso abordado en Navarra ofrece una lección importante para el futuro del derecho y la práctica jurídica en la era de la IA. La resolución judicial es un recordatorio de que la función del abogado no se limita a la simple presentación de escritos, sino que incluye una labor más compleja de análisis, revisión y supervisión. Aunque la IA puede ser un recurso auxiliar valioso, la revisión final y la responsabilidad por el contenido presentado sigue siendo inalienable al rol del letrado. Esta idea refuerza la naturaleza misma del ejercicio de la abogacía como una práctica que, si bien puede complementarse con herramientas tecnológicas, no puede ser reducida a ellas sin un riesgo de consecuencias adversas.
La Sala del Tribunal Superior de Justicia de Navarra ha dibujado un precedente que probablemente será objeto de análisis y debate en futuras interpretaciones judiciales. Las implicaciones deontológicas y éticas que surgen del uso de la IA en la práctica jurídica son ahora una cuestión que trasciende la teoría y se materializa en ejemplos concretos como el caso aquí estudiado. Esta resolución contribuye a delinear los límites de la responsabilidad profesional en un entorno cada vez más marcado por la digitalización y la automatización.
Además, la determinación de archivar la pieza separada sin sanción refleja la importancia de evaluar las circunstancias particulares de cada caso y la intención del abogado en su actuación. La diligencia demostrada al admitir y corregir el error fue un factor que pesó notablemente en la balanza, destacando que la mala fe procesal no solo se deriva de errores técnicos o de imprecisiones, sino de la voluntad de emplearlos en detrimento de la parte contraria o del propio proceso judicial.
La resolución, por tanto, señala la necesidad de un enfoque matizado y una interpretación contextualizada de los hechos que permita distinguir entre un error de buena fe y un acto de deslealtad procesal. Igualmente, el auto también deja clara una idea en torno al uso de las tecnologías emergentes y de los materiales generados por IA en los procedimientos judiciales, que, como ya se indicó, no está exento de importantes consideraciones:
«(…) impone una verificación adicional, puesto que la revisión y validación de los documentos legales seguirá siendo responsabilidad de los abogados para garantizar la precisión y el cumplimiento normativo».
Esta afirmación subraya la importancia de que los profesionales del derecho estén capacitados no solo en las técnicas y metodologías tradicionales, sino también en el manejo crítico de las herramientas tecnológicas que decidan incorporar en su trabajo. Las implicaciones de un uso inadecuado o irreflexivo de la tecnología pueden acarrear consecuencias que van más allá de la sanción pecuniaria y pueden afectar la reputación y la ética del ejercicio profesional.
Hay que reseñar igualmente que el caso plantea también la necesidad de un debate más amplio sobre la regulación del uso de la IA en la práctica jurídica. Aunque no existe una normativa específica en España que regule el uso de herramientas de IA en la redacción de escritos judiciales, es previsible que en el futuro se desarrollen normas y estándares que establezcan las condiciones de su uso y los límites de la responsabilidad de los abogados. Este marco regulatorio deberá equilibrar el fomento de la innovación tecnológica con la protección de los principios elementales del proceso judicial y el respeto a la ética profesional.
Los criterios de responsabilidad profesional en este caso implican un análisis de las obligaciones que los abogados tienen no solo en cuanto a la calidad de sus argumentos, sino también respecto a la validación de las fuentes utilizadas. Las herramientas de IA, a pesar de su utilidad, no pueden suplir la capacidad crítica ni la revisión humana, que siguen siendo esenciales para garantizar que los escritos cumplan con los estándares legales requeridos.
La experiencia relatada por el Tribunal Superior de Justicia de Navarra servirá, sin duda, como advertencia para los profesionales del derecho sobre la necesidad de actuar con extrema diligencia al utilizar tecnologías avanzadas. El uso de IA debe acompañarse de un examen crítico y de un proceso de validación que garantice la exactitud y la adecuación del contenido generado a las normas y principios jurídicos vigentes. Esta precaución es especialmente relevante en un contexto en el que la tecnología avanza rápidamente y la tentación de confiar en las capacidades de las herramientas de IA puede llevar a omitir la revisión exhaustiva indispensable para proteger la calidad y la integridad del proceso judicial.
En resumidas cuentas, cabe inferir que el caso del uso indebido de ChatGPT en la redacción de una querella subraya la importancia de que los abogados mantengan un control riguroso sobre los documentos que presentan. La verificación y la validación siguen siendo elementos imprescindibles para el ejercicio profesional, y aunque la tecnología puede servir como un apoyo valioso, no puede reemplazar el juicio y la responsabilidad humana. La resolución del Tribunal Superior de Justicia de Navarra es un ejemplo claro de cómo las consideraciones éticas, deontológicas y legales deben integrarse en la adopción de nuevas tecnologías, asegurando que la innovación no se convierta en un obstáculo para la justicia, sino en un aliado en la búsqueda de su realización efectiva.
La entrada El primer caso de posible mala fe procesal por uso erróneo de ChatGPT se publicó primero en Lawyerpress NEWS.