• 20/02/2026 04:24

Santiago Mediano: “El futuro es la colaboración inteligente entre la capacidad de procesamiento de las máquinas y la sabiduría, ética y criterio humano”

Tiempo estimado de lectura: 10 minutos, 36 segundos

Santiago Mediano es el presidente de la sección ICAM de Robótica, IA y Realidad Virtual y Aumentada, además de ser presidente y socio fundador de la firma de abogados Santiago Mediano y miembro de la Real Academia de Jurisprudencia y Legislación. Un especialista en tecnología con mucha visión.

Santiago Mediano

Santiago Mediano, presidente de la sección ICAM de Robótica, IA y Realidad Virtual y Aumentada, presidente y fundador de Santiago Mediano.

Hans A. Böck / @LP_Hans

Pregunta: Sr Mediano, lo de la Inteligencia Artificial (IA) ya parece que se nos escapa de la inteligencia humana, y no pienso en lo que se nos avecina, lo que hablaremos más tarde. Me refiero a este hype de publicaciones, debates y sobre todo de oferta en aplicaciones de IA. ¿Qué es mejor para un abogado, utilizar IA general o una IA jurídica, que son bastante más caras y no suelen ni ofrecer versiones gratuitas?

Respuesta: La respuesta, como en tantas cuestiones jurídicas, depende del uso que queramos darle. Las herramientas de IA general, como ChatGPT o Claude, son extremadamente versátiles y útiles para tareas de carácter más transversal: redacción de correos, resúmenes generales, lluvia de ideas o incluso traducción básica. Sin embargo, tienen una limitación importante para nuestra profesión: no están específicamente entrenadas con jurisprudencia, legislación o doctrina jurídica actualizada, lo que puede llevar a imprecisiones o, peor aún, a las famosas «alucinaciones» cuando se les pregunta sobre cuestiones legales concretas. Pero, además, ¿ofrecen garantías de que se cumplen todos los requisitos legales y deontológicos para que podamos introducir en ellas datos e informaciones de nuestros clientes, contrarios y asuntos?

Las soluciones de IA jurídica, por su parte, están diseñadas precisamente para mitigar estos riesgos. Cuentan con bases de datos especializadas, motores de búsqueda legal integrados y, en muchos casos, funcionalidades específicas como análisis de contratos, ‘due diligence’ o investigación jurisprudencial. Sí, son más costosas, pero el valor diferencial radica en la precisión, la trazabilidad de las fuentes y el cumplimiento de estándares deontológicos y de confidencialidad.

Mi recomendación sería empezar con herramientas de IA general para tareas auxiliares, siempre asegurándose de que ello no ponga en riesgo el cumplimiento de los deberes de confidencialidad y deontología, y, a medida que se identifiquen necesidades concretas —como análisis documental masivo o investigación legal compleja—, evaluar soluciones jurídicas especializadas. No se trata de elegir una u otra, sino de entender qué herramienta es la adecuada para cada tarea.

P: El ICA M ha publicado hace pocas fechas ICAM Guía de Buenas Prácticas para el Uso de la Inteligencia Artificial en la Abogacía. Para no utilizar una app de IA, queremos abusar de su inteligencia humana y de su experiencia para pedirle algunos criterios que debería cumplir una IA para una abogada o abogado.

R: Me gustaría primero decir que he tenido el honor de participar, junto con un magnífico grupo de expertos y expertas del ICAM, en la redacción de la Guía, y que recomiendo su lectura y aplicación.

No obstante, estoy encantado de dar una visión más personal. Debemos partir de que el respeto y cumplimiento de los principios deontológicos de nuestra profesión es una obligación de los profesionales. No es la IA la que ha de atenerse a ellos, sino los propios abogados. Sin embargo, no se puede ignorar que ciertas herramientas tecnológicas pueden conllevar, de forma incluso inadvertida, amenazas muy concretas e importantes para el cumplimiento de esos deberes. Por ello, en la propia selección de las herramientas, los profesionales tenemos la obligación deontológica de verificar y asegurarnos de que las que elijamos se hayan diseñado para que su operativa sea escrupulosamente respetuosa con los principios que rigen la profesión de abogado, de forma que la confianza de nuestros clientes en que la llevanza de sus asuntos y la defensa de sus derechos e intereses se va a hacer dentro de los parámetros que la deontología impone, no se vea defraudada. En este contexto, hay varios criterios que considero fundamentales:

En primer lugar, la confidencialidad y la seguridad de los datos. Es imprescindible que la herramienta garantice que la información que introducimos no se utilice para entrenar modelos, no se comparta con terceros y cumpla con la normativa de protección de datos. Esto incluye conocer dónde se almacenan los datos y quién tiene acceso a ellos.

En segundo lugar, la transparencia y trazabilidad. Debemos poder verificar las fuentes de las respuestas que nos proporciona la IA, especialmente en análisis jurídicos. Una herramienta que cite sentencias, leyes o doctrina sin permitirnos comprobar su veracidad es, sencillamente, inutilizable para un abogado.

También es crucial la adaptabilidad al contexto jurídico español o europeo, según corresponda. Muchas soluciones están diseñadas principalmente para el mercado anglosajón, lo que puede generar respuestas inadecuadas o irrelevantes en nuestro entorno legal.

No menos importantes son la formación constante, y el soporte tecnológico. Una buena herramienta de IA jurídica debería venir acompañada de recursos que permitan al abogado aprovecharla al máximo, sin necesidad de convertirse en experto en tecnología.

Finalmente, debemos como profesionales aplicar un deber de diligencia reforzado, de forma que no caigamos en el error de aplicar todo lo anterior únicamente en el momento de seleccionar las herramientas, sino que hagamos verificaciones periódicas de que el respeto a los principios fundamentales de la profesión se sigue dando a lo largo de todo el tiempo de uso.

P: Y dentro de este “bosque” de aplicaciones ¿qué tipo de actividad deberíamos encargar a la IA dentro de nuestro despacho? ¿Qué es imprescindible para ser competitivos en este mercado cada vez más complicado?

R: La IA no es un sustituto del abogado, sino como un asistente que nos libera de tareas repetitivas y de bajo valor añadido para que podamos centrarnos en lo que realmente importa: el criterio jurídico, la estrategia y la relación con el cliente.

Dicho esto, hay actividades en las que la IA ya demuestra un valor indiscutible. El análisis y revisión documental es probablemente el caso de uso más maduro: revisión de contratos, detección de cláusulas problemáticas, extracción de datos clave de documentos masivos en operaciones de ‘due diligence’. Aquí la IA puede procesar en minutos lo que a un equipo humano le llevaría días.

La investigación jurídica es otro ámbito muy prometedor. Encontrar jurisprudencia relevante, analizar tendencias en la interpretación de una norma o identificar precedentes similares son tareas en las que la IA puede ser tremendamente eficiente.

También está ganando terreno la generación de borradores: desde escritos procesales hasta informes o memorandos internos. Evidentemente, siempre bajo supervisión y revisión humana, pero el ahorro de tiempo es considerable. La IA puede ayudar a muchos a superar el miedo a la ‘hoja en blanco’.

Para ser competitivos, diría que lo imprescindible es incorporar la IA al menos en dos áreas: gestión documental y búsqueda de información legal. Cualquier despacho, grande o pequeño, puede beneficiarse inmediatamente de estas funcionalidades.

Me gustaría también mencionar algo que aún está por desarrollarse de manera más completa. Me refiero a la llamada jurimetría, esto es, predicciones sobre potenciales resultados de una u otra estrategia jurídica, basadas en el análisis de cantidades masivas de precedentes judiciales, administrativos, u otros semejantes. Es un área que aún está reservada a unos pocos, pero que, sin embargo, lleva años en otros sectores, como la financiera, particularmente el sector de los seguros, pero que está penetrando cada vez en más actividades. Cuando la jurimetría esté al alcance de todos, es muy posible que veamos enormes eficiencias en la gestión de los conflictos.

P: Cómo nos ha pasado con el boom de los Legaltech que nos obligaba a todos a aprender a programar y estudiar informática, en la IA podemos hacer de todo. ¿Cómo podemos empezar a familiarizarnos con ella e implementarla sin volvernos locos?

R: Esa es una preocupación muy legítima, y precisamente por eso creo que es importante desmitificar la idea de que hay que ser ingeniero para usar IA. No necesitamos aprender a programar para aprovechar estas herramientas, igual que no necesitamos saber cómo funciona un motor de combustión para conducir un coche.

Mi consejo es empezar poco a poco y de forma práctica. Elegir una herramienta —siempre seleccionada con criterios de respeto a las obligaciones profesionales, pues uno de los riesgos más frecuentes es la falta de rigor en este punto— y empezar a usarla para tareas sencillas del día a día: resumir un documento, redactar un correo, organizar ideas para un escrito. La clave está en experimentar en un entorno controlado, sin presión.

Después, y esto es importante, formar al equipo. No hace falta un máster en IA, pero sí sesiones prácticas donde se compartan casos de uso reales del despacho. ¿Cómo podemos usar la IA para preparar un informe? ¿Y para revisar un contrato? Que cada abogado vea el valor concreto en su trabajo diario.

Y, por supuesto, establecer protocolos claros: qué se puede hacer con IA y qué no, cómo verificar los resultados, qué información no debe introducirse nunca. La implementación exitosa no es solo tecnológica, es también cultural y organizativa.

P: ¿Y que nos recomendaría para no cometer errores que nos pueden costar mucho dinero y mucho tiempo?

R: Como he dicho antes, el primero que se comete suele estar en relación con la herramienta seleccionada. No todas valen para que introduzcamos la información de los asuntos que se nos confían, o datos personales. Es un tema sobre el que no me canso en insistir. Esto puede producirse por el mero hecho de no leer las condiciones de uso y las políticas de privacidad de las herramientas que queremos utilizar. Hay herramientas que expresamente indican que los datos introducidos pueden usarse para mejorar el modelo, lo cual es incompatible con nuestro deber de confidencialidad. Antes de subir un solo documento, hay que asegurarse de que estamos cumpliendo con nuestras obligaciones deontológicas y legales.

Otro error a evitar es la confianza ciega. La IA puede equivocarse, y de hecho lo hace. Nunca debemos asumir que una respuesta generada por IA es correcta sin verificarla. Esto es especialmente crítico en cuestiones jurídicas, donde un error puede tener consecuencias graves para el cliente y para nuestra responsabilidad profesional.

Otra posible equivocación es intentar implementar todo a la vez. Es mejor empezar con un proyecto piloto, en un área concreta, medir resultados y después escalar. La transformación digital debe ser gradual y sostenible.

Además, no se debe subestimar la necesidad de formación del equipo. Una herramienta potente en manos de alguien que no sabe usarla no solo es inútil, sino que puede ser contraproducente. Hay que invertir tiempo en que todos comprendan las posibilidades, pero también las limitaciones.

P: También hemos oído dentro de las voces críticas con la IA que comete errores. ¿Qué grado de fiabilidad tienen actualmente las aplicaciones jurídicas para realizar las tareas encomendadas?

R: En este punto me parece conveniente la máxima claridad: la IA comete errores. No es infalible, y quien diga lo contrario está vendiendo humo. Las llamadas «alucinaciones» —cuando la IA genera información falsa con total convicción— son un riesgo real, especialmente en contextos jurídicos donde la precisión es fundamental.

Dicho esto, el grado de fiabilidad ha mejorado notablemente en los últimos años. Las herramientas de IA jurídica especializadas, que trabajan con bases de datos verificadas y permiten trazabilidad de las fuentes, tienen tasas de precisión muy altas en tareas como búsqueda de jurisprudencia o análisis de contratos estandarizados. Pero incluso en estos casos, la supervisión humana es imprescindible.

La clave está en entender para qué tareas la IA es suficientemente fiable y para cuáles no. En tareas repetitivas y bien definidas —extracción de fechas de un contrato, clasificación de documentos, identificación de cláusulas tipo— la fiabilidad es excelente. En tareas que requieren razonamiento jurídico complejo, interpretación de normas o valoración estratégica, la IA puede asistir, pero nunca sustituir el criterio del abogado.

Mi recomendación es adoptar siempre un enfoque centrado en el ser humano. La IA puede hacer el trabajo pesado, pero el abogado debe revisar, validar y aportar el criterio profesional, pero también ético y moral.

Llevo tiempo reflexionando, escribiendo, y hablando en mis intervenciones públicas en diferentes foros sobre que, como sociedad, tenemos la obligación de que los desarrollos tecnológicos estén centrados en el ser humano. La tecnología solo es buena si está al servicio de la humanidad. Y no solo de una parte de ella, sino de toda la humanidad. Lo que no vaya en esa dirección, no es positivo. Es conveniente siempre mirar hacia adelante, buscar eficiencias, mejorar, pero de forma inclusiva. Lo que era futuro ahora es presente. Y tenemos que asegurarnos de que nadie se quede fuera de los beneficios que la tecnología conlleva. O mucho peor, que la tecnología sirva para acentuar la desigualdad y la exclusión social. Este es un problema de importancia capital.

P: Ya que hemos abierto la caja de pandora de las críticas, no hay remedio de no hacernos eco de las publicaciones que causaron un pequeño terremoto en el mundo de la IA. Primero nos tropezamos con el articulo de Matt Shumer con Something big is happening (al que acaba de contestar el profesor Ramon López de Mántaras en El País, después leemos que una investigadora de OpenAI, Zoe Hitzig, renuncia por el desarrollo que toma la IA y lo hace público en el New York Times, que nos dibujan una imagen ciertamente preocupante de la IA.

¿Qué opina de la visión de estos dos profesionales de la IA?

R: Los artículos y declaraciones que mencionas reflejan un debate absolutamente necesario sobre el desarrollo de la IA. No son voces alarmistas sin fundamento; son profesionales que conocen la tecnología desde dentro y que nos alertan de riesgos que no podemos ignorar.

Matt Shumer plantea que estamos ante un punto de inflexión en el que la IA está avanzando más rápido de lo que nuestra capacidad de comprensión y regulación puede seguir. Y tiene razón. Estamos desarrollando sistemas cuyas implicaciones a largo plazo no comprendemos completamente. La renuncia pública de Zoe Hitzig en The New York Times es igualmente significativa: cuando alguien desde dentro de OpenAI manifiesta preocupación ética por la dirección que está tomando la tecnología, debemos prestar atención.

Desde la perspectiva jurídica, estas voces críticas refuerzan algo que vengo defendiendo desde hace tiempo: la necesidad urgente de marcos regulatorios sólidos, sí, pero, sobre todo, de un debate global y transversal en torno a lo que yo llamo “tecnologías de umbral”. Las tecnologías de umbral son un conjunto de tecnologías que permiten a la humanidad, por primera vez en su historia, tomar en sus manos las riendas de su propia evolución como especie. Me refiero a la edición genética, la impresión 3D de tejido orgánico vivo, la conexión entre el sistema nervioso central y las máquinas, y, por supuesto, la robótica y la IA. Todas estas tecnologías combinadas pueden llevarnos a la creación de nuevas formas humanas. Los interrogantes que ello abre son de dimensión existencial, y las respuestas no pueden quedar solo en manos de algunos empresarios y políticos. Hay que hablar de esto, pues lo que está en juego es la propia especie humana.

Regresando al marco jurídico y la IA, ciertamente la Ley Europea de IA es un paso importante, pero el desarrollo tecnológico avanza a una velocidad que desafía cualquier legislación. Por otro lado, a nadie se le escapa las importantes repercusiones que tiene en el desarrollo tecnológico. Una de las críticas más importantes al Reglamento Europeo de la IA consiste, precisamente, en que lastra el desarrollo de IAs europeas, en favor de las americanas y chinas. El equilibrio entre el ADN garantista europeo y la necesidad de que las compañías europeas eleven su competitividad, para no volver a quedar en manos de grandes corporaciones no europeas es difícil.

Como abogados, tenemos una responsabilidad dual: por un lado, entender y aprovechar las ventajas de la IA para servir mejor a nuestros clientes; por otro, ser vigilantes y críticos con su desarrollo, garantizando que se respeten los derechos fundamentales, la privacidad y los principios éticos. No podemos ser tecnófilos acríticos ni tecnófobos paralizados. Debemos ser profesionales informados y responsables.

P: Y para finalizar también tenemos el ensayo de Dario Amodei, The Adolescence of Technology, que recomendamos por su enfoque general y sobre todo por ser Dario el CEO of Anthropic, la firme que está detrás de Claude, una competencia de Chat GPT.

¡Díganos lo que tenemos que esperar en los próximos años para la profesión de abogado! ¿Desaparecerán definitivamente tal y como pronosticó Richard Susskind?

R: Richard Susskind lleva décadas prediciendo el fin de la abogacía tradicional, y aquí seguimos. Pero sería un error desestimar sus advertencias: tiene razón en que la profesión está cambiando profundamente. Adaptarse o desaparecer… ¡como las especies!

Lo que espero —y lo que ya estamos viendo— no es la desaparición del abogado, sino su transformación, la redefinición del significado del concepto ‘abogado’. Muchas tareas que tradicionalmente realizábamos serán automatizadas. La revisión mecánica de documentos, la búsqueda de jurisprudencia básica, la redacción de escritos estandarizados… todo esto lo hará la IA de forma más rápida y económica.

Pero la abogacía nunca ha sido solo eso. Nuestro valor no está en la capacidad de entender problemas complejos, asesorar estratégicamente, negociar, representar intereses y, sobre todo, aplicar criterio jurídico en contextos de incertidumbre. Nosotros vamos más allá del entendimiento racional ligado a conocimientos y técnicas aprendidos. Los abogados comprendemos los problemas de nuestros semejantes, porque somos como ellos, porque somos ellos. La IA puede procesar información, pero no puede asumir la responsabilidad -y no me refiero solo a la jurídica o económica sino a la responsabilidad personal, esto es, moral y ética- que conlleva tomar una decisión jurídica. Los abogados nos relacionamos con nuestros clientes de persona a persona. Eso es algo que ninguna IA puede hacer.

En los próximos años veremos una segmentación de la profesión. Aquellos despachos y profesionales que adopten la tecnología de forma inteligente ganarán en eficiencia, calidad y competitividad. Los que se resistan quedarán rezagados. Pero también habrá una revalorización del abogado estratega, aquel que usa la IA como herramienta, pero aporta algo que ninguna máquina puede replicar: juicio, empatía, creatividad y responsabilidad.

El futuro de la abogacía no es sin IA, pero tampoco es sin abogados. Es un futuro de colaboración inteligente entre la capacidad de procesamiento de las máquinas y la sabiduría, ética y criterio humano. Y eso, francamente, me parece apasionante.

 

 

La entrada Santiago Mediano: “El futuro es la colaboración inteligente entre la capacidad de procesamiento de las máquinas y la sabiduría, ética y criterio humano” se publicó primero en Lawyerpress NEWS.


Artículo de Redacción publicado en https://www.lawyerpress.com/2026/02/20/santiago-mediano-el-futuro-es-la-colaboracion-inteligente-entre-la-capacidad-de-procesamiento-de-las-maquinas-y-la-sabiduria-etica-y-criterio-humano/