• 15/04/2026 10:10

Expertos advierten: «confiar en ChatGPT para hacer la declaración de la renta puede salir caro»

Tiempo estimado de lectura: 1 minutos, 46 segundos

Pese a los recientes avisos de la Agencia Tributaria que desaconseja el uso de herramientas de inteligencia artificial para realizar la declaración de la Renta, la realidad es que cada vez más contribuyentes recurren a sistemas como ChatGPT para resolver sus dudas fiscales o incluso para elaborar sus propias declaraciones. Sin embargo, desde el despacho especializado en delitos informáticos y ciberestafas, PenalTech, advierten de los riesgos legales y económicos que puede implicar esta práctica si no se utiliza con criterio profesional.

El uso de sistemas de IA generativa se ha popularizado por su rapidez y accesibilidad, pero no siempre garantiza la fiabilidad de la información proporcionada. En materia fiscal, donde cada detalle puede afectar al resultado de la declaración, confiar ciegamente en estas herramientas puede derivar en errores que acaben en sanciones por parte de la Administración Tributaria.

«ChatGPT puede ser útil como herramienta de consulta general, pero en ningún caso sustituye el asesoramiento de un profesional cualificado», explica Fran Peláez, abogado y socio director de PenalTech. «El principal problema es que el contribuyente puede asumir como correctas respuestas que no están actualizadas o que no tienen en cuenta su situación personal concreta», añade.

Uno de los riesgos más habituales es la incorrecta aplicación de deducciones o beneficios fiscales. La IA puede ofrecer información genérica que no se ajusta a los requisitos específicos exigidos por la normativa vigente, lo que puede provocar que el contribuyente aplique deducciones indebidas o deje de aplicar otras a las que sí tiene derecho.

Además, existe el peligro de introducir datos sensibles en plataformas digitales sin tener en cuenta las implicaciones en materia de privacidad y protección de datos. «Como ya ocurriera en campañas pasadas, es posible que los usuarios compartan información personal y financiera con herramientas de IA sin conocer cómo se gestionan esos datos. Esto puede abrir la puerta a problemas de seguridad o incluso a fraudes», advierte Peláez.

Otro aspecto crítico es la falta de responsabilidad legal por parte de estas herramientas. A diferencia de un asesor fiscal, que responde ante posibles errores, las plataformas de inteligencia artificial no asumen ninguna responsabilidad por las consecuencias derivadas de su uso. Esto deja al contribuyente en una situación de vulnerabilidad ante posibles inspecciones o requerimientos de Hacienda. «Si la declaración contiene errores, la responsabilidad recae exclusivamente en el contribuyente, aunque haya seguido las indicaciones de una IA. Aunque pueda parecer lógico, esto es algo que muchas personas desconocen», subraya el experto.

Desde el despacho también alertan del aumento de intentos de ciberestafa que aprovechan el contexto de la campaña de la renta y el uso de herramientas digitales. Los ciberdelincuentes pueden crear aplicaciones falsas o suplantar servicios legítimos para captar datos personales bajo la apariencia de asistencia fiscal automatizada.

Por todo ello, los expertos recomiendan utilizar estas herramientas con cautela y siempre como complemento, nunca como sustituto del asesoramiento profesional. Revisar la información, contrastarla con fuentes oficiales y, en caso de duda, acudir a un especialista sigue siendo la mejor garantía para evitar problemas. «La tecnología es una aliada, pero no puede sustituir el análisis jurídico ni la experiencia profesional. En materia fiscal, un pequeño error puede tener consecuencias importantes», concluye Peláez.

Fuente: PenalTech

 

 


Artículo de Redaccion DJ publicado en https://www.diariojuridico.com/expertos-advierten-confiar-en-chatgpt-para-hacer-la-declaracion-de-la-renta-puede-salir-caro/