• 30/10/2025 00:17

ChatGPT y la IA generativa en la empresa: riesgos ocultos y cómo mitigarlos.

Tiempo estimado de lectura: 9 minutos, 2 segundos

La irrupción de ChatGPT en 2022 marcó un antes y un después en la adopción masiva de la Inteligencia Artificial (IA) generativa. En pocos meses, este modelo de lenguaje pasó de ser una curiosidad tecnológica a una herramienta cotidiana en empresas de todos los sectores. Sus capacidades para generar texto coherente, resumir informes o incluso ayudar con código han desatado un enorme hype en torno a la IA generativa. Muchas organizaciones exploran ya su uso para mejorar la productividad y automatizar tareas.

 

Sin embargo, más allá del entusiasmo inicial, resulta fundamental adoptar una mirada crítica. ChatGPT representa solo la punta del iceberg de un fenómeno tecnológico mucho más amplio: el uso de sistemas de IA externos, desarrollados por terceros, con capacidad para procesar y aprender a partir de los datos que les proporcionamos. En este contexto, el simple acto de compartir información con estas herramientas puede tener consecuencias que trascienden lo operativo. Cuestiones como la confidencialidad, la protección de datos, el cumplimiento normativo o la propia gobernanza tecnológica están en juego.

 

Riesgos principales del uso de IA generativa en entornos empresariales

El uso de herramientas como ChatGPT en la actividad empresarial ha abierto la puerta a nuevas formas de trabajo y automatización. Pero con ello también se han introducido zonas grises y vulnerabilidades que no deben pasarse por alto. Desde cuestiones de privacidad y seguridad, hasta impactos reputacionales o legales, cada interacción con una IA externa plantea interrogantes sobre el control, la responsabilidad y el cumplimiento. A continuación, exploramos los principales focos de riesgo que las empresas deben tener en cuenta al incorporar IA generativa en sus operaciones cotidianas.

 

– Riesgos de privacidad y protección de datos

 

Uno de los principales riesgos al usar IA generativa es la pérdida de control sobre los datos personales o confidenciales introducidos. Al compartir información con servicios de IA como ChatGPT, esta se transfiere a servidores externos y queda fuera del ámbito de protección de la empresa. Según la política de privacidad de OpenAI, la información aportada puede almacenarse y reutilizarse para mejorar modelos; es decir, integrarse en futuros entrenamientos, en tensión con principios del RGPD (minimización, limitación de la finalidad). En la práctica, la empresa pierde la capacidad de controlar quién accede a esos datos y con qué fines, pudiendo incurrir en tratamientos no autorizados.

 

Asimismo, existe el riesgo de transferencias internacionales: como proveedor estadounidense, el procesamiento puede producirse fuera de la UE. En la versión pública estándar de ChatGPT, no hay garantías de que la información permanezca dentro del Espacio Económico Europeo, ni opciones para elegir la ubicación del tratamiento o asegurar un nivel de protección equivalente.

 

También hay riesgo de retención y acceso: por defecto, las conversaciones quedan guardadas salvo que se configure lo contrario; incluso con el historial desactivado (modo “no guardar”), OpenAI admite una retención temporal (p. ej., 30 días) para supervisar abusos, durante la cual personal o contratistas podrían revisar muestras. Esto puede exponer descripciones de incidentes, código fuente o listados de clientes sin conocimiento ni control de la empresa.

 

El escrutinio regulatorio en Europa es real: en 2023, la autoridad italiana bloqueó temporalmente ChatGPT por falta de transparencia, base legal inapropiada y ausencia de control de edad. En suma, desde la óptica de la privacidad, introducir datos internos o personales en IAs públicas conlleva pérdida de control, riesgo de incumplimiento del RGPD y posibles accesos o difusión no autorizados.

 

– Riesgos de incumplimiento normativo y de gobernanza corporativa

 

El uso de IA generativa con datos personales sitúa al proveedor en la posición de encargado del tratamiento, lo que exige un contrato (Art. 28 RGPD) que garantice confidencialidad, seguridad y un uso limitado de la información. En la versión pública de ChatGPT este contrato no existe: la relación se rige por términos unilaterales, sin adaptación a las obligaciones de cada empresa.

 

En consecuencia, compartir datos personales en este entorno podría considerarse una cesión no autorizada y dar lugar a sanciones graves bajo el RGPD. A ello se suma la falta de visibilidad sobre aspectos básicos de cumplimiento: dónde y cómo se procesan los datos, qué subencargados intervienen, qué cifrado se aplica, cuánto tiempo se conservan o cómo se notifican incidentes. Además, al no existir un compromiso contractual de notificación de brechas al cliente, la empresa podría no enterarse de que sus datos han sido comprometidos en los sistemas del proveedor, lo que le impediría cumplir en plazo sus propias obligaciones de reporte ante la autoridad o los afectados.

 

En paralelo, surgen riesgos contractuales privados. Muchas compañías están sujetas a acuerdos de confidencialidad (NDAs) con clientes, socios o proveedores. Si un empleado introduce en ChatGPT información protegida —como código fuente, planos de producto o listados de clientes— estaría, de facto, divulgándola a un tercero no autorizado. Esto podría suponer un incumplimiento contractual, con consecuencias legales y, sobre todo, pérdida de confianza comercial. También existen dudas sobre la propiedad intelectual: las respuestas de la IA pueden contener fragmentos protegidos por derechos de autor, y su titularidad aún es un área gris, lo que introduce un riesgo adicional si se reutilizan sin cautelas.

 

Por último, está el ángulo de la gobernanza corporativa. Integrar una IA externa sin un marco aprobado (políticas internas, roles, procedimientos de autorización) puede derivar en shadow AI, es decir, Inteligencias Artificiales que los empleados usan sin control de la dirección de IT o del Comité de Seguridad. En ese escenario, no hay claridad sobre quién es responsable de aprobar la herramienta, qué datos se comparten o cómo se supervisa su uso. Tampoco existe trazabilidad suficiente para auditar decisiones o responder en caso de fuga. La dependencia de un proveedor externo, además, añade incertidumbre: cambios de política, interrupciones de servicio o incluso incidentes de seguridad en el proveedor pueden impactar de lleno en la organización, sin que esta tenga capacidad de reacción. El resultado es un déficit de gobernanza: responsabilidades difusas, accountability debilitada y una dirección incapaz de demostrar control efectivo sobre el uso de la herramienta.

 

– Riesgos operativos: precisión, sesgos y falta de control

 

Más allá del plano jurídico, la IA generativa plantea riesgos en el terreno operativo. Uno de los más notorios es la falta de fiabilidad: los modelos pueden generar respuestas que parecen correctas, pero son inexactas o directamente inventadas (hallucinations). Confiar en estos outputs sin verificación puede conllevar errores costosos, desde informes técnicos con datos erróneos hasta decisiones estratégicas basadas en información equivocada.

 

A ello se suma el riesgo de sesgos: al entrenarse con grandes volúmenes de datos de Internet, la IA puede reproducir prejuicios culturales o sociales. Si se usa en procesos sensibles (como selección de personal, comunicación con clientes o evaluación de desempeño), podría emitir recomendaciones discriminatorias o inadecuadas, afectando la imagen y la equidad interna de la empresa.

 

Finalmente, existe el riesgo de dependencia excesiva: al presentar respuestas bien redactadas, la IA puede generar una falsa sensación de certeza, reduciendo el espíritu crítico de los empleados y desplazando el juicio humano. En suma, sin controles adecuados, el uso de ChatGPT puede introducir información inexacta, sesgos y pérdida de control, comprometiendo la calidad de las operaciones en lugar de mejorarlas.

 

– Impacto en la confidencialidad y la reputación

 

La confidencialidad y la reputación corporativa están estrechamente ligadas: una brecha en la primera casi siempre arrastra consecuencias en la segunda. En el caso de la IA generativa, el riesgo no se limita al acceso indebido a información, sino que también a la percepción pública de cómo la empresa maneja sus activos más sensibles.

 

Que trascienda que una organización utiliza un chatbot público para gestionar cuestiones estratégicas, legales o técnicas puede ser interpretado como una señal de imprudencia o falta de control interno, incluso aunque no se haya producido una filtración real. Un error de la IA en la generación de contenido —un informe técnico con datos erróneos, una comunicación sesgada o un texto que refleja estereotipos— puede proyectar una imagen de falta de rigor, dañando la credibilidad y reputación de la empresa ante clientes, socios o reguladores. Igualmente, una dependencia excesiva de estas herramientas puede percibirse como falta de madurez tecnológica o ausencia de criterio profesional propio.

 

El caso de Samsung en 2023 ilustra el riesgo: varios empleados usaron ChatGPT para tareas internas y terminaron exponiendo información confidencial. Más allá de la fuga en sí, el daño estaba en el mensaje proyectado hacia fuera: una multinacional que no había controlado a tiempo cómo sus propios equipos usaban una tecnología sensible.

 

En definitiva, la IA generativa no solo plantea riesgos de confidencialidad, sino también de reputación: una filtración real o incluso la sospecha de un uso descuidado puede erosionar la confianza de clientes e inversores, afectar relaciones comerciales y dar argumentos a quienes cuestionen la solidez del gobierno corporativo de la empresa.

 

Tras este recorrido por los principales riesgos, resulta evidente que el Compliance y la gestión diligente deben anticiparse a estos escenarios. Estos riesgos son transversales y marcan la diferencia entre sufrir la IA como una amenaza, o gestionarla como un recurso estratégico. Afortunadamente, existen medidas concretas que las empresas pueden tomar para mitigar los riesgos y aprovechar el potencial de la IA generativa de manera segura y responsable. A continuación, exploramos algunas de ellas.

 

Recomendaciones para mitigar los riesgos del uso de IA generativa

 

Gran parte de los riesgos descritos no provienen de la tecnología en sí, sino de cómo la utilizan las personas dentro de la empresa. Por ello, el primer paso debe ser un compromiso desde la alta dirección: definir una política clara que establezca qué herramientas de IA son aceptadas y bajo qué condiciones. Esa política debería clasificar la información en distintos niveles (por ejemplo: pública, interna, confidencial) para guiar a los empleados sobre qué se puede introducir en estas herramientas y qué no. Además, debería contemplar un principio sencillo: ante la duda, pedir autorización al CISO o al DPO antes de compartir datos. De este modo, el Compliance se convierte en un marco práctico, no en un freno, y la gestión de la IA se alinea con la estrategia de la empresa en lugar de quedar al albur de usos improvisados.

 

Pero ninguna norma será efectiva si no va acompañada de una formación transversal. Todos los empleados —desde perfiles técnicos hasta equipos de negocio— deben conocer no solo las reglas, sino también los riesgos que se pretenden evitar. Explicar, por ejemplo, cómo anonimizar datos antes de introducirlos en la IA, o por qué es peligroso pegar directamente listados de clientes, permite que los usuarios comprendan la finalidad de las políticas y no las perciban como un simple capricho. Casos reales como el de Samsung, donde empleados filtraron código fuente sin querer, ayudan a transmitir que el riesgo es tangible y cercano.

 

A este marco se suman algunas buenas prácticas clave que refuerzan la seguridad y el control:

 

  • Revisión y validación humana obligatoria: ningún texto generado debería usarse directamente sin supervisión experta.
  • Trazabilidad y registro de uso: documentar quién usó la IA, con qué propósito y bajo qué condiciones, para garantizar accountability.
  • Separación de roles y mínimo privilegio: limitar el acceso a la IA a usuarios designados y formados, evitando el shadow IT.
  • Protocolos ante errores o filtraciones: prever cómo actuar si se comparten datos indebidos o surge un incidente, asegurando una respuesta rápida y coordinada.

En paralelo, existen medidas técnicas que pueden reducir de forma significativa los riesgos asociados al uso de IA generativa. La primera es la anonimización y minimización de datos: antes de introducir información en ChatGPT, conviene eliminar o generalizar nombres, identificadores o detalles sensibles. La regla es simple: si la IA puede funcionar sin ese dato exacto, mejor no incluirlo. Dando cumplimiento al principio de privacy by default se garantiza que, incluso si la conversación con la IA se filtrara, la información realmente sensible no esté presente o esté muy ofuscada.

 

Otra medida clave es configurar la plataforma para limitar la retención y el entrenamiento. ChatGPT permite desactivar el historial de conversaciones para reducir la exposición. Adicionalmente, OpenAI ofrece (vía su portal de privacidad) la posibilidad de realizar un opt-out (exclusión voluntaria) completo para que ningún contenido de la cuenta se use en entrenamiento. En un entorno corporativo, debería ser obligatorio activar estas opciones, borrar manualmente las conversaciones al terminar y usar cuentas corporativas con configuraciones de privacidad reforzadas.

 

Cuando la sensibilidad de la información lo exige, conviene recurrir a entornos controlados o sandbox locales. Microsoft ofrece Azure OpenAI Service, que permite acceder a los mismos modelos GPT alojados en la nube empresarial de Azure, con posibilidad de elegir regiones europeas y sin que los datos se reutilicen en el entrenamiento. Otra opción es el uso de la API de OpenAI bajo licencia empresarial, que sí incluye acuerdos de tratamiento de datos (DPA) y, además, garantiza que los datos no se usan para mejorar los modelos.

 

Y para escenarios de máxima sensibilidad, las organizaciones pueden optar por modelos open source desplegados on-premise (como GPT-J o LLaMA 2), con lo que la información nunca sale del perímetro corporativo.

 

También es esencial proteger los canales y accesos. Toda interacción debe realizarse mediante protocolos cifrados, algo que la interfaz web de ChatGPT ya ofrece por defecto con HTTPS/TLS, pero que debe revisarse en integraciones externas. Para una capa adicional de protección, puede cifrarse manualmente información especialmente crítica antes de enviarla y descifrar la respuesta. En entornos como Azure OpenAI, resultan útiles funcionalidades como Customer Managed Keys, que permiten cifrar los datos en reposo con claves gestionadas por la propia empresa. A ello debe sumarse una autenticación robusta (2FA o integración con el sistema corporativo de identidad), y el acceso desde entornos aislados o equipos designados, reduciendo riesgos de accesos indebidos.

 

Por último, es recomendable probar previamente los prompts en entornos ficticios, para afinar su uso antes de trabajar con datos reales, y mantener un monitoreo externo que permita detectar posibles filtraciones, por ejemplo, mediante alertas en la red o herramientas de dark web monitoring. Aunque estas medidas no eliminan todos los riesgos, sí aumentan la capacidad de reacción temprana y refuerzan la confianza en el uso responsable de la IA.

 

Conclusión: el rol del Compliance como guardián de la gobernanza tecnológica

Los riesgos asociados al uso de ChatGPT y otras IA generativas no son ya hipótesis futuristas: se han materializado en grandes compañías y están en el radar de los reguladores europeos. La adopción de estas herramientas en la empresa es, por tanto, un arma de doble filo: promete eficiencias y ventajas competitivas, pero también entraña riesgos significativos si se usa sin cautela.

 

En este contexto, el área de Compliance cobra un protagonismo fundamental como guardián de la gobernanza tecnológica. Así como vela por el cumplimiento de normativas financieras, anticorrupción o de protección de datos, ahora debe ampliar su radar para cubrir el uso ético y seguro de la inteligencia artificial. Ello implica trabajar de forma transversal con IT, seguridad de la información y el área legal para desarrollar políticas claras, evaluar riesgos emergentes y asegurar que las decisiones sobre IA se tomen con diligencia debida.

 

Lejos de ser un freno a la innovación, el Compliance puede y debe ser un habilitador responsable: facilitando el uso de la IA dentro de límites seguros. Al establecer controles, formar a los empleados y exigir accountability, garantiza que la organización aproveche el potencial de la IA sin desviarse de la legalidad ni de la confianza que le otorgan clientes e inversores.

 

En definitiva, la IA generativa ha llegado para quedarse, y su gobernanza no puede ser un asunto exclusivo de IT: requiere la implicación transversal de toda la empresa, con el Compliance como timón que mantenga el rumbo seguro. La innovación sostenible será aquella que se construya con controles, transparencia y responsabilidad: solo así la IA podrá gestionarse como un recurso estratégico y no sufrirse como una amenaza.


Autores

 

Síguenos en nuestras RRSS o visita nuestra sección de ‘Actividades’ en esta página web para conocer más sobre ASCOM. 

La entrada ChatGPT y la IA generativa en la empresa: riesgos ocultos y cómo mitigarlos. se publicó primero en ASCOM.


Artículo de ASCOM BLOG publicado en https://asociacioncompliance.com/chatgpt-y-la-ia-generativa-en-la-empresa-riesgos-ocultos-y-como-mitigarlos/