La seguridad en los servicios de Inteligencia Artificial de Google vuelve a estar en el punto de mira tras la identificación de GeminiJack, una vulnerabilidad crítica que afecta a sus plataformas empresariales. El fallo permite la exfiltración silenciosa de datos sensibles, sin necesidad de ninguna interacción por parte del usuario, y pone de relieve los nuevos riesgos asociados a la implantación masiva de la IA en el entorno corporativo.

A medida que las empresas integran soluciones de IA en sus procesos, aumentan también las superficies de ataque. En este contexto, la firma de ciberseguridad Noma Security ha revelado la existencia de GeminiJack, un exploit que afecta directamente a Google Gemini Enterprise y Vertex AI Search, y que habilita robos de información mediante ataques zero-click, una modalidad especialmente peligrosa por su capacidad de pasar desapercibida.
El ataque se basa en una técnica de inyección indirecta de instrucciones. Los ciberdelincuentes introducen comandos maliciosos en documentos accesibles para la IA —como archivos de Google Docs, hojas de cálculo o eventos de calendario—. Cuando las herramientas de búsqueda internas procesan estos contenidos, ejecutan de manera automática y sin advertencias dichas instrucciones ocultas, lo que permite enviar información a servidores externos, en ocasiones disfrazada mediante imágenes falsas para dificultar su detección.
La gravedad de la vulnerabilidad radica en que la pérdida de datos puede producirse sin que los usuarios lo perciban. Este tipo de exfiltración puede comprometer propiedad intelectual, datos personales o información estratégica, y se ve amplificado por la profunda integración de la IA con los grandes repositorios de información corporativa, lo que acelera su propagación.
Para contener el riesgo, los expertos recomiendan implementar filtros de contenido que analicen los documentos antes de que la IA los procese y restringir su acceso a información especialmente sensible. Google, por su parte, ha lanzado ya parches de seguridad destinados a mitigar el problema en Gemini Enterprise y Vertex AI Search. Las organizaciones deberían aplicarlos cuanto antes, revisar sus políticas de acceso y reforzar la monitorización de tráfico anómalo, así como la formación del personal en materia de ciberseguridad.
El caso GeminiJack pone de manifiesto que, incluso en sistemas de IA avanzados, pueden surgir vías de ataque inesperadas. La protección de datos exige un enfoque de defensa en capas, actualizaciones permanentes y una supervisión constante, especialmente en un escenario donde la inteligencia artificial adquiere un papel cada vez más relevante en los procesos críticos de las empresas.