
Un presunto ciberataque apoyado en inteligencia artificial volvió a encender alertas sobre el uso indebido de herramientas generativas. De acuerdo con una investigación de la firma israelí Gambit Security, un hacker utilizó el chatbot Claude, desarrollado por Anthropic, para identificar vulnerabilidades en sistemas de dependencias mexicanas y automatizar el robo de información.
Según el reporte, la operación se extendió durante aproximadamente un mes y habría derivado en la sustracción de 150 gigabytes de datos, incluidos registros fiscales, padrones electorales y bases vinculadas a empleados públicos.
Cómo operó el ataque con ayuda de IA
El atacante escribió instrucciones en español para que el chatbot actuara como un “hacker de élite”. Entre las tareas solicitadas estaban:
-
Detectar vulnerabilidades en redes gubernamentales.
-
Redactar scripts para explotarlas.
-
Automatizar procesos de extracción de datos.
-
Definir movimientos laterales dentro de los sistemas.
Gambit sostiene que Claude inicialmente advirtió sobre la naturaleza maliciosa de las solicitudes, pero el usuario insistió y logró eludir sus barreras de seguridad mediante un proceso conocido como jailbreak.
En algunos momentos, el atacante también habría recurrido a ChatGPT para ampliar información técnica cuando encontraba obstáculos. OpenAI indicó que sus sistemas bloquearon solicitudes que violaban sus políticas y prohibieron las cuentas implicadas.
Los investigadores señalaron que se explotaron al menos 20 vulnerabilidades específicas y que el objetivo principal era obtener identidades de empleados gubernamentales.
Dependencias señaladas y respuesta oficial
De acuerdo con Gambit, las instituciones afectadas incluirían la autoridad fiscal federal, el Instituto Nacional Electoral (INE), gobiernos estatales como Jalisco, Michoacán y Tamaulipas, así como el registro civil de la Ciudad de México y el servicio de agua y drenaje de Monterrey.
El INE aseguró que no identificó accesos no autorizados recientes y que reforzó su estrategia de ciberseguridad. Otros gobiernos locales negaron brechas directas o indicaron que solo se vieron afectadas redes federales.
Anthropic afirmó que investigó el caso, suspendió las cuentas involucradas y reforzó mecanismos de detección en sus modelos más recientes. La empresa sostiene que incorpora ejemplos de uso malicioso para fortalecer sus barreras internas.
La IA y el nuevo frente en ciberseguridad
El caso se suma a una tendencia creciente: la utilización de herramientas de inteligencia artificial para potenciar ataques digitales. Mientras empresas tecnológicas desarrollan modelos cada vez más sofisticados para codificación y automatización, actores maliciosos buscan aprovechar esas capacidades.
La investigación de Gambit coincidió con el anuncio de que la compañía sale del anonimato con una financiación de 61 millones de dólares. Según sus directivos, el episodio evidencia que la IA no solo redefine la productividad, sino también los riesgos en materia de ciberseguridad.
El debate ya no es si la inteligencia artificial puede ser utilizada para vulnerar sistemas, sino qué tan preparadas están las instituciones para anticiparlo.












