Nuevo ciberataque revela vulnerabilidad en el análisis de seguridad de la IA

Un ataque informático reciente ha puesto de manifiesto una desconexión estructural entre el texto HTML y lo que los usuarios realmente ven en sus navegadores, lo que permite a los atacantes enviar instrucciones maliciosas que pasan desapercibidas para los asistentes de inteligencia artificial. Este hallazgo fue presentado por LayerX, una empresa de ciberseguridad, que demostró su técnica mediante un sitio falso de fanfiction de Bioshock. Utilizando una fuente personalizada, los atacantes pudieron ocultar un mensaje malicioso en un contenido aparentemente inofensivo.

Amenazas ocultas en HTML

El ataque reveló que, aunque los asistentes de IA como ChatGPT y Claude examinaban el HTML subyacente en busca de amenazas, carecían de la capacidad para identificar el contenido oculto que, a simple vista, parecía seguro. En este caso, el texto malicioso instaba a los usuarios a ejecutar un shell inverso en sus máquinas, mientras que el texto visible era un conjunto de caracteres ilegibles.

LayerX ha señalado que esta vulnerabilidad no requiere el uso de JavaScript ni de kits de explotación, revelando un fallo en cómo las herramientas de IA analizan la seguridad de las páginas web. Mientras los navegadores presentan la información de manera diseñada, las IAs tratan el texto del DOM como la representación completa de lo que se muestra al usuario, lo que deja un espacio que los atacantes pueden explotar.

Como respuesta a esta amenaza, LayerX recomienda que los proveedores de IA implementen análisis de renderizado dual y que traten las fuentes personalizadas como superficies de posible amenaza. Además, es vital que estas herramientas eviten emitir juicios de seguridad sin haber verificado el contexto completo de la página. Hasta ahora, Microsoft se destacó como el único proveedor que abordó plenamente el problema tras la divulgación responsable de LayerX en diciembre de 2025.