Nuevo ciberataque revela vulnerabilidad en el análisis de seguridad de la IA

Un ataque informático reciente ha puesto de manifiesto una desconexión estructural entre el texto HTML y lo que los usuarios realmente ven en sus navegadores, lo que permite a los atacantes enviar instrucciones maliciosas que pasan desapercibidas para los asistentes de inteligencia artificial. Este hallazgo fue presentado por LayerX, una empresa de ciberseguridad, que demostró su técnica mediante un sitio falso de fanfiction de Bioshock. Utilizando una fuente personalizada, los atacantes pudieron ocultar un mensaje malicioso en un contenido aparentemente inofensivo.

Amenazas ocultas en HTML

El ataque reveló que, aunque los asistentes de IA como ChatGPT y Claude examinaban el HTML subyacente en busca de amenazas, carecían de la capacidad para identificar el contenido oculto que, a simple vista, parecía seguro. En este caso, el texto malicioso instaba a los usuarios a ejecutar un shell inverso en sus máquinas, mientras que el texto visible era un conjunto de caracteres ilegibles.

LayerX ha señalado que esta vulnerabilidad no requiere el uso de JavaScript ni de kits de explotación, revelando un fallo en cómo las herramientas de IA analizan la seguridad de las páginas web. Mientras los navegadores presentan la información de manera diseñada, las IAs tratan el texto del DOM como la representación completa de lo que se muestra al usuario, lo que deja un espacio que los atacantes pueden explotar.

Como respuesta a esta amenaza, LayerX recomienda que los proveedores de IA implementen análisis de renderizado dual y que traten las fuentes personalizadas como superficies de posible amenaza. Además, es vital que estas herramientas eviten emitir juicios de seguridad sin haber verificado el contexto completo de la página. Hasta ahora, Microsoft se destacó como el único proveedor que abordó plenamente el problema tras la divulgación responsable de LayerX en diciembre de 2025.

Anthropic lanza Claude 2 con multitud de novedades

El 2023 está siendo el año de la Inteligencia Artificial en el mundo de la tecnología. Y es que actualmente hay varias compañías preparando grandes avances. Una de ellas es Anthropic, que acaba de lanzar el sistema Claude 2, y viene cargado de avances respecto a su versión anterior.

Puede que Anthropic no sea una empresa tan sonada como Open AI o Google en cuanto a la investigación de la IA, pero no por ello son menos relevantes. Claude es su IA operativa y cuenta con grandes capacidades para procesar, no sólo diálogo e información de Internet, sino también textos y documentos que nosotros le facilitemos. Y Claude 2, su versión mejorada, ya está disponible en fase Beta.

Qué destaca en Claude 2 de Anthropic

Dentro de Claude 2 encontramos grandes avances en el procesamiento de textos y documentos. Esta nueva versión permite analizar hasta cinco documentos de manera simultánea, y es capaz de procesar textos de hasta 100.000 tokens, una cifra considerable que le otorga un gran músculo como IA.

Claude 2 también cuenta con mejoras en cuanto a rendimiento y respuesta, pudiendo trabajar a un ritmo mayor y en menos tiempo. También mejora notablemente en el razonamiento y es capaz de dar respuestas más largas y detalladas. La única pega es que esta fase Beta, y de momento solo está disponible para usuarios de Estados Unidos y Reino Unido.

Las IA conversacionales son cada vez más inteligentes y avanzadas

La Inteligencia Artificial en más empresas

Dentro de la industria de la Inteligencia Artificial, también encontramos más novedades, como la inclusión de GPT-4 en ChatGPT para suscriptores de pago, o también la inminente llegada de Bard a la Unión Europea en cuanto adapte su servicio a las políticas de privacidad de nuestro territorio.

ChatGPT Descargar

Todos estos avances son fascinantes en el aspecto puramente tecnológico. Sin embargo, los marcos de legislación progresan mucho más despacio que estas tecnologías y no dejan de arrojar polémicas sobre los usos dañinos que puede implicar. También se están comenzando a registrar descensos de uso en herramientas como ChatGPT, por lo que podría ocurrir que esta burbuja alrededor de las IA explote ante un hipotético desplome de popularidad.