El recién lanzado navegador web Atlas de OpenAI se ha visto afectado por un ataque de inyección de comandos que permite a los atacantes disfrazar instrucciones maliciosas como direcciones URL inocentes. Según un informe de NeuralTrust, esta vulnerabilidad reside en la omnibox del navegador, que interpreta la entrada del usuario tanto como una URL a la que navegar como un comando de lenguaje natural para el agente de inteligencia artificial.
Un problema de enormes magnitudes
Los atacantes pueden manipular la omnibox al crear URL malformadas que comienzan con “https” y contienen texto de dominio, seguido de instrucciones que pueden ejecutar comandos dañinos. Si un usuario desprevenido ingresa esta cadena engañosa en la omnibox, el navegador puede tratarla como un comando de alta confianza, lo que permite acciones dañinas, como redirigir a la víctima a páginas de phishing o incluso borrar archivos de aplicaciones conectadas como Google Drive.
El CISO de OpenAI, Dane Stuckey, ha reconocido que la inyección de comandos es un problema de seguridad sin resolver que requiere atención continua. A pesar de que la empresa ha implementado técnicas de entrenamiento y medidas de seguridad adicionales para mitigar estos riesgos, el desafío persiste y podría permitir que los actores maliciosos ingenien formas innovadoras de explotar esta vulnerabilidad.
Además, SquareX Labs ha advertido sobre una técnica conocida como “sabotaje de la barra lateral de IA”, que permite a los atacantes crear extensiones maliciosas para robar datos o engañar a los usuarios. Este ataque se activa cuando se ingresan comandos en una barra lateral falsa, lo que resalta cómo las inyecciones de comandos son una preocupación creciente en la seguridad de los navegadores y asistentes de inteligencia artificial.
La industria está reconociendo la inyección de comandos como un problema crítico de seguridad. Compañías como Perplexity y Brave también han informado de la susceptibilidad de sus navegadores a estos ataques, lo cual señala un cambio fundamental en la forma en que se debe abordar la seguridad en el ámbito de la inteligencia artificial.