Une nouvelle cyberattaque révèle une vulnérabilité dans l'analyse de sécurité de l'IA

Une récente attaque informatique a mis en évidence une déconnexion structurelle entre le texte HTML et ce que les utilisateurs voient réellement dans leurs navigateurs, permettant aux attaquants d’envoyer des instructions malveillantes qui passent inaperçues pour les assistants d’intelligence artificielle. Cette découverte a été présentée par LayerX, une entreprise de cybersécurité, qui a démontré sa technique à l’aide d’un faux site de fanfiction de Bioshock. En utilisant une police personnalisée, les attaquants ont pu dissimuler un message malveillant dans un contenu apparemment inoffensif. Menaces cachées dans HTML L’attaque a révélé que, bien que les assistants d’IA comme ChatGPT et Claude examinaient le […]

Une récente attaque informatique a mis en évidence une déconnexion structurelle entre le texte HTML et ce que les utilisateurs voient réellement dans leurs navigateurs, permettant aux attaquants d’envoyer des instructions malveillantes qui passent inaperçues pour les assistants d’intelligence artificielle. Cette découverte a été présentée par LayerX, une entreprise de cybersécurité, qui a démontré sa technique à travers un faux site de fanfiction de Bioshock. En utilisant une police personnalisée, les attaquants ont pu dissimuler un message malveillant dans un contenu apparemment inoffensif.

Menaces cachées en HTML

L’attaque a révélé que, bien que des assistants IA comme ChatGPT et Claude examinaient le HTML sous-jacent à la recherche de menaces, ils manquaient de la capacité à identifier le contenu caché qui, à première vue, semblait sûr. Dans ce cas, le texte malveillant incitait les utilisateurs à exécuter un shell inversé sur leurs machines, tandis que le texte visible était un ensemble de caractères illisibles.

LayerX a signalé que cette vulnérabilité ne nécessite pas l’utilisation de JavaScript ni de kits d’exploitation, révélant un défaut dans la façon dont les outils d’IA analysent la sécurité des pages web. Alors que les navigateurs présentent l’information de manière conçue, les IA traitent le texte du DOM comme la représentation complète de ce qui est affiché à l’utilisateur, ce qui laisse un espace que les attaquants peuvent exploiter.

En réponse à cette menace, LayerX recommande que les fournisseurs d’IA mettent en œuvre des analyses de rendu dual et qu’ils traitent les polices personnalisées comme des surfaces de menace potentielle. De plus, il est essentiel que ces outils évitent de porter des jugements de sécurité sans avoir vérifié le contexte complet de la page. Jusqu’à présent, Microsoft s’est distingué comme le seul fournisseur à avoir pleinement abordé le problème après la divulgation responsable de LayerX en décembre 2025.