Microsoft a corrigé une grave vulnérabilité dans Azure Health Bot Service, un outil alimenté par l’intelligence artificielle qui permet aux développeurs de créer et déployer des assistants virtuels de santé. Cette faille, identifiée par Tenable, une entreprise de cybersécurité, mettait en danger l’intégrité des données confidentielles des patients, car elle permettait aux acteurs malveillants de se déplacer latéralement à travers l’infrastructure informatique des organisations de santé.
Azure Health Bot Service est conçu pour aider les organisations de santé à réduire les coûts et améliorer l’efficacité, sans compromettre la conformité réglementaire. Cependant, en travaillant avec une grande quantité d’informations sensibles, la sécurité des données devient un aspect crucial. Tenable a décidé d’analyser comment le chatbot gère la charge de travail et a découvert une série de vulnérabilités dans une fonction connue sous le nom de « Data Connections », conçue pour extraire des données d’autres services.
Bien que cet outil dispose de sauvegardes intégrées pour bloquer l’accès non autorisé aux API internes, les chercheurs ont réussi à contourner ces protections grâce à une approche technique : ils ont configuré un hôte externe contrôlé par eux-mêmes et l’ont utilisé pour émettre des réponses de redirection 301 vers le service de métadonnées Azure (IMDS).

Cette manœuvre leur a permis d’obtenir une réponse de métadonnées valide, qui contenait un jeton d’accès à management.azure.com. Avec ce jeton, ils ont pu accéder à une liste de toutes les abonnements disponibles, exposant ainsi des informations potentiellement sensibles.
Les experts de Tenable, qui ont informé Microsoft de ces découvertes il y a quelques mois, ont souligné que la vulnérabilité trouvée n’était pas due à des failles dans les modèles d’IA, mais dans l’architecture sous-jacente du service de chatbot d’IA. Après avoir pris connaissance de cela, Microsoft a agi rapidement et a corrigé la vulnérabilité dans toutes les régions concernées. Jusqu’à présent, aucune preuve n’a été trouvée que cette vulnérabilité ait été exploitée dans des environnements réels, ce qui suggère que les mesures correctives étaient efficaces et opportunes.
