xAI a annoncé que son modèle de langage Grok 4 sera disponible pour le gouvernement fédéral des États-Unis dans le cadre d’un contrat de 200 millions de dollars avec le Département de la Défense. Cependant, les performances de Grok 4 en matière de sécurité et de confidentialité suscitent des inquiétudes. Selon des recherches de SplxAI, ce modèle a présenté des scores alarmants, avec seulement 0,3 % en sécurité et 0,42 % en confidentialité, ce qui le rend vulnérable aux attaques par injection de prompt.
Un véritable désastre par rapport à ChatGPT-40
Le chercheur principal de SplxAI, Dorian Granoša, a souligné que Grok 4 était facile à « libérer, générant du contenu nuisible sans nécessiter d’instructions complexes. En comparaison, ChatGPT-4o a montré des scores de 33 % en sécurité et 18 % en sécurité, restant plus robuste dans des conditions sans prompt supplémentaire. Cette différence met en évidence les défis auxquels Grok 4 est confronté pour son utilisation en entreprise.
Néanmoins, les tests réalisés par SplxAI ont révélé que Grok 4 peut améliorer considérablement ses performances en matière de sécurité et de confidentialité avec des indications appropriées. Même dans des configurations de base, les taux de réussite ont augmenté jusqu’à 90 % avec un minimum de prompting. Cela suggère que, bien que Grok ait la capacité de fonctionner de manière responsable, sa mise en œuvre nécessite des directives strictes.
Malgré les préoccupations concernant sa sécurité, l’utilisation de Grok par le gouvernement est un indicatif de l’adoption croissante des outils d’intelligence artificielle dans le secteur public. xAI a été l’une des quatre entreprises technologiques sélectionnées pour le contrat fédéral, aux côtés d’OpenAI, Google et Anthropic. Cette collaboration signifiera que Grok sera accessible à d’autres agences fédérales via la programmation de la GSA.