Les outils d’intelligence artificielle, comme les modèles GPT et Perplexity AI, ont révolutionné la façon dont les utilisateurs recherchent des informations en ligne. Cependant, une étude récente a révélé un problème de sécurité alarmant : ces technologies dirigent les utilisateurs vers des sites de phishing au lieu de pages de connexion légitimes. Selon la recherche menée par Netcraft, en consultant ces outils sur des URLs officielles, plus de 34 % des réponses ont pointé vers des domaines qui n’appartenaient pas aux marques correspondantes.
Un problème qui ne cesse de croître
Les chercheurs ont effectué des tests en utilisant des modèles GPT-4.1, en confiant des tâches telles que trouver le site web pour accéder aux comptes de 50 marques différentes dans des secteurs comme la finance, le commerce de détail, la technologie et les services publics. Parmi les 131 URL uniques obtenues, 64 appartenaient aux bonnes marques, tandis que 28 étaient inactives ou non enregistrées, et 5 provenaient d’entreprises légitimes mais non liées. Cette découverte souligne un risque critique à l’ère des recherches propulsées par l’IA.
Un cas réel qui illustre cette vulnérabilité est celui de Wells Fargo, où l’IA a recommandé un site frauduleux de Google comme premier résultat lors de la demande de l’URL de connexion, reléguant l’adresse légitime à un endroit secondaire. Ce type d’erreurs pourrait être exploité par des cybercriminels, qui modifient leurs stratégies pour tirer parti de ces faiblesses, comme le démontre la récente identification d’une opération complot qui utilisait une API fausse pour usurper des interfaces légitimes.
L’impact de ces vulnérabilités est significatif, en particulier pour les marques plus petites et les banques locales, qui, en raison de leur moindre présence dans les données d’entraînement des modèles de langage, sont plus susceptibles à la désinformation générée par l’IA. Cela augmente leur exposition aux tentatives de phishing qui peuvent s’avérer financièrement dévastatrices. À mesure que les moteurs de recherche adoptent ces modèles, une question préoccupante se pose concernant la sécurité et la confiance dans les résultats générés par l’intelligence artificielle.