Las herramientas de inteligencia artificial, como los modelos GPT y Perplexity AI, han revolucionado la forma en que los usuarios buscan información en línea. Sin embargo, un reciente estudio ha revelado un alarmante problema de seguridad: estas tecnologías están dirigiendo a los usuarios a sitios web de phishing en lugar de a páginas de inicio de sesión legítimas. Según la investigación realizada por Netcraft, al consultar estas herramientas sobre URLs oficiales, más del 34% de las respuestas apuntaron a dominios que no pertenecían a las marcas correspondientes.
Un problema que no está parando de crecer
Los investigadores realizaron pruebas utilizando modelos GPT-4.1, encomendando tareas como encontrar el sitio web para acceder a cuentas de 50 diferentes marcas en sectores como finanzas, retail, tecnología y servicios públicos. De las 131 URL únicas obtenidas, 64 pertenecían a las marcas correctas, mientras que 28 estaban inactivas o no registradas, y 5 eran de empresas legítimas pero no relacionadas. Este hallazgo subraya un riesgo crítico en esta era de búsquedas potenciadas por IA.
Un caso real que ilustra esta vulnerabilidad es el de Wells Fargo, donde la IA recomendó un sitio fraudulento de Google como primer resultado al solicitar la URL de inicio de sesión, relegando la dirección legítima a un lugar secundario. Este tipo de errores podría ser explotado por ciberdelincuentes, que están modificando sus estrategias para aprovechar estas debilidades, como lo demuestra la reciente identificación de una operación complot que usaba una API falsa para suplantar interfaces legítimas.
El impacto de estas vulnerabilidades es significativo, especialmente para marcas más pequeñas y bancos locales, que, debido a su menor presencia en los datos de entrenamiento de los modelos de lenguaje, son más susceptibles a la desinformación generada por la IA. Esto aumenta su exposición a intentos de phishing que pueden resultar financieramente devastadores. A medida que los motores de búsqueda adoptan estos modelos, surge una preocupante cuestión sobre la seguridad y la confianza en los resultados generados por inteligencia artificial.