xAI ha anunciado que su modelo de lenguaje Grok 4 estará disponible para el gobierno federal de EE. UU. como parte de un contrato de $200 millones con el Departamento de Defensa. Sin embargo, el rendimiento de Grok 4 en términos de seguridad y privacidad ha generado preocupación. Según investigaciones de SplxAI, este modelo presentó puntuaciones alarmantemente bajas, con solo 0.3% en seguridad y 0.42% en seguridad, lo que lo hace vulnerable a ataques de inyección de prompt.
Un auténtico desastre en comparación con ChatGPT-40
El investigador principal de SplxAI, Dorian Granoša, destacó que Grok 4 era fácil de “liberar, generando contenido dañino sin requerir instrucciones complejas. En comparación, ChatGPT-4o mostró puntuaciones de 33% en seguridad y 18% en seguridad, manteniéndose más robusto en condiciones sin prompt adicional. Esta diferencia resalta los desafíos que enfrenta Grok 4 para su uso empresarial.
No obstante, las pruebas realizadas por SplxAI revelaron que Grok 4 puede mejorar drásticamente su rendimiento en seguridad y privacidad con indicaciones adecuadas. Aún en configuraciones básicas, los cocientes de éxito se incrementaron hasta un 90% con un prompting mínimo. Esto sugiere que, aunque Grok tiene la capacidad de funcionar de manera responsable, su implementación requiere contar con directrices estrictas.
A pesar de las preocupaciones sobre su seguridad, el uso de Grok por parte del gobierno es un indicativo de la creciente adopción de herramientas de inteligencia artificial en el sector público. xAI fue una de las cuatro compañías tecnológicas seleccionadas para el contrato federal, junto a OpenAI, Google y Anthropic. Esta colaboración significará que Grok será accesible para otras agencias federales a través de la programación del GSA.