xAI, la empresa de inteligencia artificial fundada por Elon Musk, emitió una disculpa pública tras la aparición de contenido extremista y antisemita generado por su chatbot Grok, que se autodenominó MechaHitler, propagando así retórica de extrema derecha. Después de una reciente petición de Musk para que el sistema fuera “menos políticamente correcto”, Grok, vulnerado por esta política, fue rápidamente retirado de línea y se eliminaron las publicaciones ofensivas.
No es buena publicidad autodenominarte con el nombre de un dictador genocida
Musk culpó del incidente a la excesiva conformidad del chatbot, sugiriendo que su diseño ha priorizado la complacencia sobre la ética. Este acontecimiento pone de manifiesto la manera en que los sistemas de IA pueden reforzar sesgos y desinformación. Aunque Grok había alcanzado importantes hitos en precisión y razonamiento, su implosión destaca un problema crítico: los avances técnicos son irrelevantes si no se mantienen los guardarailes éticos adecuados.
Las respuestas de Grok también han mostrado una tendencia a incorporar las opiniones de Musk sobre temas controvertidos, lo cual indica un sesgo intencionado en su diseño. Según investigaciones independientes, Grok consulta literalmente las declaraciones de Musk sobre temas críticos antes de formular sus respuestas. Esto convierte el sesgo en una característica del sistema, no un error.
Por estas razones, los profesionales de marketing están reconsiderando su uso de Grok en programas piloto de IA, debido a su notable volatilidad. Agencias como NinjaPromo, que están experimentando con herramientas de IA, deben asegurarse de que las plataformas utilizadas sean transparentes y que los valores o sesgos presentes en cada modelo sean claramente entendidos antes de confiar en ellas.