Meta, la empresa madre de Facebook, ha anunciado la implementación de características adicionales de seguridad en sus modelos de lenguaje de inteligencia artificial tras la filtración de un documento interno que reveló problemas en sus políticas de conversación con menores. El documento, titulado GenAI: Content Risk Standards, mostró que se permitían conversaciones “sensuales” entre los bots de IA y niños, lo que ha generado una reacción contundente por parte de la comunidad legislativa estadounidense.
La IA, cuanto más lejos de los adolescentes mejor
El senador republicano Josh Hawley ha calificado de “reprehensible y absurda” la situación y ha iniciado una investigación oficial sobre las políticas de IA de Meta. En respuesta a las preocupaciones, la portavoz de la compañía, Stephanie Otway, declaró que los ejemplos y notas en cuestión eran erróneos y contradictorios con sus políticas, y que han sido eliminados.
Como parte de sus nuevas medidas de seguridad, Meta limitará las interacciones de sus bots de IA con adolescentes en temas sensibles como el suicidio, las autolesiones y los trastornos alimentarios, redirigiendo a los jóvenes hacia recursos expertos. Sin embargo, surgen interrogantes sobre por qué esta precaución no se implementó antes y si los bots aún podrán discutir esos temas con adultos.
Aunque se ha señalado que algunas cuentas de bots sexualizados de celebridades en la plataforma de Meta plantean preocupaciones sobre la seguridad de los usuarios jóvenes, la compañía ha afirmado que los adolescentes ya no tendrán acceso a estas interacciones. Expertos en prevención del suicidio, como Andy Burrows del Molly Rose Foundation, han criticado a Meta por no llevar a cabo pruebas de seguridad suficientes antes de lanzar sus productos, instando a la compañía a actuar de manera rápida y eficaz para proteger a los menores.
Esta situación se produce en un momento en que la preocupación pública por la seguridad de los adolescentes en entornos digitales continúa en aumento, especialmente tras el reciente suicidio de un adolescente en California, cuya familia ha demandado a OpenAI, el creador de ChatGPT, culpándolo de incitar a su hijo.