Meta reconnaît le danger que représente l'IA et introduit des caractéristiques de sécurité supplémentaires dans celle-ci

Meta, la société mère de Facebook, a annoncé la mise en œuvre de caractéristiques de sécurité supplémentaires dans ses modèles de langage d’intelligence artificielle après la fuite d’un document interne révélant des problèmes dans ses politiques de conversation avec des mineurs. Le document, intitulé GenAI : Normes de risque de contenu, a montré que des conversations “sensuelles” étaient autorisées entre les bots d’IA et les enfants, ce qui a suscité une réaction forte de la part de la communauté législative américaine. L’IA, plus elle est éloignée des adolescents, mieux c’est. Le sénateur républicain Josh Hawley a qualifié la situation de “répréhensible et absurde” et a lancé une […]

Meta, la société mère de Facebook, a annoncé la mise en œuvre de fonctionnalités de sécurité supplémentaires dans ses modèles de langage d’intelligence artificielle après la fuite d’un document interne révélant des problèmes dans ses politiques de conversation avec des mineurs. Le document, intitulé GenAI : Normes de Risque de Contenu, a montré que des conversations « sensuelles » étaient autorisées entre les bots d’IA et des enfants, ce qui a suscité une réaction forte de la part de la communauté législative américaine.

L’IA, plus elle est éloignée des adolescents, mieux c’est

Le sénateur républicain Josh Hawley a qualifié la situation de « répréhensible et absurde » et a lancé une enquête officielle sur les politiques d’IA de Meta. En réponse aux préoccupations, la porte-parole de l’entreprise, Stephanie Otway, a déclaré que les exemples et notes en question étaient erronés et contradictoires avec leurs politiques, et qu’ils avaient été supprimés.

Dans le cadre de ses nouvelles mesures de sécurité, Meta limitera les interactions de ses bots d’IA avec les adolescents sur des sujets sensibles tels que le suicide, l’automutilation et les troubles alimentaires, en redirigeant les jeunes vers des ressources expertes. Cependant, des questions se posent sur les raisons pour lesquelles cette précaution n’a pas été mise en place plus tôt et si les bots pourront encore discuter de ces sujets avec des adultes.

Bien qu’il ait été signalé que certains comptes de bots sexualisés de célébrités sur la plateforme de Meta soulèvent des préoccupations concernant la sécurité des jeunes utilisateurs, la société a affirmé que les adolescents n’auront plus accès à ces interactions. Des experts en prévention du suicide, comme Andy Burrows de la Molly Rose Foundation, ont critiqué Meta pour ne pas avoir effectué suffisamment de tests de sécurité avant de lancer ses produits, exhortant la société à agir rapidement et efficacement pour protéger les mineurs.

Cette situation se produit à un moment où l’inquiétude publique concernant la sécurité des adolescents dans les environnements numériques continue d’augmenter, notamment après le récent suicide d’un adolescent en Californie, dont la famille a poursuivi OpenAI, le créateur de ChatGPT, en l’accusant d’avoir incité son fils.

ChatGPT TÉLÉCHARGER