La nouvelle proposition de l’administration Trump sur l’intelligence artificielle (IA) vise à ce que les entreprises et les gouvernements adoptent ces technologies pour protéger les infrastructures critiques des cyberattaques. Cependant, le plan reconnaît également que les systèmes d’IA sont vulnérables aux piratages et aux manipulations. En réponse à ce fait, il est suggéré d’adopter des normes de conception « sécurisées par conception » pour atténuer les risques associés.
Un potentiel désastre en cours de développement
Le communiqué de la Maison Blanche, publié mercredi, souligne l’importance pour les propriétaires d’infrastructures critiques, en particulier ceux disposant de ressources limitées, d’implémenter des outils d’IA pour protéger leurs technologies opérationnelles et d’information. Il est mentionné que les outils d’IA peuvent être extrêmement utiles pour rester en avance sur les nouvelles menaces cybernétiques.
Malgré certains aspects positifs, comme la création d’un nouveau centre d’Analyse et d’Échange d’Informations sur l’IA dirigé par le Département de la Sécurité Nationale, le plan serait critiqué par des groupes de droits numériques. Ces derniers soutiennent que son approche pourrait mener à des applications dangereuses, tandis que les groupes d’entreprises voient dans cette position une opportunité de déréglementer le secteur de l’IA et de promouvoir l’innovation sans restrictions.
La critique principale réside dans le manque d’un cadre large qui aborde comment l’adoption massive de l’IA impactera la sécurité et la vie privée. Certaines voix d’experts remettent en question la nécessité d’une approche plus équilibrée qui ne se contente pas de promouvoir l’innovation, mais qui garantisse également la sécurité et la confiance dans les applications d’IA. Par ailleurs, le plan mentionne l’intention de revoir et de limiter les fonds fédéraux destinés aux entités qui ne suivent pas l’approche déréglementaire promue par l’administration.
Enfin, le plan a reçu des réactions mitigées, certains célébrant l’absence de réglementations strictes, tandis que d’autres mettent en garde contre les dommages potentiels qu’un déploiement irresponsable de l’IA pourrait impliquer pour la société.