Les récents changements dans l’évaluation des performances des employés chez Microsoft ont suscité un large débat sur l’adoption des outils d’intelligence artificielle (IA) sur le lieu de travail. Dans un mémo interne, Julia Liuson, Vice-Présidente Corporative de la Division des Développeurs de Microsoft, a indiqué que les managers doivent évaluer leurs employés en fonction de leur utilisation des outils d’IA, considérant que leur intégration est « fondamentale » pour tous les rôles. Cette mesure a été interprétée par certains comme une manière de forcer l’adoption de technologies qui n’ont pas encore été totalement bien accueillies par les utilisateurs.
Une décision qui n’a pas été bien accueillie ni par les employés ni par les utilisateurs
Un des principaux points de controverse réside dans la fonctionnalité Recall, une caractéristique qui prend des captures d’écran des activités de l’utilisateur toutes les quelques secondes. Cette fonction a suscité des préoccupations en matière de sécurité, amenant Microsoft à se rétracter partiellement après son annonce initiale en raison de la réaction négative. Bien que l’entreprise ait travaillé pour résoudre ces problèmes, la perception négative sur la gestion de la sécurité demeure parmi les utilisateurs.
Bien que l’implémentation de l’IA vise à faciliter l’expérience utilisateur, de nombreux utilisateurs de Windows 11 ont exprimé leur mécontentement face à l’installation par défaut de Copilot, un outil qui, avec seulement 33 millions d’utilisateurs, est loin des 400 millions de ChatGPT. Les critiques affirment que Copilot est perçu comme un « bloatware » et que son imposition dans les systèmes d’exploitation est inutile et frustrante pour beaucoup.
Le manque d’intérêt de la part des utilisateurs pour Copilot soulève des questions sur la stratégie de Microsoft alors qu’elle cherche à intégrer l’IA dans son écosystème. À l’approche de 2025, l’entreprise fait face au défi non seulement de répondre aux attentes de ses employés, mais aussi de satisfaire les besoins d’un marché qui ne voit pas toujours l’IA comme une solution indispensable.