Google a présenté récemment une nouvelle technologie appelée Private AI Compute, conçue pour traiter des requêtes d’intelligence artificielle (IA) sur une plateforme sécurisée dans le cloud, garantissant la confidentialité des données de l’utilisateur.
La société affirme que ce système débloque la vitesse et la puissance des modèles de cloud Gemini, tout en garantissant que les données personnelles restent exclusivement sous le contrôle de l’utilisateur et ne soient accessibles même pas à Google.
L’infrastructure de Private AI Compute est parallèle à celle du traitement sur l’appareil, mais avec des capacités d’IA étendues, s’appuyant sur des unités de traitement de tenseurs Trillium et des enclaves d’intelligence Titanium.
Google veut imiter Apple, mais bien
Cela permet non seulement une puissance de calcul supérieure, mais assure également un environnement d’exécution fiable (TEE) qui crypte et isole la mémoire, protégeant ainsi les charges de travail des accès non autorisés.
Un des aspects les plus remarquables de ce système est son design éphémère : après la fin d’une session utilisateur, aucune information sur les requêtes précédentes n’est stockée, ce qui offre une couche supplémentaire de sécurité. Cette approche est cruciale à un moment où la protection des données est une préoccupation croissante parmi les utilisateurs de technologie.
Cependant, malgré ces avancées, le NCC Group, qui a réalisé une évaluation du système, a identifié certains risques, bien que Google considère qu’ils sont de faible risque en raison de la nature multi-utilisateur de la plateforme.
De plus, le géant technologique travaille sur des mesures pour atténuer certains problèmes rencontrés, comme des vulnérabilités dans le mécanisme d’attestation et de possibles attaques par déni de service.
Avec le lancement de Private AI Compute, Google suit une tendance similaire à celle d’entreprises comme Apple et Meta, qui ont également introduit des solutions pour le traitement de l’IA qui priorisent la confidentialité de l’utilisateur. Selon Jay Yagnik, vice-président de l’Innovation et de la Recherche en IA chez Google, « cela garantit que les données sensibles traitées par Private AI Compute restent accessibles uniquement à l’utilisateur et à personne d’autre ».