INF Tech, une startup chinoise basée à Shanghai, a réussi à accéder à 2 300 GPU interdites de Nvidia, par l’intermédiaire de l’opérateur indonésien Indosat Ooredoo Hutchison. Cet accord, qui représente une transaction d’environ 100 millions de dollars, a suscité des inquiétudes concernant la légalité et la transparence de l’accès à la technologie américaine par des entreprises chinoises, en particulier dans un contexte de tensions politiques entre les États-Unis et la Chine. Selon des rapports, INF Tech a collaboré avec Aivres, un partenaire de Nvidia, qui serait lié à Inspur, une entreprise chinoise figurant sur la liste noire du gouvernement américain. Un business qui […]
INF Tech, une startup chinoise basée à Shanghai, a réussi à accéder à 2 300 GPU interdites de Nvidia, grâce à l’opérateur indonésien Indosat Ooredoo Hutchison.
Cet accord, qui représente une transaction d’environ 100 millions de dollars, a suscité des préoccupations concernant la légalité et la transparence de l’accès à la technologie américaine par des entreprises chinoises, notamment dans un contexte de tensions politiques entre les États-Unis et la Chine.
D’après des rapports, INF Tech a collaboré avec Aivres, un partenaire de Nvidia, qui serait lié à Inspur, une entreprise chinoise sur la liste noire du gouvernement américain.
WSJ just dropped another strong investigation on how China is exploiting loopholes in U.S. export controls. To summarize what is happening and the loopholes that China is exploiting:
1️⃣ Nvidia ships Blackwell AI chips to Aivres Systems, a U.S.-based company that is 100% owned…
Aivres, qui n’a pas révélé une structure de propriété claire, a acquis 32 racks de serveurs Nvidia GB200, chacun avec 72 puces Blackwell, les vendant par la suite à Indosat. Ce mouvement a suscité des critiques, car il existe la perception que des entreprises chinoises pourraient contourner des réglementations pour accéder à des technologies sensibles.
Malgré les préoccupations, des experts juridiques affirment que l’accès est légal, étant donné que les contrats ont été signés entre des entités qui ne figurent pas sur la liste des restrictions commerciales des États-Unis.
USA restrict buying AI chips to china. So, Indosat, the Indonesian telecom company, the joint venture between Qatari and Hong Kong ones, buy Blackwell chips of Nvidia from Aivres then do bisness with INF Tech- the Shanghai based company. The world is so complicated to regulate. pic.twitter.com/DcttrP3oQl
Indosat a défendu sa décision, en soulignant qu’elle respecte les réglementations et que tout client international, qu’il soit des États-Unis ou de Chine, doit se conformer aux normes établies.
Nvidia, de son côté, a plaidé pour des contrôles d’exportation plus flexibles, arguant que permettre l’accès à sa technologie est essentiel pour maintenir son leadership dans le secteur. L’entreprise a affirmé que son équipe de conformité a approuvé ses partenaires avant que les expéditions ne soient effectuées, soutenant que les restrictions actuelles nuisent à l’innovation et profitent à des concurrents étrangers.
OpenAI a lancé une mise à jour de son modèle phare, GPT-5.1, qui présente deux variantes et offre désormais huit tons de conversation différents, allant de “professionnel” à “cynique”. Cette nouveauté reflète un besoin croissant de segmenter son IA pour répondre aux attentes variées de ses 800 millions d’utilisateurs. Alors que certains recherchent un assistant neutre et efficace, d’autres préfèrent une interaction plus chaleureuse et empathique. Cependant, l’utilisation de multiples tons ne résout pas un problème fondamental : ChatGPT continue de fonctionner comme une entité cohérente, ce qui a soulevé des préoccupations concernant les risques de développer des liens émotionnels problématiques entre les utilisateurs […]
OpenAI a lancé une mise à jour de son modèle phare, GPT-5.1, qui propose deux variantes et offre désormais huit tons de conversation différents, allant de « professionnel » à « cynique ».
Cette nouveauté reflète un besoin croissant de segmenter son IA pour répondre aux attentes variées de ses 800 millions d’utilisateurs. Alors que certains recherchent un assistant neutre et efficace, d’autres préfèrent une interaction plus chaleureuse et empathique.
Cependant, l’utilisation de multiples tons ne résout pas un problème fondamental : ChatGPT continue de fonctionner comme une entité cohérente, ce qui soulève des préoccupations concernant les risques de développer des liens émotionnels problématiques entre les utilisateurs et l’IA.
GPT-5.1 is out! It's a nice upgrade.
I particularly like the improvements in instruction following, and the adaptive thinking.
The intelligence and style improvements are good too.
Ce risque a fait l’objet d’un intense examen réglementaire, notamment après plusieurs rapports d’utilisateurs vulnérables ayant développé une dépendance émotionnelle envers le chatbot.
Malgré les nouvelles fonctionnalités, OpenAI a admis que la vitesse de lancement de GPT-5.1 a eu un coût en matière de sécurité, présentant des “régressions de sécurité” par rapport à sa version précédente.
L’entreprise a priorisé le temps de mise sur le marché par rapport aux tests approfondis, ce qui est préoccupant à un moment où elle fait face à une analyse critique de ses pratiques de sécurité et d’éthique.
GPT-5.1 in ChatGPT is rolling out to all users this week.
La personnalisation dans le nouveau modèle a également ses limites. OpenAI a reconnu que, poussée à l’extrême, la personnalisation pourrait renforcer des visions du monde existantes, ce qui soulève un dilemme entre l’engagement commercial et la responsabilité sociale.
Cette approche fragmentée émerge en réponse à l’échec de son précédent modèle de « une IA pour tous », avec GPT-5 décevant les utilisateurs et entraînant la réactivation de GPT-4o comme option au sein de l’écosystème d’OpenAI.
Arc Raiders s’est imposé comme l’une des expériences en ligne les plus appréciées de ces dernières années, soutenue par des critiques positives tant des utilisateurs que de la presse, ainsi que par des performances de vente remarquables. Ce succès sans précédent a récemment été terni par la controverse entourant l’utilisation de l’intelligence artificielle (IA) dans son développement, suscitant des débats sur l’éthique et la créativité dans l’industrie du jeu vidéo. Le PDG de Nexon, Junghun Lee, a défendu l’utilisation d’outils d’IA lors d’une interview, affirmant que ces technologies ont considérablement optimisé les processus de […]
Arc Raiders s’est imposé comme l’une des expériences en ligne les plus appréciées de ces dernières années, soutenue par des critiques positives tant des utilisateurs que de la presse, ainsi que par des performances de vente remarquables.
Ce succès sans précédent a récemment été terni par la controverse entourant l’utilisation de l’intelligence artificielle (IA) dans son développement, suscitant des débats sur l’éthique et la créativité dans l’industrie des jeux vidéo.
Le PDG de Nexon, Junghun Lee, a défendu l’utilisation d’outils d’IA lors d’une interview, affirmant que ces technologies ont considérablement optimisé à la fois les processus de développement et les opérations dans des titres en tant que service.
Rich PvE combat and an unusually friendly community make Arc Raiders a more approachable extraction shooter than most, but Embark Studios' continued use of AI voice generation is a black mark against its reputation.
« Nous utilisons tous l’IA », expliquent les membres de l’équipe de développement
Lee a souligné que toutes les entreprises adoptent ce type de technologie, dont l’implémentation dans Arc Raiders inclut la narration de textes et l’utilisation des voix d’acteurs de doublage à partir de leur propre enregistrement.
Selon Lee, l’IA a permis d’apporter des changements plus rapides et de réduire les coûts, ce qui a suscité des critiques sur ses implications éthiques.
Malgré la controverse, les développeurs insistent sur le fait que la créativité reste le facteur différenciateur qui renforce la compétitivité dans le secteur, une déclaration qui semble défier l’inquiétude selon laquelle l’utilisation intensive de l’IA pourrait saper l’essence du développement de jeux vidéo.
Nexon CEO Junghun Lee says it's key to assume all game companies now use AI, boosting efficiency but raising the question: how to stay competitive?
He stresses human creativity remains crucial amid AI's rise in game development.
Patrick Söderlund, le leader d’Embark Studios, a souligné précédemment que, bien que les machines puissent aider, le facteur humain reste fondamental et qu’on ne peut pas s’attendre à ce qu’une IA produise de l’art authentique.
En plus des discussions sur l’IA, Arc Raiders a fait face à des critiques concernant les prix et la qualité des objets cosmétiques proposés. Cependant, les plaintes les plus médiatisées se sont concentrées sur son utilisation de l’intelligence artificielle, ce qui soulève des doutes sur les directions futures que prendra l’industrie.
Pour l’instant, il semble que ces préoccupations n’ont pas affecté de manière significative la décision d’achat des utilisateurs ni la position d’Embark Studios dans ce débat.
Matthew McConaughey et Michael Caine ont fait un pas significatif en collaborant avec ElevenLabs, une entreprise d’intelligence artificielle, pour reproduire leurs voix iconiques. Cette initiative s’inscrit dans une tendance croissante dans l’industrie du divertissement, où des acteurs et des cinéastes adoptent l’IA dans l’espoir de protéger leur héritage et d’éviter que d’autres n’utilisent leur image sans autorisation. Depuis 2022, McConaughey est associé à ElevenLabs, s’impliquant non seulement en tant que collaborateur, mais aussi en tant qu’investisseur. Une trahison envers ses collègues de profession ? Ce partenariat récent place leurs voix sur la plateforme Iconic Voice Marketplace, un espace qui […]
Matthew McConaughey et Michael Caine ont franchi une étape significative en collaborant avec ElevenLabs, une entreprise d’intelligence artificielle, pour reproduire leurs voix emblématiques.
Cette initiative s’inscrit dans une tendance croissante dans l’industrie du divertissement, où des acteurs et des cinéastes adoptent l’IA dans l’espoir de protéger leur héritage et d’éviter que d’autres n’utilisent leur image sans autorisation.
Depuis 2022, McConaughey est associé à ElevenLabs, s’impliquant non seulement en tant que collaborateur, mais aussi en tant qu’investisseur.
Matthew McConaughey and Michael Caine have teamed with AI audio company ElevenLabs to produce AI replications of their famous voices.
"To everyone building with voice technology: keep going. You’re helping create a future where we can look up from our screens and connect through… pic.twitter.com/LSybcy8gWq
Cette récente association place leurs voix sur la plateforme Iconic Voice Marketplace, un espace qui permet à différentes entreprises d’utiliser les voix de McConaughey et Caine dans divers projets, tels que des narrations de livres ou des lectures d’articles.
Parmi les nouvelles « acquisitions » d’ElevenLabs se trouvent également les voix légendaires d’artistes décédés comme Judy Garland et John Wayne, ce qui soulève un avenir où les œuvres classiques pourraient être réimaginées avec ces voix iconiques.
Malgré cette collaboration, l’industrie cinématographique montre un scepticisme notable envers l’utilisation de l’intelligence artificielle pour la création de contenu. De nombreux professionnels du cinéma résistent à l’idée, craignant que l’IA puisse dénaturer la créativité humaine.
Michael Caine says licensing his voice to Matthew Mcconaughey-backed AI audio company is "using innovation not to replace humanity, but to celebrate it." https://t.co/DAMoYpf31fpic.twitter.com/dkrLgJUFYz
Cependant, ElevenLabs s’efforce de traiter les problèmes éthiques qui émergent de l’utilisation de voix générées par IA, en garantissant que ces voix soient licenciées et qu’elles aient le consentement de leurs propriétaires ou héritiers, dans le cas d’artistes décédés.
Cette nouvelle direction de McConaughey et Caine pourrait ouvrir la porte à de nouvelles interprétations et narrations qui défient les conventions actuelles, malgré la résistance générale dans le secteur. La capacité d’écouter une version de ‘Hamlet’ narrée par des voix classiques pourrait n’être que le début d’une nouvelle ère dans l’expérience culturelle.
Google a récemment présenté une nouvelle technologie appelée Private AI Compute, conçue pour traiter des requêtes d’intelligence artificielle (IA) sur une plateforme sécurisée dans le cloud, garantissant la confidentialité des données de l’utilisateur. La société affirme que ce système débloque la vitesse et la puissance des modèles de cloud Gemini, tout en s’assurant que les données personnelles restent exclusivement sous le contrôle de l’utilisateur et ne soient accessibles même pas à Google. L’infrastructure de Private AI Compute est parallèle à celle du traitement sur l’appareil, mais avec des capacités IA étendues, s’appuyant sur des unités de traitement […]
Google a présenté récemment une nouvelle technologie appelée Private AI Compute, conçue pour traiter des requêtes d’intelligence artificielle (IA) sur une plateforme sécurisée dans le cloud, garantissant la confidentialité des données de l’utilisateur.
La société affirme que ce système débloque la vitesse et la puissance des modèles de cloud Gemini, tout en garantissant que les données personnelles restent exclusivement sous le contrôle de l’utilisateur et ne soient accessibles même pas à Google.
L’infrastructure de Private AI Compute est parallèle à celle du traitement sur l’appareil, mais avec des capacités d’IA étendues, s’appuyant sur des unités de traitement de tenseurs Trillium et des enclaves d’intelligence Titanium.
Google is introducing its own version of Apple’s private AI cloud compute https://t.co/1VHNdUQMa6
Cela permet non seulement une puissance de calcul supérieure, mais assure également un environnement d’exécution fiable (TEE) qui crypte et isole la mémoire, protégeant ainsi les charges de travail des accès non autorisés.
Un des aspects les plus remarquables de ce système est son design éphémère : après la fin d’une session utilisateur, aucune information sur les requêtes précédentes n’est stockée, ce qui offre une couche supplémentaire de sécurité. Cette approche est cruciale à un moment où la protection des données est une préoccupation croissante parmi les utilisateurs de technologie.
Cependant, malgré ces avancées, le NCC Group, qui a réalisé une évaluation du système, a identifié certains risques, bien que Google considère qu’ils sont de faible risque en raison de la nature multi-utilisateur de la plateforme.
De plus, le géant technologique travaille sur des mesures pour atténuer certains problèmes rencontrés, comme des vulnérabilités dans le mécanisme d’attestation et de possibles attaques par déni de service.
Avec le lancement de Private AI Compute, Google suit une tendance similaire à celle d’entreprises comme Apple et Meta, qui ont également introduit des solutions pour le traitement de l’IA qui priorisent la confidentialité de l’utilisateur. Selon Jay Yagnik, vice-président de l’Innovation et de la Recherche en IA chez Google, « cela garantit que les données sensibles traitées par Private AI Compute restent accessibles uniquement à l’utilisateur et à personne d’autre ».
Microsoft a révélé quelques détails préliminaires sur une « nouvelle classe d’agents d’IA » qui, selon l’entreprise, pourront améliorer la main-d’œuvre existante en prenant en charge certaines des tâches administratives les plus répétitives. Les prochains « utilisateurs agéntiques » seront précisément cela, des utilisateurs, avec leur « propre identité » et « accès dédié aux systèmes et applications de l’organisation ». Microsoft promet également que les utilisateurs agéntiques pourront « collaborer avec des humains et d’autres agents », diversifiant ainsi l’effectif au-delà des êtres humains. Les utilisateurs agéntiques, l’avenir de l’IA ? Selon ce qui est indiqué dans la feuille de route de Microsoft 365, […]
Microsoft a révélé quelques détails préliminaires sur une « nouvelle classe d’agents d’IA » qui, selon l’entreprise, pourra améliorer la main-d’œuvre existante en prenant en charge certaines des tâches administratives les plus répétitives.
Les prochains « utilisateurs agentiques » seront précisément cela, des utilisateurs, avec leur « propre identité » et un « accès dédié aux systèmes et applications de l’organisation ».
Microsoft promet également que les utilisateurs agents pourront « collaborer avec des humains et d’autres agents », diversifiant ainsi l’équipe au-delà des êtres humains.
Announcing Microsoft Agent Framework in Azure AI Foundry.
As agentic AI adoption accelerates, managing multi-agent systems is harder than ever. The framework helps devs build, observe, and govern responsibly—at scale.
Selon ce qui est indiqué dans la feuille de route de Microsoft 365, sous le titre « Microsoft Teams : Découverte et création d’utilisateurs agents depuis Teams et M365 Agent Store », la mise à jour en cours fait référence à un lancement en novembre 2025.
«Ces agents peuvent assister à des réunions, éditer des documents, communiquer par e-mail et chat, et effectuer des tâches de manière autonome», a ajouté Redmond.
Peut-être, alors, que la vision du futur récemment déclarée par le PDG de Salesforce, Marc Benioff, a finalement du sens : après avoir affirmé que les PDG d’aujourd’hui seront les derniers à gérer uniquement des humains, toutes les générations futures auront également la tâche de gérer des agents d’IA comme partie de leur personnel.
Le spécialiste des licences Microsoft, Rich Gibbons, suggère que ces utilisateurs d’Agentic pourraient avoir leur propre identité au sein des annuaires de l’organisation via Entra ID ou Azure ID, y compris leurs propres adresses e-mail et comptes Teams.
Gibbons souligne également qu’il pourrait être nécessaire d’avoir des licences séparées pour Agent 365, bien qu’il ne soit pas clair comment celles-ci coexisteront avec l’utilisation des crédits de Copilot. Peut-être que Copilot se distinguera comme une aide humaine, tandis que les utilisateurs d’Agentic deviendront une catégorie totalement séparée.
Avec Microsoft Ignite au coin de la rue, du 18 au 21 novembre 2025, il est possible que les utilisateurs d’Agentic se lancent alors, mais pour l’instant, il ne nous reste plus qu’à imaginer à quoi pourrait ressembler ce nouveau type de lieu de travail hybride.
Qu’est-ce que l’IA agentique ou l’IA des agents ?
L’IA agentive est une forme avancée d’ intelligence artificielle axée sur la prise de décisions et l’action autonome. Contrairement à l’IA traditionnelle, qui répond principalement à des commandes ou analyse des données, l’IA générative peut fixer des objectifs, planifier et exécuter des tâches avec une intervention humaine minimale.
Cette technologie émergente a le potentiel de révolutionner plusieurs secteurs en automatisant des processus complexes et en optimisant les flux de travail.
IA générative vs IA d’agents
Bien que l’IA d’agent et l’ IA générative soient toutes deux des formes d’intelligence artificielle et puissent être utilisées ensemble, elles ont des fonctionnalités distinctes.
L’IA générative, comme son nom l’indique, se concentre sur la création de contenu nouveau, comme du texte, des images, du code ou de la musique, à partir de demandes. Les LLM sont le cœur de l’IA générative, et la valeur se génère à partir de ce que le modèle peut faire et des extensions simples des capacités des LLM. Par exemple, vous pouvez générer ou éditer du contenu, et même effectuer des appels à des fonctions simples et enchaîner plusieurs options.
L’IA agentive est un sous-ensemble de l’IA générative qui se concentre sur l’orchestration et l’exécution d’agents utilisant des LLM comme « cerveau » pour réaliser des actions à travers des outils. L’IA agentive va au-delà de la création de contenu et de l’invocation de fonctions, car elle exécute des actions dans les systèmes sous-jacents pour atteindre des objectifs de niveau supérieur.
Par exemple, l’IA générative pourrait être utilisée pour créer des matériaux marketing, tandis que l’IA agentive pourrait être utilisée pour déployer ces matériaux, surveiller leur performance et ajuster automatiquement la stratégie marketing en fonction des résultats. De cette manière, l’IA agentive peut utiliser l’IA générative comme outil pour atteindre ses objectifs.
Une étude récente d’Enhancv a remis en question le mythe persistant selon lequel les Systèmes de Suivi des Candidats (ATS) rejettent automatiquement la plupart des CV avant qu’ils ne soient examinés par un humain. Lors d’entretiens avec 25 recruteurs et professionnels des ressources humaines aux États-Unis, 92 % des répondants ont indiqué que leurs systèmes ne rejettent pas automatiquement les CV en fonction du format ou du contenu. La principale cause de rejet, selon eux, est le volume écrasant de candidatures et l’opportunité de présentation. Ce n’est pas l’IA : c’est l’excès de candidats. Le rapport, intitulé “Le Mythe du Rejet par […]
Une étude récente d’Enhancv a remis en question le mythe persistant selon lequel les Systèmes de Suivi des Candidatures (ATS) rejettent automatiquement la plupart des CV avant qu’ils ne soient examinés par un humain.
Lors d’entretiens avec 25 recruteurs et professionnels des ressources humaines aux États-Unis, 92 % des personnes interrogées ont indiqué que leurs systèmes ne rejettent pas automatiquement les CV en fonction du format ou du contenu.
La principale raison du rejet, selon les informations, est le volume écrasant de demandes et l’opportunité de présentation.
Le rapport, intitulé « Le Mythe du Rejet par ATS », offre une vision plus claire sur le fonctionnement des processus de recrutement en pratique. La plupart des plateformes modernes d’ATS fonctionnent comme des outils organisationnels et seule une petite fraction est configurée pour effectuer des filtrages automatiques. Parmi l’ensemble des recruteurs interrogés, à peine 8 % utilisent des systèmes stricts qui appliquent des seuils de correspondance.
L’étude révèle également que l’utilisation de scores basés sur l’intelligence artificielle (IA) a un impact limité sur le processus de décision en matière de recrutement.
Choose your fighter:
1. A human recruiter who’s main skill is control+f keywords in your resume
Bien que 44 % des recruteurs mentionnent que leur logiciel inclut des outils de notation, plus de la moitié désactive ou ignore ces métriques. Seul 8 % considère ces scores comme décisifs pour leur processus de sélection.
La grande majorité des personnes interrogées s’accorde à dire qu’un format clair et concis est crucial. Les CV excessivement stylisés ou générés par IA sont perçus négativement, tandis que les présentations personnalisées et le contact via LinkedIn peuvent aider les candidats à se démarquer.
L’étude souligne également que 68 % des recruteurs attribuent la propagation du mythe à des publications sur les réseaux sociaux, alimentant ainsi la demande de services qui promettent d’être « à l’épreuve des ATS ».
Chen Deli, chercheur senior de DeepSeek, a suscité l’alarme dans le domaine technologique chinois en exprimant son scepticisme sur l’impact social de l’intelligence artificielle (IA). Lors de son intervention à la Conférence Mondiale sur Internet à Wuzhen, Chen a admis être “extrêmement positif sur la technologie”, mais pessimiste quant à son influence sur l’emploi, soulignant que dans un ou deux lustres, l’IA pourrait commencer à remplacer des emplois humains, ce qui représenterait un “énorme défi” pour la société. Ce discours marque un tournant notable, considérant que DeepSeek est perçu comme un symbole de la capacité technologique de la Chine et […]
Chen Deli, chercheur senior chez DeepSeek, a suscité l’alarme dans le domaine technologique chinois en exprimant son scepticisme sur l’impact social de l’intelligence artificielle (IA).
Lors de son intervention à la Conférence Mondiale sur Internet à Wuzhen, Chen a admis être « extrêmement positif sur la technologie », mais pessimiste quant à son influence sur l’emploi, soulignant que dans un ou deux lustres, l’IA pourrait commencer à remplacer des emplois humains, ce qui représenterait un « énorme défi » pour la société.
Ce discours marque un tournant notable, étant donné que DeepSeek est considéré comme un symbole de la capacité technologique de la Chine et a été au centre de l’attention après le lancement de son modèle de langage R1.
For the first time, DeepSeek has begun warning about AI risk
"Chen said he was pessimistic about [AGI's] overall impact on society."
“Humans will be freed from work, which might sound good but will actually shake society to its core.”
Xi Jinping a proposé la création d’un organisme mondial pour réguler l’IA
La déclaration de Chen contraste avec l’optimisme habituel du discours officiel chinois, soulignant la nécessité d’une approche réglementaire plus préventive plutôt que de l’ancienne narration triomphaliste.
Dans ce contexte, Xi Jinping a proposé la création d’un organisme mondial pour réguler l’IA, suggérant que cette technologie devrait être considérée comme un bien public international.
Ce changement dans la narration reflète une préoccupation croissante pour les risques professionnels que l’IA pourrait engendrer et suggère que des entreprises technologiques comme DeepSeek joueront un rôle crucial en tant que défenseurs dans cette transition.
🤖 Most Popular AI Apps Worldwide by Monthly Active Users – April 2025
1.🇺🇸 ChatGPT — 546.15 M 2.🇨🇳 Quark — 149.1 M 3.🇨🇳 Doubao — 107.28 M 4.🇨🇳 DeepSeek — 96.88 M 5.🇺🇸 Nova — 71.45 M 6.🇨🇳 Yuanbao — 41.43 M 7.🇺🇸 Genius AI — 40.9 M 8.🇺🇸 Talkie — 34.89 M 9.🇺🇸 Remini — 33.26 M 10.🇺🇸… pic.twitter.com/E3QKbgw17m
Malgré les risques soulignés par Chen, DeepSeek continue de se consolider comme un pilier de l’écosystème de l’IA en Chine, collaborant avec des fabricants de matériel comme Huawei et lançant de nouveaux modèles qui défient des produits comme les APU de NVIDIA.
Des rumeurs suggèrent qu’à mesure que l’entreprise progresse, il pourrait y avoir davantage d’annonces concernant son avenir sur le marché technologique, ce qui pourrait influencer le paysage de l’IA à l’échelle mondiale.
Meta a annoncé son engagement à investir 600 milliards de dollars dans les infrastructures, l’intelligence artificielle et la création d’emplois aux États-Unis d’ici 2028. Cet investissement significatif fait partie d’un plan plus large visant à “renforcer le leadership technologique de l’Amérique” et à positionner l’entreprise comme un modèle en matière de durabilité et de développement communautaire. Dans le cadre de cette stratégie, l’entreprise prévoit de construire davantage de centres de données d’IA dans le pays, ce qui soutiendra non seulement les économies locales, mais générera également des milliers d’emplois. Il est clair que tout l’argent va pour […]
Meta a annoncé son engagement à investir 600 milliards de dollars dans l’infrastructure, l’intelligence artificielle et la création d’emplois aux États-Unis d’ici 2028.
Cet investissement significatif fait partie d’un plan plus large visant à « renforcer le leadership technologique de l’Amérique » et à positionner l’entreprise comme un référent en matière de durabilité et de développement communautaire.
Dans le cadre de cette stratégie, l’entreprise prévoit de construire davantage de centres de données d’IA dans le pays, ce qui soutiendra non seulement les économies locales, mais générera également des milliers d’emplois.
.@Meta CEO Mark Zuckerberg tells @POTUS his company will invest "at least $600 billion" in the U.S. over the next several years "to build out data centers and infrastructure to power the next wave of innovation." pic.twitter.com/0lxkQ845v6
Il est clair que tout l’argent va pour renforcer l’IA
Depuis 2010, Meta a contribué à la création de plus de 30 000 emplois dans le commerce spécialisé, en consacrant environ 20 milliards de dollars à des entrepreneurs américains.
L’approche durable de Meta se reflète dans sa promesse d’utiliser 100 % d’énergie provenant de sources propres et renouvelables dans ses opérations. De plus, la société vise à être « positive en eau » d’ici 2030, en récupérant de l’eau dans les bassins versants des zones où se trouvent ses centres de données.
À cet égard, Meta a informé avoir investi « des centaines de millions » dans l’amélioration de l’infrastructure électrique américaine, augmentant la capacité des réseaux de 15 gigawatts.
Zuckerberg: Will invest around $600B by 2028
– Zuckerberg says Meta will invest ~$600B in AI infra by 2028.
– Meta already guided CapEx of $70B in 2025 and ~$100B in 2026.
– To actually reach $600B, spending would need to jump to ~$200B in 2027 and ~$300B in 2028. pic.twitter.com/cPt2s7s4Fd
Malgré ces engagements, le marché a réagi négativement : l’action de Meta a chuté de plus de 17 % suite à l’annonce de ses résultats du dernier trimestre, malgré une augmentation de 26 % de ses revenus. Ce décalage met en évidence les défis auxquels l’entreprise est confrontée, même si elle surpasse des concurrents comme OpenAI et Apple, qui ont promis des investissements de 500 milliards de dollars.
Meta a également souligné son engagement envers la communauté en faisant don de 58 millions de dollars à des écoles et des projets locaux à travers son programme de subventions, ce qui renforce son rôle en tant qu’acteur clé dans le développement socio-économique régional.
Lors de sa première saison des ouragans, l’IA révolutionnaire Deepmind de Google n’a pas seulement égalé des décennies d’expérience humaine, mais a également surpassé les résultats de deux des superordinateurs les plus avancés au monde. Alors que le Centre national des ouragans et les agences de prévision météorologique mondiales traitent les données de vérification finales, la question n’est plus de savoir si l’IA peut faire des prévisions météorologiques, mais combien de temps les méthodes traditionnelles mettront à s’adapter ou à disparaître complètement. Alors que la saison des ouragans de l’Atlantique 2025 touche à sa fin, les premières évaluations […]
Lors de sa première saison des ouragans, l’IA révolutionnaire Deepmind de Google n’a pas seulement égalé des décennies d’expérience humaine, mais a également surpassé les résultats de deux des modèles de superordinateurs les plus avancés au monde.
Alors que le Centre National des Ouragans et les agences de prévision météorologique mondiales traitent les données de vérification finales, la question n’est plus de savoir si l’IA peut faire des prévisions météorologiques, mais combien de temps les méthodes traditionnelles mettront à s’adapter ou à disparaître complètement.
Alors que la saison des ouragans de l’Atlantique 2025 touche à sa fin, les premières évaluations des performances des modèles révèlent un changement dans la fiabilité des prévisions qui pourrait redéfinir la météorologie.
With the Atlantic hurricane season nearly over, a new champion has emerged in predicting both track and intensity of hurricanes: Google DeepMind.
According to preliminary analysis by Brian McNoldy, a senior researcher at the University of Miami, Google's AI models had the lowest… pic.twitter.com/tXyCB1qBQH
L’IA peut résoudre de véritables défis technologiques et sauver des vies
Le Laboratoire Météorologique de Google DeepMind, qui a commencé à émettre des prévisions de cyclones tropicaux en juin, a largement surpassé les modèles traditionnels basés sur la physique utilisés par les agences météorologiques nationales.
Les météorologues et les chercheurs qui examinent les données préliminaires affirment que les résultats représentent le premier défi sérieux en décennies à la domination mondiale des systèmes de prévision météorologique numérique, comme le Système de Prévision Globale du Service Météorologique National des États-Unis.
Google’s new weather model impressed during its first hurricane season https://t.co/ZSH8zj5Al6
Le climatologue de l’Université de Miami, Brian McNoldy, a analysé la précision des prévisions de 13 tempêtes nommées durant cette saison.
Sa comparaison préliminaire montre que le modèle d’IA de DeepMind a systématiquement produit des erreurs de position moyennes inférieures à celles du GFS des États-Unis sur des intervalles de prévision allant jusqu’à 5 jours. Selon ses calculs, l’erreur de suivi de DeepMind à 120 heures était en moyenne de 165 milles nautiques, contre 360 milles nautiques pour le GFS, ce qui représente une différence de plus du double.
Le contraste est particulièrement significatif si l’on prend en compte les approches techniques qui sous-tendent chaque système. Le GFS repose sur des équations physiques explicites qui simulent le mouvement atmosphérique en trois dimensions, et il s’exécute sur des superordinateurs à grande échelle de la NOAA avec des cycles fréquents d’assimilation des données.
Le système de DeepMind, en revanche, est un réseau de neurones entraîné avec des décennies de données météorologiques archivées, ce qui lui permet d’inférer des motifs atmosphériques de manière statistique plutôt qu’à partir de principes physiques de base. Son architecture peut fournir des prévisions en quelques minutes sur des clusters de GPU standard, éliminant ainsi le besoin d’une infrastructure informatique massive.
Google DeepMind & Google Research are collaborating up with National Hurricane Center to improve cyclone forecasting using AI. Their new model predicts cyclone path, size and intensity faster and more accurately than traditional methods even spotting storms up to 7 days before. pic.twitter.com/YmbkyMmzPH
Le modèle de DeepMind a non seulement surpassé les résultats individuels du modèle GFS, mais il a également dépassé les prévisions officielles générées par des humains et les modèles de consensus comme TVCN et HCCA, qui combinent les résultats de plusieurs modèles pour réduire le biais.
Si l’on vérifie avec les statistiques finales du Centre National des Ouragans, ces résultats représenteraient la première fois qu’un système d’IA dépasse à la fois les prévisions automatisées et les prévisions de consensus humaines dans le bassin atlantique.
La performance exceptionnelle du système de DeepMind soulève des questions sur le rôle à long terme de la prévision numérique traditionnelle du temps. Les modèles basés sur la physique, comme le GFS, doivent intégrer des équations qui décrivent la dynamique des fluides, le transfert de radiation et la thermodynamique à des millions de points de la grille.
Ce processus nécessite une grande puissance de calcul et, souvent, introduit des erreurs d’arrondi numérique. En revanche, les modèles neuronaux basés sur des données déduisent la dynamique sous-jacente directement à partir de jeux de données de réanalyse globale, sans avoir besoin d’équations explicites.
Ces architectures appartiennent à une classe de méthodes d’IA connues sous le nom de « modèles génératifs profonds », capables d’apprendre des motifs de haute dimension. On pense que le cadre de DeepMind utilise des fonctions d’encodeur-décodeur optimisées pour la prédiction spatio-temporelle, ce qui lui permet de gérer à la fois le suivi et la prédiction de l’intensité au sein d’une seule architecture de réseau.
Durant cette saison des ouragans, il a également montré une performance fiable dans l’estimation des vitesses maximales du vent et des fluctuations de pression, des tâches que même les systèmes sophistiqués basés sur la physique continuent de gérer de manière incohérente.
En attendant, la performance du GFS cette année a déconcerté les météorologues. Bien que le modèle ait subi une importante mise à jour en 2019 avec le noyau dynamique Finite-Volume Cubed-Sphere (FV3), la transition semble avoir produit une régression plutôt qu’une amélioration.
Lowry et d’autres suggèrent que les lacunes dans les données d’observation, possiblement liées aux coupes budgétaires fédérales, pourraient avoir aggravé le problème, bien que cela reste une spéculation. Le Service météorologique national n’a pas encore publié son évaluation interne.