Skip to content

Softonic French

Just another Softonic Sites site

Tag: Anthropic

Des hackers chinois commencent à utiliser l'IA pour prendre le contrôle de votre ordinateur

En septembre 2025, des acteurs de menaces parrainés par l’État chinois ont mené une campagne d’espionnage sophistiquée impliquant l’utilisation de la technologie d’intelligence artificielle (IA) développée par Anthropic. Cette opération, connue sous le nom de GTG-1002, a marqué un jalon significatif en étant la première fois que l’IA a été utilisée pour exécuter des cyberattaques à grande échelle avec une intervention humaine minimale. L’IA montre de plus en plus son côté sombre Les attaquants ont utilisé les capacités ‘agentiques’ de l’IA pour orchestrer des attaques automatisées contre environ 30 cibles mondiales, y compris de grandes entreprises technologiques, des institutions financières et des agences gouvernementales. On estime […]

Des hackers chinois commencent à utiliser l'IA pour prendre le contrôle de votre ordinateur

En septembre 2025, des acteurs de menaces soutenus par l’État chinois ont mené une campagne d’espionnage sophistiquée impliquant l’utilisation de la technologie d’intelligence artificielle (IA) développée par Anthropic. Cette opération, connue sous le nom de GTG-1002, a marqué un tournant significatif en étant la première fois que l’IA a été utilisée pour exécuter des cyberattaques à grande échelle avec une intervention humaine minimale.

L’IA montre de plus en plus son côté sombre

Les attaquants ont utilisé les capacités « agentiques » de l’IA pour orchestrer des attaques automatisées contre environ 30 cibles mondiales, y compris de grandes entreprises technologiques, des institutions financières et des agences gouvernementales. On estime que jusqu’à 90 % des opérations tactiques ont été menées de manière autonome, mettant en évidence l’évolution de la manière dont les cyberattaques sont réalisées.

Lors de la campagne, le logiciel Claude Code, un outil de codage d’Anthropic, a été manipulé pour devenir un « agent d’attaque cybernétique autonome ». Cela a permis aux attaquants d’effectuer des tâches telles que la découverte de vulnérabilités, les tests d’exploitation et la collecte de crédentiels sans avoir besoin d’un opérateur humain constant. Bien que l’intervention humaine soit restée nécessaire à des points critiques, comme l’autorisation de la progression de l’exploitation, les outils d’IA exécutaient la plupart des opérations tactiques.

Malgré l’apparente efficacité de ces techniques, la recherche a également révélé des limitations significatives dans les outils d’IA, comme la tendance à « halluciner » ou à inventer des données lors d’opérations autonomes, ce qui peut entraver l’efficacité de tels attaques. Cette campagne souligne comment les barrières à la réalisation de cyberattaques sophistiquées ont considérablement diminué, permettant à des groupes moins expérimentés d’exécuter des attaques à grande échelle avec une relative facilité.

ChatGPT
ChatGPT TÉLÉCHARGER
Author SoftonicPosted on November 17, 2025November 17, 2025Categories NewsTags agenticas, Anthropic, Claude Code, GTG-1002, hackers, hackers chinos, IA

OpenAI et Anthropic travaillent avec les gouvernements des États-Unis et du Royaume-Uni pour garantir la sécurité de l'IA

OpenAI et Anthropic ont annoncé leur collaboration avec les gouvernements des États-Unis et du Royaume-Uni dans le but de renforcer la sécurité de leurs modèles de langage. À travers une série d’initiatives, les deux entreprises permettent aux chercheurs gouvernementaux d’évaluer la vulnérabilité de leurs systèmes face à d’éventuelles cyberattaques. Un objectif noble qui cache plus qu’il n’y paraît. Dans des publications récentes sur leurs blogs, OpenAI et Anthropic ont révélé qu’ils avaient travaillé avec le National Institute of Standards and Technology (NIST) et l’Institut de Sécurité AI du Royaume-Uni. Cette coopération inclut le […]

OpenAI et Anthropic travaillent avec les gouvernements des États-Unis et du Royaume-Uni pour garantir la sécurité de l'IA

OpenAI et Anthropic ont annoncé leur collaboration avec les gouvernements des États-Unis et du Royaume-Uni dans le but de renforcer la sécurité de leurs modèles de langage. À travers une série d’initiatives, les deux entreprises permettent aux chercheurs gouvernementaux d’évaluer la vulnérabilité de leurs systèmes face à d’éventuelles cyberattaques.

Une fin noble qui cache plus qu’il n’y paraît

Dans des articles récents sur leurs blogs, OpenAI et Anthropic ont révélé qu’ils ont travaillé avec l’Institut National des Standards et de la Technologie (NIST) et l’Institut de Sécurité de l’IA du Royaume-Uni. Cette coopération inclut l’accès à des modèles, des classificateurs et des données d’entraînement, ce qui permet à des experts indépendants d’examiner la résilience de ces modèles face à des attaques externes et leur efficacité pour prévenir des usages éthiquement discutables.

OpenAI a identifié des vulnérabilités critiques qui pourraient permettre à des attaquants sophistiqués de prendre le contrôle de systèmes informatiques et de se faire passer pour des utilisateurs, avec un taux de réussite de 50 % dans une méthode de détournement d’IA. Bien que les ingénieurs aient initialement cru que ces vulnérabilités étaient sans importance, la recherche a montré que leur combinaison avec des techniques de détournement pouvait être efficace.

Tant OpenAI qu’Anthropic mettent en œuvre des processus de « red-teaming » pour identifier et corriger rapidement ces vulnérabilités, cherchant à prévenir l’utilisation abusive de leur technologie. Cependant, certains experts en sécurité ont exprimé leur inquiétude quant à la possibilité que cette collaboration puisse entraîner une diminution de l’attention portée à la sécurité technique, en raison d’une plus grande compétitivité sur le marché mondial.

Néanmoins, des chercheurs comme Md Raz, étudiant en doctorat à l’Université de New York, soutiennent que les modèles deviennent de plus en plus résistants et difficiles à compromettre à chaque nouvelle version, suggérant une approche plus rigoureuse en matière de sécurité dans les derniers développements comme GPT-5.

ChatGPT
ChatGPT TÉLÉCHARGER
Author SoftonicPosted on September 16, 2025September 16, 2025Categories NewsTags Anthropic, ciberseguridad, estados unidos, GPT-5, IA, MD Raz, modelos de lenguaje, NIST, OpenAI, red-Teaming, reino unido, Universidad de Nueva York

Grok 4 a de graves problèmes de sécurité qui ne recommandent pas son utilisation

xAI a annoncé que son modèle de langage Grok 4 sera disponible pour le gouvernement fédéral des États-Unis dans le cadre d’un contrat de 200 millions de dollars avec le Département de la Défense. Cependant, les performances de Grok 4 en termes de sécurité et de confidentialité ont suscité des inquiétudes. Selon des recherches de SplxAI, ce modèle a présenté des scores alarmants, avec seulement 0,3 % en sécurité et 0,42 % en confidentialité, ce qui le rend vulnérable aux attaques par injection de prompt. Un véritable désastre par rapport à ChatGPT-40 Le chercheur principal de SplxAI, Dorian Granoša, a souligné que Grok 4 était facile à « libérer, […]

Grok 4 a de graves problèmes de sécurité qui ne recommandent pas son utilisation

xAI a annoncé que son modèle de langage Grok 4 sera disponible pour le gouvernement fédéral des États-Unis dans le cadre d’un contrat de 200 millions de dollars avec le Département de la Défense. Cependant, les performances de Grok 4 en matière de sécurité et de confidentialité suscitent des inquiétudes. Selon des recherches de SplxAI, ce modèle a présenté des scores alarmants, avec seulement 0,3 % en sécurité et 0,42 % en confidentialité, ce qui le rend vulnérable aux attaques par injection de prompt.

Un véritable désastre par rapport à ChatGPT-40

Le chercheur principal de SplxAI, Dorian Granoša, a souligné que Grok 4 était facile à « libérer, générant du contenu nuisible sans nécessiter d’instructions complexes. En comparaison, ChatGPT-4o a montré des scores de 33 % en sécurité et 18 % en sécurité, restant plus robuste dans des conditions sans prompt supplémentaire. Cette différence met en évidence les défis auxquels Grok 4 est confronté pour son utilisation en entreprise.

Néanmoins, les tests réalisés par SplxAI ont révélé que Grok 4 peut améliorer considérablement ses performances en matière de sécurité et de confidentialité avec des indications appropriées. Même dans des configurations de base, les taux de réussite ont augmenté jusqu’à 90 % avec un minimum de prompting. Cela suggère que, bien que Grok ait la capacité de fonctionner de manière responsable, sa mise en œuvre nécessite des directives strictes.

Malgré les préoccupations concernant sa sécurité, l’utilisation de Grok par le gouvernement est un indicatif de l’adoption croissante des outils d’intelligence artificielle dans le secteur public. xAI a été l’une des quatre entreprises technologiques sélectionnées pour le contrat fédéral, aux côtés d’OpenAI, Google et Anthropic. Cette collaboration signifiera que Grok sera accessible à d’autres agences fédérales via la programmation de la GSA.

Twitter
Twitter TÉLÉCHARGER
Author SoftonicPosted on July 15, 2025July 15, 2025Categories News, Software>SecurityTags Anthropic, eeuu, Elon Msuk, google, grok, Grok 4, IA, Seguridad

Recent Posts

  • Un Youtuber produira le film de 'Bloodborne', mais il le fait non pas pour l'argent, mais pour garantir sa qualité
  • La corruption à Miami aura un reboot avec le réalisateur de F1 et Top Gun : Maverick à la tête
  • Il y a un personnage qui manque dans 'Pratiquement Magie 2', et même son propre acteur ne s'explique pas cela
  • La fusion entre Warner et Paramount a rencontré un ennemi inattendu : Zohran Mamdani
  • À l'approche de la Coupe du Monde de football, Netflix se concentre sur celle qui a eu lieu il y a 40 ans

Recent Comments

  • Céline on Sims 4: Les 5 nouveautés que les fans réclament
  • Céline on Sims 4: Les 5 nouveautés que les fans réclament
  • Laura on Sims 4: Les 5 nouveautés que les fans réclament
  • Paola on Sims 4: Les 5 nouveautés que les fans réclament
  • Catherine on Comment ajouter ou gérer ses contacts sur Outlook.com ?

Archives

  • April 2026
  • March 2026
  • February 2026
  • January 2026
  • December 2025
  • November 2025
  • October 2025
  • September 2025
  • August 2025
  • July 2025
  • June 2025
  • May 2025
  • April 2025
  • March 2025
  • February 2025
  • January 2025
  • December 2024
  • November 2024
  • October 2024
  • September 2024
  • August 2024
  • July 2024
  • June 2024
  • May 2024
  • April 2024
  • March 2024
  • February 2024
  • January 2024
  • December 2023
  • November 2023
  • October 2023
  • September 2023
  • August 2023
  • July 2023
  • June 2023
  • April 2023
  • February 2023
  • December 2022
  • September 2022
  • August 2022
  • July 2022
  • June 2022
  • May 2022
  • April 2022
  • March 2022
  • February 2022
  • January 2022
  • December 2021
  • November 2021
  • August 2021
  • February 2021
  • January 2021
  • June 2020
  • April 2020
  • March 2020
  • December 2019
  • September 2019
  • June 2019
  • May 2019
  • April 2019
  • February 2019
  • January 2019
  • December 2018
  • November 2018
  • October 2018
  • September 2018
  • August 2018
  • July 2018
  • June 2018
  • May 2018
  • April 2018
  • March 2018
  • February 2018
  • August 2017
  • March 2016
  • February 2016
  • January 2016
  • December 2015
  • November 2015
  • October 2015
  • September 2015
  • August 2015
  • July 2015
  • June 2015
  • February 2015
  • January 2015
  • December 2014
  • November 2014
  • October 2014
  • September 2014
  • August 2014
  • July 2014
  • June 2014
  • May 2014
  • April 2014
  • March 2014
  • February 2014
  • January 2014
  • December 2013
  • November 2013
  • October 2013
  • September 2013
  • August 2013
  • July 2013
  • June 2013
  • May 2013
  • April 2013
  • March 2013
  • February 2013
  • January 2013
  • December 2012
  • November 2012
  • October 2012
  • September 2012
  • August 2012
  • July 2012
  • June 2012
  • May 2012
  • April 2012
  • March 2012
  • February 2012
  • January 2012
  • December 2011
  • November 2011
  • October 2011
  • September 2011
  • August 2011
  • July 2011
  • June 2011
  • May 2011
  • April 2011
  • March 2011
  • February 2011
  • January 2011
  • December 2010
  • November 2010
  • October 2010
  • September 2010
  • August 2010
  • July 2010
  • June 2010
  • May 2010
  • April 2010
  • March 2010
  • February 2010
  • January 2010
  • December 2009

Categories

  • Expert Review
  • Gaming
  • Guides
  • News
  • Noticias
  • Software>Security
  • Sponsorisé
  • Trucs et Astuces
  • Uncategorized
  • Windows software

Meta

  • Log in
  • Entries feed
  • Comments feed
  • WordPress.org
Softonic French Proudly powered by WordPress