OpenAI lance Codex Security : un agent d'IA pour lutter contre les vulnérabilités

OpenAI a lancé Codex Security, un agent de sécurité alimenté par l’intelligence artificielle conçu pour identifier, valider et proposer des solutions aux vulnérabilités des systèmes. Ce nouveau service, qui est disponible en mode aperçu pour les utilisateurs de ChatGPT Pro, Enterprise, Business et Edu, offrira un accès gratuit pendant un mois à ses fonctionnalités innovantes. Réduction des faux positifs Codex Security est l’évolution d’Aardvark, présenté en beta privée en octobre 2025, avec pour objectif d’aider les développeurs et les équipes de sécurité à détecter et corriger les vulnérabilités à grande échelle. Pendant sa phase beta, Codex Security a scanné […]

OpenAI a lancé Codex Security, un agent de sécurité alimenté par l’intelligence artificielle conçu pour identifier, valider et proposer des solutions aux vulnérabilités des systèmes. Ce nouveau service, qui est disponible en mode aperçu pour les utilisateurs de ChatGPT Pro, Enterprise, Business et Edu, offrira un accès gratuit pendant un mois à ses fonctionnalités innovantes.

Réduction des faux positifs

Codex Security est l’évolution d’Aardvark, présenté en bêta privée en octobre 2025, avec pour objectif d’aider les développeurs et les équipes de sécurité à détecter et corriger des vulnérabilités à grande échelle. Durant sa phase bêta, Codex Security a scanné plus de 1,2 million de commits dans différents projets de code ouvert, identifiant 792 découvertes critiques et 10 561 découvertes de haute sévérité. Parmi les vulnérabilités détectées, on trouve des problèmes dans des projets populaires comme OpenSSH, GnuTLS et PHP.

La société souligne que Codex Security combine les capacités de raisonnement de ses modèles avancés avec la validation automatisée, ce qui minimise le risque de faux positifs et fournit des solutions pratiques. Une analyse au fil du temps dans des dépôts spécifiques a montré une amélioration de la précision du service et une diminution de 50 % des taux de faux positifs.

Le fonctionnement de Codex Security repose sur trois étapes : d’abord, il analyse la structure du dépôt pour créer un modèle de menace modifiable qui documente les expositions du système. Ensuite, il identifie les vulnérabilités en fonction d’un contexte réel et les valide dans un environnement isolé. Enfin, il propose des solutions qui s’alignent mieux avec le comportement du système, facilitant ainsi leur révision et leur déploiement.

Le lancement de Codex Security intervient à un moment où la concurrence dans le domaine de la sécurité des logiciels est en hausse, notamment après le récent lancement de Claude Code Securit par Anthropic, un autre acteur qui aide à scanner les vulnérabilités dans les bases de code des logiciels.

Google et OpenAI adoptent la publicité basée sur l'IA

Ce mois-ci, Google et OpenAI ont fait un pas significatif en lançant de nouvelles offres de publicité alimentées par l’intelligence artificielle, après des années de résistance. Cette décision répond à la pression croissante pour monétiser leurs plateformes, alimentée par l’augmentation des coûts opérationnels et la nécessité de rester compétitifs sur un marché en évolution rapide. Alors que les plateformes d’IA sont contraintes d’adopter des modèles commerciaux publicitaires, d’autres acteurs du secteur devraient suivre le même chemin. La monétisation de l’IA Malgré la crainte que la publicité puisse éloigner les utilisateurs, […]

Ce mois-ci, Google et OpenAI ont fait un pas significatif en lançant de nouvelles offres publicitaires alimentées par l’intelligence artificielle, après des années de résistance. Cette décision répond à la pression croissante pour monétiser leurs plateformes, alimentée par l’augmentation des coûts opérationnels et la nécessité de rester compétitifs sur un marché en rapide évolution. À mesure que les plateformes d’IA sont contraintes d’adopter des modèles commerciaux publicitaires, il est prévu que d’autres acteurs du secteur suivent le même chemin.

La monétisation de l’IA

Malgré la crainte que la publicité puisse éloigner les utilisateurs, Google et OpenAI ont choisi d’intégrer la publicité payante dans leurs stratégies. On estime que dans les quatre prochaines années, environ 40 millions de personnes aux États-Unis deviendront des utilisateurs d’IA générative, ce qui influencera directement les stratégies publicitaires des entreprises. Ainsi, malgré les doutes précédents, la monétisation devient une nécessité pressante pour ces plateformes.

Les experts indiquent que, bien que les marques et les détaillants se précipitent à intégrer la publicité basée sur l’IA dans leurs stratégies de recherche payante, ce sont les équipes d’optimisation organique qui verront probablement les retours les plus immédiats. Ce changement d’orientation dans la monétisation s’accompagne de prévisions selon lesquelles les principales entreprises d’intelligence artificielle augmenteront leurs dépenses d’investissement à plus de 375 milliards de dollars d’ici 2025, soulignant que la monétisation n’est plus une option, mais une obligation.

Les raisons derrière la lenteur à vendre de la publicité sont dues à des préoccupations concernant l’impact sur la base d’utilisateurs en croissance. Cependant, la pression économique pourrait pousser davantage de plateformes d’IA à reconsidérer leur stratégie de monétisation dans un avenir proche.

OpenAI vient d'installer une mise à jour de sécurité pour ChatGPT qui était plus que nécessaire

OpenAI a émis un avertissement concernant la menace croissante des attaques par injection de prompts, une technique qui cache des instructions malveillantes dans du contenu en ligne ordinaire, devenant un risque considérable pour les agents d’intelligence artificielle opérant dans les navigateurs web. L’entreprise a mis en œuvre une mise à jour de sécurité pour son outil ChatGPT Atlas après avoir découvert une nouvelle classe d’attaques lors de simulations internes de sécurité automatisées. Pas tant d’intelligence, mais très artificielle La version mise à jour d’Atlas inclut un modèle entraîné spécifiquement pour résister aux attaques adversariales, ainsi que des mesures de protection renforcées. Selon OpenAI, le mode agent du navigateur […]

OpenAI a émis un avertissement concernant la menace croissante des attaques par injection de prompts, une technique qui cache des instructions malveillantes dans du contenu en ligne ordinaire, devenant un risque considérable pour les agents d’intelligence artificielle qui opèrent dans les navigateurs web. L’entreprise a mis en place une mise à jour de sécurité pour son outil ChatGPT Atlas après avoir découvert une nouvelle classe d’attaques lors de simulations internes de sécurité automatisées.

Pas tant d’intelligence, mais très artificielle

La version mise à jour d’Atlas inclut un modèle entraîné spécifiquement pour résister aux attaques adversariales, ainsi que des protections renforcées. Selon OpenAI, le mode agent du navigateur permet au logiciel d’interagir sur le web de manière similaire à un utilisateur humain, accédant à des e-mails, des documents et des services web, ce qui augmente sa valeur en tant que cible d’attaques adversariales par rapport à un chatbot traditionnel qui ne répond qu’à des questions.

La société a développé un attaquant automatisé, utilisant des modèles de langage qui identifient des stratégies d’injection de prompts, ce qui permet de réaliser des flux de travail nuisibles complexes. Cet attaquant peut simuler des rencontres avec du contenu malveillant, générant une trace complète de raisonnement et d’actions de l’agent victime, ce qui aide à affiner les attaques à travers plusieurs rounds de test.

Un exemple hypothétique illustre le risque : un e-mail malveillant indiquant à l’agent d’envoyer une lettre de démission au supérieur de l’utilisateur. Si l’agent trouve cet e-mail lors d’une demande légitime, il pourrait mal interpréter les instructions, agissant au détriment de l’utilisateur. Ce changement dans la dynamique d’interaction souligne la nécessité d’aborder les nouvelles formes de risque en ligne.

Ce n’est pas seulement OpenAI qui est confronté à ce problème ; le Centre national de cybersécurité du Royaume-Uni a averti que ces attaques pourraient ne pas être complètement éliminées, incitant les organisations à minimiser les risques et à limiter les impacts. Avec l’introduction d’une équipe de « Préparation », OpenAI cherche à identifier et à traiter ces risques émergents dans le domaine de l’intelligence artificielle et de la cybersécurité.

ChatGPT réalise une augmentation de 76 % de ses performances

OpenAI a annoncé une augmentation notable des performances de son modèle d’intelligence artificielle, GPT-5.1-Codex-Max, qui a atteint 76 % dans les évaluations de capacité. Cette avancée suggère un saut significatif dans la capacité du modèle à comprendre et à générer du langage naturel, ce qui pourrait avoir des implications importantes pour diverses applications, allant de l’automatisation des tâches à la création de contenu. Augmentation de l’utilisation dans les environnements de travail Selon les données fournies par la société, cette amélioration se manifeste dans une série de tests qui évaluent la précision, la pertinence et la créativité des réponses générées par le modèle. L’augmentation […]

OpenAI a annoncé une augmentation notable des performances de son modèle d’intelligence artificielle, GPT-5.1-Codex-Max, qui a atteint 76 % dans les évaluations de capacité. Cette avancée suggère un bond significatif dans la capacité du modèle à comprendre et à générer du langage naturel, ce qui pourrait avoir des implications importantes pour diverses applications, allant de l’automatisation des tâches à la création de contenu.

Augmentation de l’utilisation dans les environnements de travail

Selon les données fournies par la société, cette amélioration se manifeste dans une série de tests qui évaluent la précision, la pertinence et la créativité des réponses générées par le modèle. L’augmentation des performances met en évidence l’engagement d’OpenAI envers le développement continu de technologies qui optimisent l’interaction homme-machine, facilitant des expériences plus riches et efficaces pour les utilisateurs.

Cependant, avec l’enthousiasme pour ces améliorations, OpenAI a également émis des avertissements sur les risques cybernétiques qui pourraient surgir avec l’utilisation de sa technologie. L’entreprise souligne la nécessité d’être prudents face au potentiel mauvais usage de l’intelligence artificielle, qui pourrait entraîner la génération de désinformation ou la création de contenus trompeurs, posant ainsi un défi tant pour les développeurs que pour les utilisateurs de cette technologie avancée.

Ces développements coïncident avec un intérêt croissant dans le secteur technologique pour l’utilisation de l’intelligence artificielle dans le domaine des affaires et de la créativité. La possibilité que GPT-5.1-Codex-Max puisse influencer la manière dont les contenus sont produits et consommés est indéniable, mais cela nécessite également une analyse critique sur la façon de s’assurer que ces outils soient utilisés de manière éthique et responsable.