OpenAI a annoncé GPT-5.4-Cyber, une variante spécialisée de son modèle d’intelligence artificielle GPT-5.4, conçue spécifiquement pour des flux de travail avancés en cybersécurité. Ce nouveau modèle offre aux professionnels de la sécurité informatique un accès élargi à des outils qui facilitent l’analyse de logiciels compilés, l’identification de vulnérabilités et l’analyse de logiciels malveillants, sans nécessiter d’accès au code source des applications. Ciber SeGPT Le lancement de GPT-5.4-Cyber intervient dans le cadre de l’expansion du programme Trusted Access for Cyber (TAC) d’OpenAI, qui permettra désormais à des milliers de défenseurs vérifiés d’accéder à ce modèle
OpenAI a présenté GPT-5.4-Cyber, une variante spécialisée de son modèle d’intelligence artificielle GPT-5.4, conçue spécifiquement pour des flux de travail avancés en cybersécurité. Ce nouveau modèle offre aux professionnels de la sécurité informatique un accès élargi à des outils qui facilitent l’analyse de logiciels compilés, l’identification de vulnérabilités et l’analyse de logiciels malveillants, sans nécessiter d’accès au code source des applications.
Ciber SeGPT
Le lancement de GPT-5.4-Cyber se produit dans le contexte de l’expansion du programme Trusted Access for Cyber (TAC) d’OpenAI, qui permettra désormais à des milliers de défenseurs vérifiés d’accéder à ce modèle. La société a souligné que cette nouvelle variante de modèle présente moins de restrictions que les versions standard, permettant une utilisation plus permissive dans des environnements sûrs et vérifiés.
Une partie significative de la stratégie de cybersécurité d’OpenAI est son outil Codex Security, qui surveille automatiquement les bases de code et a aidé à corriger plus de 3 000 vulnérabilités critiques depuis son lancement. Avec l’avancement de la technologie, OpenAI a également mis en avant des améliorations dans les performances de ses modèles dans des tâches liées à la cybersécurité, y compris une augmentation notable des performances en capture de drapeaux (CTF) par rapport à sa version précédente.
Le nouveau modèle permet aux professionnels de se défendre contre les menaces cybernétiques de manière plus efficace en activant des capacités telles que la recherche de vulnérabilités et l’analyse des exploits. Cependant, l’accès initial à GPT-5.4-Cyber est restreint aux fournisseurs de sécurité vérifiés, ce qui reflète une stratégie de mitigation des risques dans un environnement où l’utilisation abusive de l’intelligence artificielle reste une préoccupation.
L’introduction de GPT-5.4-Cyber s’aligne avec l’accent croissant de l’industrie sur des modèles d’intelligence artificielle spécifiques à la cybersécurité, surtout après le lancement de Claude Mythos par Anthropic, ce qui signale une course à l’armement dans cette sphère technologique.
Il n’y a pas de nouvelle qui ait eu plus d’impact dans le monde de la technologie cette semaine. OpenAI a confirmé que Sora va cesser d’être supporté dans les mois à venir. De plus, ChatGPT ne pourra plus créer de contenu vidéo. Bien qu’ils aient assuré qu’il sera possible de sauvegarder tout le contenu créé avec celui-ci avant sa fermeture, il semble que la décision soit finale : chez OpenAI, ils ne sont pas satisfaits des résultats. Les raisons semblent évidentes. Disney a rompu le contrat qui semblait sûr pour utiliser la technologie d’OpenAI pour la génération de vidéo avec IA par un […]
Aucune nouvelle n’a eu un impact plus fort dans le monde de la technologie cette semaine. OpenAI a confirmé que Sora va cesser d’être supporté dans les mois à venir. De plus, ChatGPT ne pourra plus créer de contenu vidéo. Bien qu’ils aient assuré qu’il sera possible de sauvegarder tout le contenu créé avec celui-ci avant sa fermeture, il semble que la décision soit finale : chez OpenAI, ils ne sont pas satisfaits des résultats.
Les raisons semblent évidentes. Disney a rompu le contrat qui semblait sûr pour utiliser la technologie d’OpenAI pour la génération de vidéos avec IA d’une valeur d’un milliard de dollars, rendant la seule source de revenus jusqu’à présent de cette technologie disparue du jour au lendemain. Les amenant à décider de mettre fin à cette fonctionnalité de leur technologie. Mais cela signifie-t-il le début de la fin de la bulle de l’IA ? Ou est-ce juste un problème que beaucoup de gens signalent depuis des années, à savoir que toutes ces entreprises n’ont pas de plan d’affaires pour cette technologie ?
L’éléphant dans la pièce : une technologie à la recherche d’un problème
Sora a été lancée le 9 décembre 2024 avec une promesse simple : pouvoir créer vos propres vidéos, dans n’importe quel style inimaginable, depuis le confort de votre maison. Rapide, bon marché et efficace, vous n’aviez pas besoin d’étudier ni de coordonner une équipe pour créer vos propres vidéos.Vous aviez juste besoin des bons prompts et de les manipuler pour créer exactement ce que vous vouliez quand vous le vouliez. Dans certaines limites évidentes. Les vidéos pouvaient durer au maximum une minute et, en général, elles avaient tendance à être trop hallucinantes pour être cohérentes ou durables dans le temps.
À tout cela s’ajoutait un autre problème évident : la plupart des utilisateurs voulaient utiliser Sora pour créer du contenu protégé soit par des droits d’auteur, soit par des droits à l’image. Cela dernier point était difficile à résoudre et tôt ou tard, il allait être légiféré, car il est illégal d’utiliser l’image d’autres personnes sans leur permission, mais pour le premier point, chez OpenAI, ils pensaient avoir trouvé la solution : un accord avec Disney d’un milliard de dollars. Qui, comme nous l’avons déjà souligné, ne s’est finalement pas concrétisé.
Le problème de Sora est qu’il s’agit d’une technologie qui proposait des solutions à un problème qui n’existe pas. Les seuls usages de cette technologie étaient soit immoraux et potentiellement illégaux — utiliser l’image d’autres personnes sans permission est mal, l’utiliser pour les usurper et leur faire dire des choses qu’ils n’ont pas dites, créer de la pornographie ou diffuser des messages de haine, c’est déjà illégal dans de nombreuses parties du monde —, soit légalement flous — vous ne pouvez pas utiliser des personnages pour lesquels vous n’avez pas les droits et la personne qui serait poursuivie pour avoir permis cela serait la plateforme —, soit dépourvus de sens — si vous avez les droits d’image ou de copyright, qu’est-ce qui vous empêche de vous filmer vous-même ces vidéos ?
Sora était une curiosité intéressante, mais elle n’offrait pas de solution à un problème réel. Elle pouvait rendre la production de vidéos moins chère, mais même ainsi, il y avait un problème que nous avons déjà souligné : elle avait des limitations temporelles, hallucina énormément les résultats et était incapable de maintenir la cohérence entre les scènes. Quelque chose qui rendait essentiellement impossible de créer une vidéo plus longue qu’une annonce ou une vidéo courte d’une qualité bien en dessous de tout standard de qualité professionnelle.
Où en est le business de l’IA ?
Le problème de Sora, c’est qu’il n’a pas de plan d’affaires. Il n’a pas de raison d’exister. La motivation pour que quelqu’un paie pour le service est inexistante. Et cela s’est prouvé par le fait qu’il n’y a eu qu’une seule entreprise intéressée et même cette entreprise a abandonné les négociations.
Pourquoi ? Parce que cela ne résout rien. La technologie qui est mise en œuvre dans la société et qui finit par avoir une prévalence est celle qui résout une sorte de problème. Que nous le sachions ou non. Parfois, le problème est aussi simple que le fait que les choses pouvaient être faites de manière moins chère et plus rapide, mais c’est aussi une solution à un problème : les coûts de production. Mais Sora n’apporte aucune sorte de solution parce que, bien qu’elle offrait la création de vidéos bon marché et rapides, c’était toujours dans un espace légalement gris difficilement monétisable.
Ça nous amène à nous demander, est-ce l’avenir du reste des technologies de l’IA ? Et bien qu’il soit tentant de dire que oui, il vaut mieux faire preuve de prudence. Bien qu’il soit de plus en plus évident que l’IA est une bulle, il n’est pas non plus prudent d’affirmer qu’il n’existe aucun usage réel de celle-ci. Ce qui est certain, c’est que ses usages sont beaucoup plus limités, spécifiques et concrets que ce qui est tenté de vendre. Les LLM ont prouvé être extrêmement utiles pour la chimie, la prévision météorologique et la détection des cancers, montrant où résident leurs vertus : dans le contraste de grands volumes d’informations et la découverte de motifs cachés. De même, leur qualité particulièrement remarquable dans le domaine de la programmation a fait qu’elles sont devenues l’outil principal actuel pour le vibe coding parmi les professionnels et les amateurs.
Dans la consommation générale, les seuls qui semblent avoir un business en marche efficace sont Anthropic, et Claude, bien qu’il se présente comme une IA générale, est de plus en plus axé sur des usages spécifiques dérivés de l’efficacité dans le domaine du travail. Permettant d’envoyer des réponses automatiques, de faire des résumés de réunions, de textes et de vidéos, et d’autres usages dérivés du travail bureaucratique de bureau, de nombreuses entreprises l’adoptent malgré un abonnement premium relativement élevé par rapport à ses concurrents. Et elles le font parce que son utilisation semble utile, en rationalisant certains processus, même s’il est discutable que cela le soit en raison des problèmes d’hallucinations, de biais et des limitations inhérentes à ces systèmes.
Si quelque chose nous prouve que la mort de Sora est que l’IA est une bulle sur le point d’éclater et que, bien qu’elle ne va pas emporter toute l’IA, toutes les LLM, elle fera en sorte que seules survivent celles qui offrent vraiment quelque chose d’intéressant au-delà de la mode passagère. Une technologie pour créer des vidéos à partir de rien peut être intéressante, mais elle ne peut pas être monétisée et surtout, elle n’apporte rien à la société dans son ensemble. Et tant qu’OpenAI restera obsédée par la création de quelque chose de spectaculaire qui atteigne le public, qu’il soit monétisable ou non, elle se rapprochera davantage de l’extinction que d’une entreprise qui perdure dans le temps.
Une récente attaque informatique a mis en évidence une déconnexion structurelle entre le texte HTML et ce que les utilisateurs voient réellement dans leurs navigateurs, permettant aux attaquants d’envoyer des instructions malveillantes qui passent inaperçues pour les assistants d’intelligence artificielle. Cette découverte a été présentée par LayerX, une entreprise de cybersécurité, qui a démontré sa technique à l’aide d’un faux site de fanfiction de Bioshock. En utilisant une police personnalisée, les attaquants ont pu dissimuler un message malveillant dans un contenu apparemment inoffensif. Menaces cachées dans HTML L’attaque a révélé que, bien que les assistants d’IA comme ChatGPT et Claude examinaient le […]
Une récente attaque informatique a mis en évidence une déconnexion structurelle entre le texte HTML et ce que les utilisateurs voient réellement dans leurs navigateurs, permettant aux attaquants d’envoyer des instructions malveillantes qui passent inaperçues pour les assistants d’intelligence artificielle. Cette découverte a été présentée par LayerX, une entreprise de cybersécurité, qui a démontré sa technique à travers un faux site de fanfiction de Bioshock. En utilisant une police personnalisée, les attaquants ont pu dissimuler un message malveillant dans un contenu apparemment inoffensif.
Menaces cachées en HTML
L’attaque a révélé que, bien que des assistants IA comme ChatGPT et Claude examinaient le HTML sous-jacent à la recherche de menaces, ils manquaient de la capacité à identifier le contenu caché qui, à première vue, semblait sûr. Dans ce cas, le texte malveillant incitait les utilisateurs à exécuter un shell inversé sur leurs machines, tandis que le texte visible était un ensemble de caractères illisibles.
LayerX a signalé que cette vulnérabilité ne nécessite pas l’utilisation de JavaScript ni de kits d’exploitation, révélant un défaut dans la façon dont les outils d’IA analysent la sécurité des pages web. Alors que les navigateurs présentent l’information de manière conçue, les IA traitent le texte du DOM comme la représentation complète de ce qui est affiché à l’utilisateur, ce qui laisse un espace que les attaquants peuvent exploiter.
En réponse à cette menace, LayerX recommande que les fournisseurs d’IA mettent en œuvre des analyses de rendu dual et qu’ils traitent les polices personnalisées comme des surfaces de menace potentielle. De plus, il est essentiel que ces outils évitent de porter des jugements de sécurité sans avoir vérifié le contexte complet de la page. Jusqu’à présent, Microsoft s’est distingué comme le seul fournisseur à avoir pleinement abordé le problème après la divulgation responsable de LayerX en décembre 2025.
OpenAI a lancé Codex Security, un agent de sécurité alimenté par l’intelligence artificielle conçu pour identifier, valider et proposer des solutions aux vulnérabilités des systèmes. Ce nouveau service, qui est disponible en mode aperçu pour les utilisateurs de ChatGPT Pro, Enterprise, Business et Edu, offrira un accès gratuit pendant un mois à ses fonctionnalités innovantes. Réduction des faux positifs Codex Security est l’évolution d’Aardvark, présenté en beta privée en octobre 2025, avec pour objectif d’aider les développeurs et les équipes de sécurité à détecter et corriger les vulnérabilités à grande échelle. Pendant sa phase beta, Codex Security a scanné […]
OpenAI a lancé Codex Security, un agent de sécurité alimenté par l’intelligence artificielle conçu pour identifier, valider et proposer des solutions aux vulnérabilités des systèmes. Ce nouveau service, qui est disponible en mode aperçu pour les utilisateurs de ChatGPT Pro, Enterprise, Business et Edu, offrira un accès gratuit pendant un mois à ses fonctionnalités innovantes.
Réduction des faux positifs
Codex Security est l’évolution d’Aardvark, présenté en bêta privée en octobre 2025, avec pour objectif d’aider les développeurs et les équipes de sécurité à détecter et corriger des vulnérabilités à grande échelle. Durant sa phase bêta, Codex Security a scanné plus de 1,2 million de commits dans différents projets de code ouvert, identifiant 792 découvertes critiques et 10 561 découvertes de haute sévérité. Parmi les vulnérabilités détectées, on trouve des problèmes dans des projets populaires comme OpenSSH, GnuTLS et PHP.
La société souligne que Codex Security combine les capacités de raisonnement de ses modèles avancés avec la validation automatisée, ce qui minimise le risque de faux positifs et fournit des solutions pratiques. Une analyse au fil du temps dans des dépôts spécifiques a montré une amélioration de la précision du service et une diminution de 50 % des taux de faux positifs.
Le fonctionnement de Codex Security repose sur trois étapes : d’abord, il analyse la structure du dépôt pour créer un modèle de menace modifiable qui documente les expositions du système. Ensuite, il identifie les vulnérabilités en fonction d’un contexte réel et les valide dans un environnement isolé. Enfin, il propose des solutions qui s’alignent mieux avec le comportement du système, facilitant ainsi leur révision et leur déploiement.
Le lancement de Codex Security intervient à un moment où la concurrence dans le domaine de la sécurité des logiciels est en hausse, notamment après le récent lancement de Claude Code Securit par Anthropic, un autre acteur qui aide à scanner les vulnérabilités dans les bases de code des logiciels.
OpenAI a commencé à introduire de la publicité dans les conversations de la version gratuite de ChatGPT, ce qui transforme radicalement la perception de cet espace, que de nombreux utilisateurs considéraient comme neutre et privé. L’inclusion d’annonces a suscité des inquiétudes parmi les utilisateurs, qui peuvent sentir que leur expérience interactive est devenue plus commerciale et moins personnelle. Ce changement pourrait entraîner une diminution de la fidélité envers le service, certains utilisateurs pouvant opter pour des plateformes offrant une expérience plus fluide, comme Gemini de Google. Les annonces, une barrière pour des millions d’utilisateurs Gemini a réussi à un […]
OpenAI a commencé à introduire de la publicité dans les conversations de la version gratuite de ChatGPT, ce qui transforme radicalement la perception de cet espace, que de nombreux utilisateurs considéraient comme neutre et privé.
L’inclusion de publicités a suscité des inquiétudes parmi les utilisateurs, qui peuvent sentir que leur expérience interactive est devenue plus commerciale et moins personnelle.
Ce changement pourrait entraîner une diminution de la fidélité envers le service, car certains utilisateurs pourraient opter pour des plateformes offrant une expérience plus fluide, comme Gemini de Google.
Les annonces, une barrière pour des millions d’utilisateurs
Gemini a connu une croissance remarquable, atteignant déjà 750 millions d’utilisateurs mensuels. Ce chiffre met en évidence l’efficacité de l’approche de Google, qui intègre Gemini de manière naturelle dans ses produits, facilitant son adoption et son utilisation quotidienne.
Les utilisateurs à la recherche d’alternatives à ChatGPT pourraient trouver en Gemini une option attrayante, étant donné qu’à l’heure actuelle, ce service ne présente pas de publicités, ce qui le positionne comme un assistant numérique moins intrusif.
Bien que le modèle économique d’OpenAI cherche à diversifier ses revenus grâce à la publicité, l’introduction d’annonces dans ChatGPT modifie la dynamique émotionnelle du service.
L’expérience des utilisateurs peut être perturbée par des interruptions dans les conversations dues aux messages publicitaires, ce qui représente un changement significatif dans leur interaction quotidienne avec l’outil. À mesure que ces petites nuisances s’accumulent, la perception du produit peut changer radicalement.
Dans un environnement numérique inondé de publicités, de nombreux utilisateurs qui se sont initialement laissés séduire par la simplicité de l’expérience ChatGPT pourraient reconsidérer leurs options. Si Google continue sa tendance à la croissance grâce à l’accessibilité de Gemini, il pourrait attirer un nombre considérable d’utilisateurs à la recherche d’une expérience plus satisfaisante et moins chargée de publicités.
Yahoo a lancé Scout, un nouveau moteur de réponses alimenté par l’intelligence artificielle qui est disponible en version bêta via son application de recherche. Contrairement à d’autres systèmes comme ChatGPT d’OpenAI, qui repose sur des abonnements, Scout se positionne comme un produit gratuit financé par la publicité. La stratégie de Yahoo est d’utiliser la publicité pour financer l’accès, démocratisant ainsi la découverte et l’utilisation de l’IA. Attention aux marques Avec 250 millions d’utilisateurs mensuels aux États-Unis et la capacité de capter 18 billions de signaux d’intention par an, Yahoo cherche à moderniser le […]
Yahoo a lancé Scout, un nouveau moteur de réponses alimenté par l’intelligence artificielle qui est disponible en version bêta via son application de recherche. Contrairement à d’autres systèmes comme ChatGPT d’OpenAI, qui repose sur des abonnements, Scout se positionne comme un produit gratuit financé par la publicité. La stratégie de Yahoo est d’utiliser la publicité pour financer l’accès, démocratisant ainsi la découverte et l’utilisation de l’IA.
Attention aux marques
Avec 250 millions d’utilisateurs mensuels aux États-Unis et la capacité de capter 18 billions de signaux d’intention par an, Yahoo cherche à moderniser la façon dont l’information est présentée sur sa plateforme. Jim Lanzone, PDG de Yahoo, a souligné que Scout représente une nouvelle opportunité de remplir la mission de l’entreprise d’être un guide fiable sur internet. C’est une opportunité que nous ne pensions pas revenir, mais l’intelligence artificielle nous l’a offerte et nous en profitons, a commenté Lanzone.
Scout, qui agira comme une couche d’agrégation de données, se distingue par son approche de la publicité par rapport à d’autres géants comme Google et ChatGPT. Les annonces de Scout seront conçues en fonction de la pertinence situationnelle, en utilisant l’immense ensemble de données que Yahoo a accumulé sur les intérêts et les comportements des utilisateurs. Cela offre aux marques un nouvel espace publicitaire qui privilégie le contenu structuré et une créativité contextualisée.
Par conséquent, il est conseillé aux marques de considérer Scout comme un terrain d’essai pour la publicité via des réponses générées par IA. Avec un accent sur la pertinence basée sur les données et une structure plus autorisée, Scout pourrait devenir un outil essentiel pour les entreprises cherchant à capter l’attention des consommateurs dans un format de réponses dynamiques.
OpenAI a annoncé qu’elle commencerait à tester des publicités ciblées dans ChatGPT pour un groupe sélectionné d’utilisateurs aux États-Unis, une décision qui représente un effort significatif de la part de l’entreprise pour générer des revenus. L’introduction de cette fonction intervient dans un contexte où OpenAI ne devrait pas atteindre la rentabilité pendant plusieurs années, ce qui met en évidence les difficultés financières auxquelles l’entreprise est confrontée actuellement. IA générative (et promue) Le PDG d’OpenAI, Sam Altman, avait déclaré précédemment que la publicité dans ChatGPT serait un “dernier recours”, ce qui suggère que la situation […]
OpenAI a annoncé qu’elle commencera à tester des publicités ciblées sur ChatGPT pour un groupe sélectionné d’utilisateurs aux États-Unis, une décision qui représente un effort significatif de la part de l’entreprise pour générer des revenus. L’introduction de cette fonctionnalité intervient dans un contexte où OpenAI ne devrait pas atteindre la rentabilité pendant plusieurs années, ce qui met en lumière les difficultés financières auxquelles l’entreprise est confrontée actuellement.
IA générative (et promue)
Le PDG d’OpenAI, Sam Altman, avait précédemment déclaré que la publicité sur ChatGPT serait un “dernier recours”, ce qui suggère que la situation financière de l’entreprise pourrait être plus compliquée que ce que l’on pensait initialement. Malgré ses affirmations, l’arrivée de publicités sur la plateforme avait fait l’objet de rumeurs pendant un certain temps, ce qui indique que la possibilité de monétisation est dans le viseur d’OpenAI.
La décision d’introduire des annonces semble également être une réponse à la concurrence croissante dans le domaine de l’intelligence artificielle et des services technologiques, où d’autres acteurs avancent déjà dans la monétisation par la publicité. Alors que le marché devient de plus en plus compétitif, OpenAI cherche à diversifier ses revenus et à garantir sa durabilité à long terme.
Ce mouvement pour intégrer de la publicité pourrait changer l’expérience utilisateur sur ChatGPT, un service qui a été apprécié pour sa capacité d’interaction et de réponse sans interruptions commerciales. Cependant, la société espère que les annonces seront pertinentes et, en fin de compte, amélioreront l’expérience générale de l’utilisateur. Avec cette initiative, OpenAI s’aligne sur les stratégies de monétisation que d’autres concurrents ont mises en œuvre sur leurs plateformes, ce qui pourrait être un signe de changements plus larges dans la manière dont les services d’intelligence artificielle sont financés à l’avenir.
OpenAI progresse dans l’intégration de publicités au sein de ChatGPT, cherchant à créer une nouvelle forme de publicité numérique qui réponde aux intérêts des utilisateurs, en utilisant des données historiques de conversations. Selon des sources, la société envisage diverses stratégies pour incorporer ces publicités dans les réponses du chatbot, ce qui inclut du contenu sponsorisé ou des annonces qui apparaissent sur le côté pendant l’interaction avec la plateforme. Bien qu’OpenAI soit en phase de réévaluation après l’alerte récente du PDG Sam Altman concernant la concurrence avec Google Gemini, la mise en œuvre de publicités dans ChatGPT reste en […]
OpenAI progresse dans l’intégration de publicités au sein de ChatGPT, cherchant à créer une nouvelle forme de publicité numérique qui réponde aux intérêts des utilisateurs, en utilisant des données historiques de conversations.
Selon des sources, la société envisage diverses stratégies pour intégrer ces annonces dans les réponses du chatbot, ce qui inclut du contenu sponsorisé ou des annonces qui apparaissent sur le côté pendant l’interaction avec la plateforme.
Bien que OpenAI soit en phase de réévaluation après l’alerte récente du PDG Sam Altman sur la concurrence avec Google Gemini, la mise en œuvre de publicités dans ChatGPT reste à l’ordre du jour.
L’avenir de ChatGPT inclut des annonces alors qu’il concurrence Google Gemini
OpenAI is testing ads inside ChatGPT responses. This will fail, and not for the reasons people think.
Users tolerate ads to access content they want. But AI's entire value proposition is removing friction.
Ads reintroduce the exact friction users paid to escape.
Altman a souligné la nécessité d’améliorer la personnalisation, la vitesse et la fiabilité du chatbot, ce qui a conduit l’entreprise à mettre en pause d’autres projets. Cependant, la création d’annonces semble rester une priorité continue.
Actuellement, ChatGPT génère des revenus grâce à des abonnements, l’accès à l’API et des solutions d’entreprise, bien qu’OpenAI n’ait pas encore réussi à être rentable depuis sa fondation en 2015.
On prévoit que l’entreprise commencera à générer des revenus d’utilisateurs non payants d’ici 2026, avec une estimation de 2 dollars par an par utilisateur, qui pourrait augmenter à 15 dollars d’ici 2030.
🚨 Breaking: ChatGPT may soon show ads inside conversations as OpenAI weighs new monetization ideas.
This could impact the free user experience if it moves forward.
En comparaison, la division publicitaire de Google a généré 237,8 milliards de dollars de revenus en 2023, ce qui suggère qu’OpenAI pourrait suivre un modèle commercial similaire à celui du géant technologique.
Cependant, la possible mise en œuvre de publicités dans ChatGPT a suscité des préoccupations concernant la vie privée, car la plateforme a accès à une quantité significative d’informations sur ses utilisateurs, ce qui soulève des questions sur la manière dont la monétisation sera équilibrée avec la fourniture de résultats organiques et pertinents.
ChatGPT a récemment lancé une nouvelle fonctionnalité appelée « Votre Année avec ChatGPT », qui permet aux utilisateurs de revoir comment ils ont interagi avec l’intelligence artificielle tout au long de 2025. Cette expérience personnalisée fournit des statistiques sur l’utilisation du service, ainsi que les principaux sujets des conversations tenues au cours de l’année. Cependant, tous les utilisateurs n’auront pas un accès immédiat à cette fonctionnalité. La disponibilité est limitée par région, langue et type de compte. Malgré ces filtres, les utilisateurs du plan gratuit pourront également profiter du service, ce qui représente un pas positif vers l’inclusivité dans le […]
ChatGPT a récemment lancé une nouvelle fonctionnalité appelée « Votre Année avec ChatGPT », qui permet aux utilisateurs de revoir comment ils ont interagi avec l’intelligence artificielle tout au long de 2025.
Cette expérience personnalisée fournit des statistiques sur l’utilisation du service, ainsi que les principaux sujets des conversations tenues au cours de l’année.
Cependant, tous les utilisateurs n’auront pas un accès immédiat à cette fonctionnalité. La disponibilité est limitée par région, langue et type de compte. Malgré ces filtres, les utilisateurs du plan gratuit pourront également profiter du service, ce qui représente un pas positif vers l’inclusivité dans l’accès aux outils d’intelligence artificielle.
Your Year with ChatGPT!
Now rolling out to everyone in the US, UK, Canada, New Zealand, and Australia who have reference saved memory and reference chat history turned on.
Si vous êtes en Espagne, vous devez attendre un peu plus longtemps
Pour pouvoir visualiser « Votre Année avec ChatGPT », les utilisateurs doivent activer les options de Mémoire et d’Historique de Référence, en plus de respecter un seuil minimum d’activité.
Celles et ceux qui n’ont pas utilisé le service de manière régulière pourraient, malheureusement, ne pas avoir la possibilité de visualiser des informations plus détaillées, recevant à la place seulement des statistiques de base.
Le lancement de cette expérience se fait progressivement et, par conséquent, elle peut ne pas être disponible pour tous les utilisateurs immédiatement.
If you're in one of the countries above, check back throughout the day to see if "Your Year with ChatGPT" has rolled out to you.
You can also try adding the "Your Year with ChatGPT" app by tapping the + sign and asking Chat, "show me my year with ChatGPT." pic.twitter.com/oRUNQiCDzn
Dans sa version initiale, elle n’est accessible qu’en anglais pour les résidents des États-Unis, du Royaume-Uni, du Canada, d’Australie et de Nouvelle-Zélande. Cependant, la société a assuré qu’elle s’étendra à d’autres marchés et langues dans un avenir proche.
Pour ceux qui souhaitent examiner leur activité, vous pouvez accéder à la fonction à tout moment en utilisant l’avis « Votre Année avec ChatGPT ». Avec cette initiative, OpenAI cherche à offrir aux utilisateurs une réflexion significative sur leur interaction avec la technologie tout au long de l’année et à encourager une utilisation plus consciente de ses outils.
Un rapport récent de Google révèle que 87 % des développeurs de jeux utilisent l’intelligence artificielle d’une manière ou d’une autre, ce qui souligne l’influence croissante de cette technologie dans l’industrie du jeu. Un exemple marquant est Codex Mortis, un jeu dont le créateur, identifié comme Crunchfest3, a affirmé qu’il s’agit du premier jeu entièrement jouable créé à 100 % par IA. Cependant, cette affirmation est difficile à vérifier, surtout en considérant d’autres développements comme Doomscroll, qui ont également intégré l’IA dans leur processus de création. Un jeu avec un aspect horrible Crunchfest3, qui a partagé des détails sur le développement dans […]
Un rapport récent de Google révèle que 87 % des développeurs de jeux utilisent l’intelligence artificielle d’une manière ou d’une autre, soulignant l’influence croissante de cette technologie dans l’industrie du jeu vidéo.Un exemple marquant est Codex Mortis, un jeu dont le créateur, identifié comme Crunchfest3, a affirmé qu’il s’agit du premier jeu entièrement jouable créé à 100 % par IA. Cependant, cette affirmation est difficile à vérifier, surtout en tenant compte d’autres développements comme Doomscroll, qui ont également intégré l’IA dans leur processus de création.
Un jeu avec un aspect horrible
Crunchfest3, qui a partagé des détails sur le développement sur le subreddit des développeurs de jeux IA, a affirmé qu’il n’a pas utilisé un moteur de jeu conventionnel et que le titre a été créé en seulement trois mois. Le jeu est construit avec TypeScript, utilise PIXI.js pour le rendu, bitECS pour le backend et se présente sous la forme d’une application de bureau développée avec Electron. La plupart des arts et des animations ont été générés par des outils d’IA, y compris l’utilisation de ChatGPT et un shader conçu par Claude Code.
Actuellement, Codex Mortis n’est disponible qu’en version démo sur sa page Steam, où les joueurs peuvent découvrir un jeu vidéo qui rappelle Vampire Survivors, bien qu’avec un style visuel que certains décrivent comme confus et indistinct. La promotion du jeu inclut une bande-annonce cinématographique qui présente une approche provocante en montrant un personnage vaporisant des démons étiquetés comme des anti IA.
Malgré son étiquette d’innovateur dans l’utilisation de l’IA, certains analystes soulignent que la définition de « entièrement fait par IA » peut être plus compliquée qu’il n’y paraît. L’industrie continue d’explorer les possibilités de l’intelligence artificielle, ce qui laisse ouvertes les questions sur l’avenir de ce type de développements dans le domaine des jeux vidéo.