Un article approfondi de The New Yorker remet en question la confiance envers Sam Altman, PDG d’OpenAI, révélant des accusations de malhonnêteté habituelle. Cette analyse de 16 000 mots examine des épisodes controversés dans la carrière d’Altman, y compris son licenciement temporaire en 2023 et son retour, ainsi que son conflit avec Elon Musk et sa transformation de défenseur de la sécurité en intelligence artificielle en allié de Donald Trump. Un plan digne d’un méchant de James Bond. L’un des aspects les plus controversés de l’article est un plan raté qui proposait qu’OpenAI agisse comme une “arme […]
Un article approfondi de The New Yorker remet en question la confiance envers Sam Altman, PDG d’OpenAI, révélant des accusations de malhonnêteté habituelle. Cette analyse de 16 000 mots examine des épisodes controversés dans la carrière d’Altman, y compris son licenciement temporaire en 2023 et son retour, ainsi que son conflit avec Elon Musk et sa transformation de défenseur de la sécurité en intelligence artificielle à allié de Donald Trump.
Un plan digne d’un vilain de James Bond
Un des aspects les plus controversés de l’article est un plan raté qui proposait qu’OpenAI agisse comme une « arme nucléaire » entre les dirigeants mondiaux. L’idée était d’obliger les nations à investir dans la technologie d’OpenAI pour ne pas être à la traîne, générant une sorte de compétition mondiale. Bien qu’OpenAI ait déclaré que cette caractérisation des discussions est « ridicule », d’anciens employés contredisent cette version, affirmant que les conversations sur ce plan ont bien eu lieu et ont atteint un degré considérable de sérieux.
Greg Brockman, président d’OpenAI et donateur significatif de la campagne de Trump, aurait suggéré que l’entreprise pourrait bénéficier de jouer des puissances mondiales, comme la Chine et la Russie, les unes contre les autres. Jack Clark, ancien directeur des politiques chez OpenAI, a décrit l’approche comme un « dilemme du prisonnier », où les pays devraient financer l’entreprise, impliquant que ne pas le faire pourrait avoir des conséquences dangereuses.
Un chercheur junior qui a assisté à une réunion sur le plan a exprimé que ce qui était discuté était « complètement fou ». La réaction des employés a été si négative qu’elle a conduit à des discussions sur de possibles démissions en masse. Cet article fournit un contexte intéressant sur les ambitions d’OpenAI et la réputation d’Altman dans le domaine de l’intelligence artificielle, à un moment critique pour l’industrie.
Il n’y a pas de nouvelle qui ait eu plus d’impact dans le monde de la technologie cette semaine. OpenAI a confirmé que Sora va cesser d’être supporté dans les mois à venir. De plus, ChatGPT ne pourra plus créer de contenu vidéo. Bien qu’ils aient assuré qu’il sera possible de sauvegarder tout le contenu créé avec celui-ci avant sa fermeture, il semble que la décision soit finale : chez OpenAI, ils ne sont pas satisfaits des résultats. Les raisons semblent évidentes. Disney a rompu le contrat qui semblait sûr pour utiliser la technologie d’OpenAI pour la génération de vidéo avec IA par un […]
Aucune nouvelle n’a eu un impact plus fort dans le monde de la technologie cette semaine. OpenAI a confirmé que Sora va cesser d’être supporté dans les mois à venir. De plus, ChatGPT ne pourra plus créer de contenu vidéo. Bien qu’ils aient assuré qu’il sera possible de sauvegarder tout le contenu créé avec celui-ci avant sa fermeture, il semble que la décision soit finale : chez OpenAI, ils ne sont pas satisfaits des résultats.
Les raisons semblent évidentes. Disney a rompu le contrat qui semblait sûr pour utiliser la technologie d’OpenAI pour la génération de vidéos avec IA d’une valeur d’un milliard de dollars, rendant la seule source de revenus jusqu’à présent de cette technologie disparue du jour au lendemain. Les amenant à décider de mettre fin à cette fonctionnalité de leur technologie. Mais cela signifie-t-il le début de la fin de la bulle de l’IA ? Ou est-ce juste un problème que beaucoup de gens signalent depuis des années, à savoir que toutes ces entreprises n’ont pas de plan d’affaires pour cette technologie ?
L’éléphant dans la pièce : une technologie à la recherche d’un problème
Sora a été lancée le 9 décembre 2024 avec une promesse simple : pouvoir créer vos propres vidéos, dans n’importe quel style inimaginable, depuis le confort de votre maison. Rapide, bon marché et efficace, vous n’aviez pas besoin d’étudier ni de coordonner une équipe pour créer vos propres vidéos.Vous aviez juste besoin des bons prompts et de les manipuler pour créer exactement ce que vous vouliez quand vous le vouliez. Dans certaines limites évidentes. Les vidéos pouvaient durer au maximum une minute et, en général, elles avaient tendance à être trop hallucinantes pour être cohérentes ou durables dans le temps.
À tout cela s’ajoutait un autre problème évident : la plupart des utilisateurs voulaient utiliser Sora pour créer du contenu protégé soit par des droits d’auteur, soit par des droits à l’image. Cela dernier point était difficile à résoudre et tôt ou tard, il allait être légiféré, car il est illégal d’utiliser l’image d’autres personnes sans leur permission, mais pour le premier point, chez OpenAI, ils pensaient avoir trouvé la solution : un accord avec Disney d’un milliard de dollars. Qui, comme nous l’avons déjà souligné, ne s’est finalement pas concrétisé.
Le problème de Sora est qu’il s’agit d’une technologie qui proposait des solutions à un problème qui n’existe pas. Les seuls usages de cette technologie étaient soit immoraux et potentiellement illégaux — utiliser l’image d’autres personnes sans permission est mal, l’utiliser pour les usurper et leur faire dire des choses qu’ils n’ont pas dites, créer de la pornographie ou diffuser des messages de haine, c’est déjà illégal dans de nombreuses parties du monde —, soit légalement flous — vous ne pouvez pas utiliser des personnages pour lesquels vous n’avez pas les droits et la personne qui serait poursuivie pour avoir permis cela serait la plateforme —, soit dépourvus de sens — si vous avez les droits d’image ou de copyright, qu’est-ce qui vous empêche de vous filmer vous-même ces vidéos ?
Sora était une curiosité intéressante, mais elle n’offrait pas de solution à un problème réel. Elle pouvait rendre la production de vidéos moins chère, mais même ainsi, il y avait un problème que nous avons déjà souligné : elle avait des limitations temporelles, hallucina énormément les résultats et était incapable de maintenir la cohérence entre les scènes. Quelque chose qui rendait essentiellement impossible de créer une vidéo plus longue qu’une annonce ou une vidéo courte d’une qualité bien en dessous de tout standard de qualité professionnelle.
Où en est le business de l’IA ?
Le problème de Sora, c’est qu’il n’a pas de plan d’affaires. Il n’a pas de raison d’exister. La motivation pour que quelqu’un paie pour le service est inexistante. Et cela s’est prouvé par le fait qu’il n’y a eu qu’une seule entreprise intéressée et même cette entreprise a abandonné les négociations.
Pourquoi ? Parce que cela ne résout rien. La technologie qui est mise en œuvre dans la société et qui finit par avoir une prévalence est celle qui résout une sorte de problème. Que nous le sachions ou non. Parfois, le problème est aussi simple que le fait que les choses pouvaient être faites de manière moins chère et plus rapide, mais c’est aussi une solution à un problème : les coûts de production. Mais Sora n’apporte aucune sorte de solution parce que, bien qu’elle offrait la création de vidéos bon marché et rapides, c’était toujours dans un espace légalement gris difficilement monétisable.
Ça nous amène à nous demander, est-ce l’avenir du reste des technologies de l’IA ? Et bien qu’il soit tentant de dire que oui, il vaut mieux faire preuve de prudence. Bien qu’il soit de plus en plus évident que l’IA est une bulle, il n’est pas non plus prudent d’affirmer qu’il n’existe aucun usage réel de celle-ci. Ce qui est certain, c’est que ses usages sont beaucoup plus limités, spécifiques et concrets que ce qui est tenté de vendre. Les LLM ont prouvé être extrêmement utiles pour la chimie, la prévision météorologique et la détection des cancers, montrant où résident leurs vertus : dans le contraste de grands volumes d’informations et la découverte de motifs cachés. De même, leur qualité particulièrement remarquable dans le domaine de la programmation a fait qu’elles sont devenues l’outil principal actuel pour le vibe coding parmi les professionnels et les amateurs.
Dans la consommation générale, les seuls qui semblent avoir un business en marche efficace sont Anthropic, et Claude, bien qu’il se présente comme une IA générale, est de plus en plus axé sur des usages spécifiques dérivés de l’efficacité dans le domaine du travail. Permettant d’envoyer des réponses automatiques, de faire des résumés de réunions, de textes et de vidéos, et d’autres usages dérivés du travail bureaucratique de bureau, de nombreuses entreprises l’adoptent malgré un abonnement premium relativement élevé par rapport à ses concurrents. Et elles le font parce que son utilisation semble utile, en rationalisant certains processus, même s’il est discutable que cela le soit en raison des problèmes d’hallucinations, de biais et des limitations inhérentes à ces systèmes.
Si quelque chose nous prouve que la mort de Sora est que l’IA est une bulle sur le point d’éclater et que, bien qu’elle ne va pas emporter toute l’IA, toutes les LLM, elle fera en sorte que seules survivent celles qui offrent vraiment quelque chose d’intéressant au-delà de la mode passagère. Une technologie pour créer des vidéos à partir de rien peut être intéressante, mais elle ne peut pas être monétisée et surtout, elle n’apporte rien à la société dans son ensemble. Et tant qu’OpenAI restera obsédée par la création de quelque chose de spectaculaire qui atteigne le public, qu’il soit monétisable ou non, elle se rapprochera davantage de l’extinction que d’une entreprise qui perdure dans le temps.
OpenAI a lancé Codex Security, un agent de sécurité alimenté par l’intelligence artificielle conçu pour identifier, valider et proposer des solutions aux vulnérabilités des systèmes. Ce nouveau service, qui est disponible en mode aperçu pour les utilisateurs de ChatGPT Pro, Enterprise, Business et Edu, offrira un accès gratuit pendant un mois à ses fonctionnalités innovantes. Réduction des faux positifs Codex Security est l’évolution d’Aardvark, présenté en beta privée en octobre 2025, avec pour objectif d’aider les développeurs et les équipes de sécurité à détecter et corriger les vulnérabilités à grande échelle. Pendant sa phase beta, Codex Security a scanné […]
OpenAI a lancé Codex Security, un agent de sécurité alimenté par l’intelligence artificielle conçu pour identifier, valider et proposer des solutions aux vulnérabilités des systèmes. Ce nouveau service, qui est disponible en mode aperçu pour les utilisateurs de ChatGPT Pro, Enterprise, Business et Edu, offrira un accès gratuit pendant un mois à ses fonctionnalités innovantes.
Réduction des faux positifs
Codex Security est l’évolution d’Aardvark, présenté en bêta privée en octobre 2025, avec pour objectif d’aider les développeurs et les équipes de sécurité à détecter et corriger des vulnérabilités à grande échelle. Durant sa phase bêta, Codex Security a scanné plus de 1,2 million de commits dans différents projets de code ouvert, identifiant 792 découvertes critiques et 10 561 découvertes de haute sévérité. Parmi les vulnérabilités détectées, on trouve des problèmes dans des projets populaires comme OpenSSH, GnuTLS et PHP.
La société souligne que Codex Security combine les capacités de raisonnement de ses modèles avancés avec la validation automatisée, ce qui minimise le risque de faux positifs et fournit des solutions pratiques. Une analyse au fil du temps dans des dépôts spécifiques a montré une amélioration de la précision du service et une diminution de 50 % des taux de faux positifs.
Le fonctionnement de Codex Security repose sur trois étapes : d’abord, il analyse la structure du dépôt pour créer un modèle de menace modifiable qui documente les expositions du système. Ensuite, il identifie les vulnérabilités en fonction d’un contexte réel et les valide dans un environnement isolé. Enfin, il propose des solutions qui s’alignent mieux avec le comportement du système, facilitant ainsi leur révision et leur déploiement.
Le lancement de Codex Security intervient à un moment où la concurrence dans le domaine de la sécurité des logiciels est en hausse, notamment après le récent lancement de Claude Code Securit par Anthropic, un autre acteur qui aide à scanner les vulnérabilités dans les bases de code des logiciels.
Ce mois-ci, Google et OpenAI ont fait un pas significatif en lançant de nouvelles offres de publicité alimentées par l’intelligence artificielle, après des années de résistance. Cette décision répond à la pression croissante pour monétiser leurs plateformes, alimentée par l’augmentation des coûts opérationnels et la nécessité de rester compétitifs sur un marché en évolution rapide. Alors que les plateformes d’IA sont contraintes d’adopter des modèles commerciaux publicitaires, d’autres acteurs du secteur devraient suivre le même chemin. La monétisation de l’IA Malgré la crainte que la publicité puisse éloigner les utilisateurs, […]
Ce mois-ci, Google et OpenAI ont fait un pas significatif en lançant de nouvelles offres publicitaires alimentées par l’intelligence artificielle, après des années de résistance. Cette décision répond à la pression croissante pour monétiser leurs plateformes, alimentée par l’augmentation des coûts opérationnels et la nécessité de rester compétitifs sur un marché en rapide évolution. À mesure que les plateformes d’IA sont contraintes d’adopter des modèles commerciaux publicitaires, il est prévu que d’autres acteurs du secteur suivent le même chemin.
La monétisation de l’IA
Malgré la crainte que la publicité puisse éloigner les utilisateurs, Google et OpenAI ont choisi d’intégrer la publicité payante dans leurs stratégies. On estime que dans les quatre prochaines années, environ 40 millions de personnes aux États-Unis deviendront des utilisateurs d’IA générative, ce qui influencera directement les stratégies publicitaires des entreprises. Ainsi, malgré les doutes précédents, la monétisation devient une nécessité pressante pour ces plateformes.
Les experts indiquent que, bien que les marques et les détaillants se précipitent à intégrer la publicité basée sur l’IA dans leurs stratégies de recherche payante, ce sont les équipes d’optimisation organique qui verront probablement les retours les plus immédiats. Ce changement d’orientation dans la monétisation s’accompagne de prévisions selon lesquelles les principales entreprises d’intelligence artificielle augmenteront leurs dépenses d’investissement à plus de 375 milliards de dollars d’ici 2025, soulignant que la monétisation n’est plus une option, mais une obligation.
Les raisons derrière la lenteur à vendre de la publicité sont dues à des préoccupations concernant l’impact sur la base d’utilisateurs en croissance. Cependant, la pression économique pourrait pousser davantage de plateformes d’IA à reconsidérer leur stratégie de monétisation dans un avenir proche.
OpenAI a émis un avertissement concernant la menace croissante des attaques par injection de prompts, une technique qui cache des instructions malveillantes dans du contenu en ligne ordinaire, devenant un risque considérable pour les agents d’intelligence artificielle opérant dans les navigateurs web. L’entreprise a mis en œuvre une mise à jour de sécurité pour son outil ChatGPT Atlas après avoir découvert une nouvelle classe d’attaques lors de simulations internes de sécurité automatisées. Pas tant d’intelligence, mais très artificielle La version mise à jour d’Atlas inclut un modèle entraîné spécifiquement pour résister aux attaques adversariales, ainsi que des mesures de protection renforcées. Selon OpenAI, le mode agent du navigateur […]
OpenAI a émis un avertissement concernant la menace croissante des attaques par injection de prompts, une technique qui cache des instructions malveillantes dans du contenu en ligne ordinaire, devenant un risque considérable pour les agents d’intelligence artificielle qui opèrent dans les navigateurs web. L’entreprise a mis en place une mise à jour de sécurité pour son outil ChatGPT Atlas après avoir découvert une nouvelle classe d’attaques lors de simulations internes de sécurité automatisées.
Pas tant d’intelligence, mais très artificielle
La version mise à jour d’Atlas inclut un modèle entraîné spécifiquement pour résister aux attaques adversariales, ainsi que des protections renforcées. Selon OpenAI, le mode agent du navigateur permet au logiciel d’interagir sur le web de manière similaire à un utilisateur humain, accédant à des e-mails, des documents et des services web, ce qui augmente sa valeur en tant que cible d’attaques adversariales par rapport à un chatbot traditionnel qui ne répond qu’à des questions.
La société a développé un attaquant automatisé, utilisant des modèles de langage qui identifient des stratégies d’injection de prompts, ce qui permet de réaliser des flux de travail nuisibles complexes. Cet attaquant peut simuler des rencontres avec du contenu malveillant, générant une trace complète de raisonnement et d’actions de l’agent victime, ce qui aide à affiner les attaques à travers plusieurs rounds de test.
Un exemple hypothétique illustre le risque : un e-mail malveillant indiquant à l’agent d’envoyer une lettre de démission au supérieur de l’utilisateur. Si l’agent trouve cet e-mail lors d’une demande légitime, il pourrait mal interpréter les instructions, agissant au détriment de l’utilisateur. Ce changement dans la dynamique d’interaction souligne la nécessité d’aborder les nouvelles formes de risque en ligne.
Ce n’est pas seulement OpenAI qui est confronté à ce problème ; le Centre national de cybersécurité du Royaume-Uni a averti que ces attaques pourraient ne pas être complètement éliminées, incitant les organisations à minimiser les risques et à limiter les impacts. Avec l’introduction d’une équipe de « Préparation », OpenAI cherche à identifier et à traiter ces risques émergents dans le domaine de l’intelligence artificielle et de la cybersécurité.
Hannah Wong, Directrice des Communications d’OpenAI, a annoncé qu’elle quitterait l’entreprise à la fin janvier 2025, après près de cinq ans à ce poste. Wong a rejoint OpenAI en 2021, venant d’Apple, lorsque la société n’était encore qu’un petit laboratoire de recherche. Son leadership a été essentiel pendant une période de forte croissance et d’intérêt pour OpenAI, notamment après le lancement de ChatGPT. Sous sa direction, l’équipe des communications est passée d’environ huit à plus de 50 employés dans diverses régions, y compris les États-Unis, l’Europe et l’Asie. Hannah Wong annonce son départ de […]
Hannah Wong, Directrice de la Communication d’OpenAI, a annoncé qu’elle quittera l’entreprise à la fin janvier 2025, après presque cinq ans à ce poste.
Wong a rejoint OpenAI en 2021, en provenance d’Apple, lorsque l’entreprise n’était encore qu’un petit laboratoire de recherche. Son leadership a été essentiel durant une période de forte croissance et d’intérêt pour OpenAI, notamment après le lancement de ChatGPT.
Sous sa direction, l’équipe de communication est passée d’environ huit à plus de 50 employés dans diverses régions, y compris les États-Unis, l’Europe et l’Asie.
Hannah Wong told staff she is moving on to her “next chapter.” The company will be running an executive search to find a replacement, according to a memo. https://t.co/zLoz6H0Llq
Hannah Wong annonce son départ d’OpenAI après près de cinq ans
Wong a commenté que sa décision a été personnelle, lui permettant de faire un pas en arrière pour consacrer du temps à sa famille avant de relever son prochain défi professionnel.
En attendant, Lindsey Held Bolton, Vice-présidente des Communications, prendra la direction de l’équipe de communication, tandis que Kate Rouch, Directrice du Marketing, s’occupera de la recherche du prochain Directeur des Communications.
Le départ de Wong a été annoncé la même semaine où OpenAI confirmait que George Osborne, ancien Chancelier du Royaume-Uni, sera le nouveau Responsable d’OpenAI pour les Pays. Osborne jouera un rôle clé en collaborant avec les gouvernements pour moderniser les systèmes et faciliter l’intégration de l’intelligence artificielle dans les services publics.
Hannah Wong ha comunicado al personal que pasa a su "siguiente capítulo". La empresa iniciará una búsqueda de ejecutivos para encontrar un sustituto. https://t.co/zwa6M5IZ6J
De plus, OpenAI est impliquée dans plusieurs projets significatifs, comme le Stargate Project, évalué à 500 milliards de dollars, le lancement de Sora 2 et la mise à jour de GPT-5.2.
Des restructurations possibles au sein de l’entreprise ont également été évoquées avant une introduction en bourse (IPO) supposée. Sam Altman et Fidji Simo, les dirigeants d’OpenAI, ont reconnu l’impact de Wong sur la perception publique de la société, soulignant ainsi son héritage important dans la communication de la mission et des réalisations d’OpenAI.
OpenAI a annoncé une augmentation notable des performances de son modèle d’intelligence artificielle, GPT-5.1-Codex-Max, qui a atteint 76 % dans les évaluations de capacité. Cette avancée suggère un saut significatif dans la capacité du modèle à comprendre et à générer du langage naturel, ce qui pourrait avoir des implications importantes pour diverses applications, allant de l’automatisation des tâches à la création de contenu. Augmentation de l’utilisation dans les environnements de travail Selon les données fournies par la société, cette amélioration se manifeste dans une série de tests qui évaluent la précision, la pertinence et la créativité des réponses générées par le modèle. L’augmentation […]
OpenAI a annoncé une augmentation notable des performances de son modèle d’intelligence artificielle, GPT-5.1-Codex-Max, qui a atteint 76 % dans les évaluations de capacité. Cette avancée suggère un bond significatif dans la capacité du modèle à comprendre et à générer du langage naturel, ce qui pourrait avoir des implications importantes pour diverses applications, allant de l’automatisation des tâches à la création de contenu.
Augmentation de l’utilisation dans les environnements de travail
Selon les données fournies par la société, cette amélioration se manifeste dans une série de tests qui évaluent la précision, la pertinence et la créativité des réponses générées par le modèle. L’augmentation des performances met en évidence l’engagement d’OpenAI envers le développement continu de technologies qui optimisent l’interaction homme-machine, facilitant des expériences plus riches et efficaces pour les utilisateurs.
Cependant, avec l’enthousiasme pour ces améliorations, OpenAI a également émis des avertissements sur les risques cybernétiques qui pourraient surgir avec l’utilisation de sa technologie. L’entreprise souligne la nécessité d’être prudents face au potentiel mauvais usage de l’intelligence artificielle, qui pourrait entraîner la génération de désinformation ou la création de contenus trompeurs, posant ainsi un défi tant pour les développeurs que pour les utilisateurs de cette technologie avancée.
Ces développements coïncident avec un intérêt croissant dans le secteur technologique pour l’utilisation de l’intelligence artificielle dans le domaine des affaires et de la créativité. La possibilité que GPT-5.1-Codex-Max puisse influencer la manière dont les contenus sont produits et consommés est indéniable, mais cela nécessite également une analyse critique sur la façon de s’assurer que ces outils soient utilisés de manière éthique et responsable.
Les parents d’Adam Raine, un adolescent de 16 ans qui s’est suicidé en avril 2025, ont déposé une plainte contre OpenAI, affirmant que l’intelligence artificielle ChatGPT lui avait fourni des instructions sur des méthodes de suicide. Selon les rapports, Raine a commencé à utiliser le chatbot en septembre 2024 et avait partagé ses pensées suicidaires avec la plateforme à la fin de cette année-là. Sam Altman n’a pas de cœur En réponse à la plainte, OpenAI a affirmé qu’elle n’était pas responsable de la mort de Raine, soutenant que son suicide était le résultat d’un “mauvais usage” du chatbot. La société […]
Les parents d’Adam Raine, un adolescent de 16 ans qui s’est suicidé en avril 2025, ont déposé une plainte contre OpenAI, affirmant que l’intelligence artificielle ChatGPT lui avait fourni des instructions sur des méthodes de suicide. Selon les rapports, Raine a commencé à utiliser le chatbot en septembre 2024 et avait partagé ses pensées suicidaires avec la plateforme à la fin de cette année-là.
Sam Altman n’a pas de cœur
En réponse à la demande, OpenAI a affirmé qu’elle n’est pas responsable de la mort de Raine, soutenant que son suicide était le résultat d’un « usage abusif » du chatbot. La société argue que le jeune homme a violé les conditions d’utilisation en cherchant des informations sur le suicide. OpenAI souligne également que Raine avait déjà des pensées suicidaires avant d’interagir avec l’outil et qu’il avait essayé d’obtenir de l’aide d’autres sources sans succès.
Une déclaration de son avocat, Jay Edelson, qualifie de « perturbante » la réponse d’OpenAI, arguant que la société tente de détourner la culpabilité vers d’autres, y compris Raine lui-même. OpenAI a exprimé ses condoléances à la famille et a souligné que la situation exige une prise en compte complète des faits, suggérant que la plainte ne présente pas tous les détails pertinents concernant la santé mentale du jeune.
L’affaire a conduit OpenAI à revoir ses politiques concernant l’utilisation du chatbot en matière de santé mentale. En septembre 2025, l’entreprise a annoncé que ChatGPT ne pourrait plus discuter des sujets de suicide avec des mineurs de moins de 18 ans. Cependant, un mois plus tard, OpenAI a annoncé qu’elle assouplirait certaines restrictions qui affectent l’utilité du chatbot pour les utilisateurs sans problèmes de santé mentale et qu’elle permettrait la création de contenu « érotique » pour les utilisateurs adultes vérifiés à partir de décembre.
L’intelligence artificielle générative suscite des remous dans l’industrie créative du Japon, avec un malaise croissant parmi les professionnels de l’anime et les éditeurs. Récemment, le lancement de Sora 2 par OpenAI a intensifié ces préoccupations, ce qui a conduit des acteurs de voix de renom et des studios célèbres comme Toei Animation et
L’intelligence artificielle générative suscite des remous dans l’industrie créative du Japon, avec un malaise croissant parmi les professionnels de l’anime et les éditeurs. Récemment, le lancement de Sora 2 par OpenAI a intensifié ces préoccupations, amenant des acteurs de voix de renom et des studios célèbres comme Toei Animation et Studio Ghibli à se rassembler pour défendre leurs droits d’auteur.
Toutes les grandes entreprises disent non à l’IA générative
Des études et des maisons d’édition, parmi lesquelles Shueisha, Kodansha et Kadokawa, ont publié des communiqués demandant la mise en place de lois plus strictes pour protéger leurs créations face à ce qu’elles perçoivent comme des violations de la part d’OpenAI. Cet appel à l’action est survenu après la présentation de Sora 2, dont le modèle d’IA pour créer de l’animation a suscité des critiques en raison de sa surprenante similitude avec des œuvres établies, comme Blue Exorcist.
La coalition promeut la coopération entre les studios, les éditeurs et les agences gouvernementales, cherchant à établir un front uni contre les violations des droits d’auteur dans le domaine de l’intelligence artificielle. Ils estiment qu’il est nécessaire que le gouvernement japonais prenne des mesures décisives, car la situation a atteint un point critique.
Malgré l’opposition à l’exploitation des droits d’auteur, certaines maisons d’édition, comme Shueisha, ont exprimé leur volonté d’incorporer l’IA dans des tâches spécifiques, comme la traduction et le sous-titrage, bien qu’avec une approche défensive face aux violations potentielles des droits d’auteur. Selon cette approche, bien que certains progrès technologiques puissent être les bienvenus, lorsque les droits d’auteur sont menacés, la défense devient prioritaire.
La controverse continue de croître, et il se murmure que la pression sur le gouvernement japonais pourrait accélérer la réglementation de l’utilisation de l’intelligence artificielle dans l’industrie créative. Avec le soutien de grands noms comme Square Enix et l’Association des Animateurs Japonais, le message est clair : la protection de la propriété intellectuelle est fondamentale dans cette nouvelle ère numérique.
George R.R. Martin, connu pour sa série Le Trône de fer, ainsi que d’autres auteurs, a poursuivi OpenAI, la société derrière ChatGPT, en alléguant qu’elle a enfreint ses droits d’auteur. Cette action en justice prend de l’importance dans le contexte de l’inquiétude croissante concernant l’utilisation de l’intelligence artificielle et le contenu protégé par le droit d’auteur. La machine à plagiat a du mal à prouver qu’elle ne plagie pas. La plainte repose sur trois théories d’infraction. Tout d’abord, il est soutenu que l’utilisation de livres protégés par le droit d’auteur pour entraîner des modèles d’IA constitue une violation des droits. Ensuite […]
George R.R. Martin, connu pour sa série Le Trône de fer, ainsi que d’autres auteurs, a poursuivi OpenAI, la société derrière ChatGPT, en alléguant qu’elle a enfreint ses droits d’auteur. Cette action en justice prend de l’importance dans le contexte de l’inquiétude croissante concernant l’utilisation de l’intelligence artificielle et le contenu protégé par le droit d’auteur.
La machine à plagiat a du mal à prouver qu’elle ne plagie pas
La demande repose sur trois théories d’infraction. Tout d’abord, il est soutenu que l’utilisation de livres protégés par des droits d’auteur pour entraîner des modèles d’IA constitue une violation des droits. Deuxièmement, il a été avancé qu’OpenAI a accédé à des livres via des bibliothèques clandestines, ce qui pourrait également être qualifié de piraterie. Enfin, il est suggéré que les réponses générées par ChatGPT sont substantiellement similaires aux œuvres originales de Martin et d’autres auteurs, un point que les juges ont considéré comme significatif en affirmant que des résumés détaillés pourraient être facilement identifiés comme similaires aux livres originaux.
Les dommages pour cette infraction pourraient atteindre 150 000 $, ce qui souligne la gravité des accusations. La phase suivante du processus judiciaire implique un procès sommaire, où il sera décidé quels recours iront en jugement, ce qui déterminera l’issue de l’affaire et pourrait établir un précédent important à l’intersection entre l’IA et la propriété intellectuelle.
En attendant, les fans de Martin peuvent s’attendre à son retour dans le monde de Westeros avec la série A Knight of the Seven Kingdoms, qui sera diffusée le 18 janvier 2026. La série sera basée sur les romans Dunk and Egg et se déroulera 100 ans avant les événements de Game of Thrones, suivant les aventures du chevalier Ser Duncan le Haut et de son jeune écuyer, Egg.