Pendant les derniers jours, a été contraint d'intervenir de manière décisive L'une des polémiques les plus commentées autour de ChatGPT concernait l'apparition de recommandations d'applications qui, pour de nombreux utilisateurs, ressemblaient à de la publicité pure et simple. Ce qui avait commencé par quelques captures d'écran sur les réseaux sociaux a fini par déclencher un vaste débat : l'entreprise avait-elle décidé d'intégrer de la publicité à son assistant conversationnel sans prévenir ?
L'entreprise a réagi, et elle l'a fait par une mesure décisive : Désactiver complètement le système de suggestions qui a suscité la controverseBien qu'OpenAI insiste sur le fait qu'il ne s'agissait jamais de publicités payantes, le format choisi et la manière dont ces messages ont été affichés ont franchi une limite délicate dans la perception des utilisateurs, en particulier parmi ceux qui paient un abonnement mensuel et s'attendaient à une expérience exempte de toute publicité.
Comment la controverse autour des « recommandations » sur ChatGPT a commencé

L'origine du conflit semblait simple : Plusieurs utilisateurs ont commencé à recevoir des recommandations d'applications tierces au cours de leurs conversations. Ces liens directs renvoyaient vers des services comme Peloton, Booking.com, Canva, CapCut, Spotify et Target. Ces suggestions apparaissaient intégrées à l'interface de ChatGPT, à la manière d'un bloc de publicité contextuelle, sans aucune indication claire qu'il s'agissait d'une expérience.
Les captures se sont rapidement propagées et, petit à petit, L'idée s'est répandue que ChatGPT avait commencé à afficher de la publicité cachée.Même pour les abonnés au service Pro. Certains utilisateurs se sont plaints que ces messages n'avaient aucun rapport avec leur demande au modèle, renforçant l'impression qu'il s'agissait de publicités insérées sans justification.
Le mécontentement s'est particulièrement accentué au sein de la communauté plus technique et des abonnés payants, qui Ils ont même envisagé de résilier leur compte, estimant que l'expérience n'était plus neutre.L'affaire a attiré l'attention des médias technologiques internationaux, qui ont rassemblé à la fois les plaintes et la version des faits de l'entreprise afin de tenter de clarifier exactement ce qui se passait au sein de la plateforme.
Parallèlement, la discussion s'est mêlée à une autre préoccupation sous-jacente : un possible passage à un modèle de monétisation basé sur la publicitéTirant parti du fait que ChatGPT compte déjà des centaines de millions d'utilisateurs hebdomadaires et est devenu un point de référence aussi courant que les principaux moteurs de recherche.
Qu'est-ce qu'OpenAI a déclaré tester réellement ?

Selon l'explication officielle de l'entreprise, système expérimental conçu pour donner de la visibilité aux applications intégrées à l'écosystème ChatGPT. Depuis l'introduction de applications et outils connectés Dans ce modèle, OpenAI explore des moyens de suggérer des extensions et des services susceptibles d'être utiles en fonction du contexte de la conversation.
En théorie, l'idée était que si l'utilisateur demandait quelque chose en rapport avec l'exercice physique, la planification de voyages ou le montage vidéo, suggérer des applications compatibles pour accomplir la tâche. Ses créateurs insistent sur le fait qu'aucun accord commercial ni paiement n'ont été impliqués : il s'agissait d'un mécanisme de découverte d'applications développé sur leur propre SDK.
Le problème, c'est qu'en pratique, le système n'était pas suffisamment peaufiné. Ils n'avaient aucun sens Dans de nombreux cas, cela a perturbé le déroulement des conversations et a donné l'impression d'être de simples manœuvres marketing. Des utilisateurs discutant de sujets sans rapport avec le contenu se voyaient soudainement proposer des suggestions de Peloton ou de magasins spécifiques sans aucune justification claire.
Daniel McAuley, responsable des données chez ChatGPT, a reconnu que le manque de pertinence Il a qualifié ces suggestions d'expérience « négative ou déroutante ». Il a expliqué que l'objectif à moyen terme est que l'assistant puisse orienter vers des applications pour une interaction directe — par exemple, réserver un hébergement, retoucher une image ou gérer des documents — mais a admis qu'en l'état actuel des choses, le système n'atteignait pas cet objectif sans créer de confusion.
Reconnaître ses erreurs et décider de désactiver le système
Face à la montée des critiques, des figures clés d'OpenAI ont dû fournir publiquement des explications. Mark Chen, directeur de la recherche au sein de l'entrepriseIl a déclaré comprendre cette préoccupation et que l'entreprise ne pouvait ignorer la façon dont le comportement du système était perçu, au-delà de ses intentions techniques.
Chen a clairement admis que On dirait une publicité Il convient de l'utiliser avec précaution, et dans ce cas précis, la conception de l'expérience utilisateur s'est révélée défaillante. Suite à cette réflexion, il a confirmé que l'entreprise avait décidé de désactiver complètement ce type de suggestion le temps d'en améliorer la précision et de proposer aux utilisateurs des options plus claires pour la réduire ou la désactiver s'ils la jugent inutile.
Cependant, Chen a lui-même précisé que le problème ne se limitait pas à un simple malentendu de la part du public. la conception spécifique de ces modules Cela ressemblait trop à celui d'un bloc publicitaire traditionnelde sorte que la frontière entre recommandation contextuelle et publicité déguisée est devenue dangereusement floue.
Le message qu'OpenAI tente désormais de transmettre est double : d'une part, pas de pubs Ces suggestions ne sont étayées par aucun accord commercial ; en revanche, ils ont pris au sérieux le mécontentement de la communauté et ont choisi de retirer le système avant de le relancer avec une approche différente et, vraisemblablement, avec un étiquetage plus clair.
Confiance des utilisateurs, transparence et avenir de la monétisation
L'incident se produit à un moment où Le modèle économique des grandes IA génératives est scruté de près.La maintenance et l'entraînement de systèmes comme ChatGPT nécessitent une infrastructure coûteuse : d'immenses centres de données, une consommation énergétique bien supérieure à celle d'un moteur de recherche traditionnel et des ressources humaines spécialisées. Jusqu'à présent, OpenAI a été financée principalement par des abonnements et des contrats d'entreprise, mais le débat sur la publicité est désormais ouvert.
En effet, ces derniers mois, des versions bêta de l'application ChatGPT pour Android ont été analysées, dans lesquelles Des références de code à des fonctions potentiellement liées à la publicité ont été trouvées.En particulier celles liées à l'expérience de recherche au sein même du chatbot. Des termes comme « annonce de recherche » ou « fonctionnalités publicitaires » ont alimenté les spéculations quant à un avenir où la version gratuite pourrait être partiellement financée par la publicité.
OpenAI a tenté de dissocier ce problème structurel de la controverse actuelle. Ces références font partie des tests internes. et non un déploiement imminent de publicités ciblées. Parallèlement, la direction a laissé entendre à plusieurs reprises qu'elle n'excluait pas d'utiliser la publicité comme source de revenus à terme, notamment pour les utilisateurs de la version gratuite de ChatGPT.
Dans ce contexte, la réaction aux suggestions d'applications fait presque office de thermomètre : sensibilité de l'utilisateur Tout ce qui ressemble à une publicité est perceptible, surtout lorsqu'il est intégré à une conversation censée être impartiale. Cela complique la conception de toute solution de monétisation future impliquant l'introduction de messages sponsorisés ou de recommandations commerciales.
Si l'entreprise décide de reprendre ces fonctions, tout porte à croire qu'elle devra le faire avec L'accent est davantage mis sur la transparence.: des étiquettes visibles, une séparation claire entre la réponse du modèle et le contenu promotionnel, et des commandes simples permettant à l'utilisateur de décider de la quantité de ce type de contenu qu'il souhaite voir au quotidien.
Impact sur les utilisateurs en Europe et défis réglementaires
Pour les utilisateurs européens, la discussion comporte une nuance supplémentaire. Réglementation de l'Union européenne relative à la protection des données, à la publicité et aux services numériques Elle est particulièrement stricte à l'égard des pratiques qui pourraient être confondues avec de la publicité déguisée ou qui impliquent un profilage opaque des utilisateurs à des fins commerciales.
Si ChatGPT devait intégrer ouvertement des publicités à l'avenir, OpenAI devra s'adapter au Règlement général sur la protection des données (RGPD).Outre les exigences du règlement sur les services numériques et les recommandations émergentes concernant les systèmes d'IA à fort impact, tout système mêlant recommandations automatisées et publicité personnalisée sans explications claires s'exposerait à un examen minutieux de la part des organismes de réglementation et des autorités de protection des consommateurs.
Pour l'instant, l'entreprise affirme que Les utilisateurs européens continueront de voir des suggestions d'applications dans le cadre des tests, dans certains cas.Mais toujours sans composante économique. On s'attend à ce qu'après le retrait du système le plus controversé, les futurs essais soient menés de façon plus limitée et en mettant davantage l'accent sur les explications relatives aux résultats obtenus et à leur justification.
Dans un environnement où La confiance est devenue un atout essentiel pour les services d'IADes épisodes comme celui-ci confirment que toute initiative en matière de publicité doit être mûrement réfléchie. L'absence d'enjeu financier ne suffit pas : la perception des utilisateurs, notamment en Europe, compte autant, voire plus, que l'architecture interne du système.
Au final, ce qui s'est passé avec ChatGPT nous livre une leçon assez claire : la ligne qui sépare L'aide contextuelle intégrée à une publicité cachée est très subtile. OpenAI a choisi de limiter et de supprimer les suggestions susceptibles de créer de la confusion, consciente qu'une seule fonctionnalité mal conçue peut éroder une relation de confiance bâtie au fil des années. Désormais, toute tentative de réintroduire les recommandations d'applications ou d'explorer de nouveaux formats publicitaires devra démontrer clairement qu'elle privilégie la clarté et l'expérience utilisateur à la tentation de monétiser à tout prix.