jouvenot.com

ChatGPT : 20€ par mois ? À ce prix-là, même votre grille-pain hallucine

Nous payons 20 € par mois pour ChatGPT, mais ce tarif est largement subventionné. En réalité, son coût d’usage réel se situerait entre 100 et 1 500 € par utilisateur selon l’intensité d’usage. OpenAI est en train de rejouer le scénario Google : offrir gratuitement une technologie révolutionnaire sans savoir, au départ, comment la rentabiliser.

 

L’intelligence artificielle ne fait pas encore de bénéfices, mais elle en coûte beaucoup

Depuis l’ouverture de ChatGPT au grand public en novembre 2022, OpenAI n’a cessé d’impressionner par les prouesses de son modèle. Les utilisateurs s’en servent pour tout : brainstormings, rédaction, synthèses, automatisation… Pour 20 € par mois, l’accès à GPT-4 Turbo ressemble à une aubaine. Trop belle pour être vraie.

Selon Sam Altman lui-même, l’usage réel de ChatGPT est extraordinairement coûteux (1). Les LLMs (Large Language Models) consomment une énergie de calcul hors norme, mobilisent des GPU spécialisés à prix d’or, et nécessitent un stockage permanent des paramètres (des centaines de milliards) pour rester opérationnels.

Des estimations crédibles avancent qu’un utilisateur actif intensif pourrait générer entre 1 et 3 dollars de coût serveur… par heure d’utilisation (2). En extrapolant, cela représenterait entre 100 et 1 500 € par mois et par utilisateur professionnel — un modèle totalement insoutenable sans subvention ou financement croisé.

Le paradoxe OpenAI : démocratiser une technologie de luxe

Pourquoi alors proposer un abonnement à 20 € ? Parce qu’il faut créer l’usage avant de créer la monétisation. Exactement comme Google en 2000, qui ne savait pas comment rentabiliser son moteur de recherche jusqu’à l’invention d’AdWords.

OpenAI cherche son propre modèle économique viable. Plusieurs pistes sont en cours :

  • Licences professionnelles (API) : OpenAI facture déjà l’usage de son modèle via des API payantes, intégrées à des produits tiers (Notion, Zapier, Microsoft Copilot…).
  • Offres entreprises : des forfaits sur mesure sont vendus aux grands comptes, avec des garanties de sécurité, confidentialité et service.
  • Partenariat stratégique avec Microsoft : Azure assure l’infrastructure cloud, mais aussi une source majeure de revenus indirects via la suite Microsoft 365.
  • Marketplace d’outils GPTs personnalisés : encore embryonnaire, elle pourrait à terme devenir un App Store de l’IA.

Mais pour l’instant, le grand public paie bien en dessous du coût réel. Une stratégie que certains comparent à une “subvention de masse” visant à créer une dépendance et à verrouiller un avantage concurrentiel.

Une guerre d’écosystèmes, pas de produits

Comme Google ou Facebook avant elle, OpenAI ne vend pas une technologie mais une infrastructure. Elle cherche à capter des parts d’attention, des habitudes de travail, des volumes de données. La rentabilité viendra ensuite.

En face, Google (Gemini), Anthropic (Claude), Mistral, Meta (LLaMA), xAI (Elon Musk)… Tous avancent leurs pions. Aucun ne gagne d’argent. Tous brûlent du cash. Et tous savent que le premier à trouver le bon modèle — celui qui mariera puissance, adoption massive et rentabilité — raflera la mise.

La technologie est déjà là. Mais le vrai enjeu est commercial, presque politique : qui contrôlera le standard d’usage de demain ? Qui saura imposer son Google AdWords de l’IA générative ?

Nous vivons une époque étrange où une technologie qui vaut une fortune nous est facturée une bouchée de pain. Cela ne durera pas éternellement. OpenAI, comme Google en son temps, devra tôt ou tard choisir entre deux voies : facturer plus… ou monétiser autrement. Mais qui paiera l’addition tandis que nous laisserons des pourboires.

Notes

(1) Sam Altman, interview au MIT, avril 2023.
(2) Dylan Patel & Afzal Ahmad, SemiAnalysis, janvier 2024. Estimation basée sur le coût des tokens générés par GPT-4.
(3) Simon Willison, The real cost of running GPT-4, blog personnel, mars 2024.
(4) Emily Bender et Timnit Gebru, “On the Dangers of Stochastic Parrots”, FAccT Conference, 2021.

Lexique 
AdWords (devenu Google Ads) AdWords, aujourd’hui appelé Google Ads, est la plateforme publicitaire de Google. Elle permet aux annonceurs d’acheter des mots-clés aux enchères : quand un internaute tape “avocat Paris”, celui qui a misé le plus sur ce mot-clé apparaît en premier dans les résultats sponsorisés. C’est ce système qui a permis à Google de devenir rentable — et immensément riche.

API (Application Programming Interface) Une API est une interface logicielle qui permet à deux applications de communiquer entre elles. Par exemple, l’API d’OpenAI permet à un site web ou un logiciel d’envoyer une question à ChatGPT et de recevoir une réponse automatique. C’est un peu comme un serveur dans un restaurant : il transmet votre commande à la cuisine et vous rapporte le plat.

GPU (Graphics Processing Unit) Un GPU est un processeur spécialisé dans les calculs en parallèle, à l’origine conçu pour afficher des images et vidéos (notamment dans les jeux vidéo). Aujourd’hui, il est devenu indispensable pour entraîner et faire fonctionner les intelligences artificielles, car il peut traiter des millions de calculs simultanément, bien plus rapidement qu’un processeur classique (CPU).

LLM (Large Language Model) : Modèle de traitement du langage naturel entraîné sur des corpus massifs pour générer du texte cohérent et pertinent.
Token : Unité de base du traitement linguistique, équivalent à un mot ou une syllabe selon les cas. Les modèles d’IA comptent leur coût en tokens.