ChatGPT coûte-t-il vraiment 700 000 dollars par jour à OpenAI ?

FACT-CHECKING / L’entreprise américaine OpenAI débourse-t-elle vraiment 700 000 dollars par jour pour faire fonctionner son célèbre agent conversationnel ChatGPT, comme l’ont relayé plusieurs médias ces derniers jours ? Approximative, cette donnée mérite recontextualisation. 

ChatGPT coûte-t-il vraiment 700 000 dollars par jour à OpenAI ?
Image d'illustration © Hamara, Shutterstock

Un brin de lumière dans un système opaque. Depuis le lancement de son célèbre chatbot en novembre 2022, l’entreprise américaine OpenAI s’est montrée particulièrement silencieuse sur le fonctionnement de son agent conversationnel ChatGPT. Hormis le nombre d’utilisateurs – qui a dépassé les 100 millions en janvier – et son modèle d’apprentissage, qui repose sur le deep learning, la société à but lucratif plafonné garde le secret sur le détail de ses profits, sur la taille de son modèle d’IA, sur celle des machines qui l’entraînent ou encore sur le nombre exact de requêtes reçues chaque jour par le chatbot. Mais une étude publiée le 9 février dernier par le cabinet américain SemiAnalysis tente de lever une partie du voile qui entoure OpenAI.

Lors d’une interview accordée au média spécialisé dans l’industrie technologique The Information, le 18 avril dernier, l’analyste en chef du bureau d’études de SemiAnalysis, Dylan Patel, a déclaré que le fonctionnement de ChatGPT pourrait coûter à OpenAI jusqu'à 700 000 dollars par jour, en raison de l'infrastructure technologique onéreuse grâce à laquelle l'IA fonctionne. Ce chiffre, déjà exposé dans son étude datée de février et intitulée « Le coût d'inférence de la perturbation de la recherche - Analyse des coûts des grands modèles de langage », a depuis été repris à l’envi par la presse, qui présente tantôt cette information au conditionnel, tantôt au présent de vérité générale. Mais est-elle réellement pertinente ? L’entreprise américaine aux 375 employés débourse-t-elle quotidiennement 700 000 dollars pour faire fonctionner ChatGPT ?

Un ordre de grandeur « réaliste »

Dans son étude, Dylan Patel affirme bel et bien que « ChatGPT coûte 694 444 dollars [soit 628 784 euros, nldr] par jour pour fonctionner », soit près de 700 000 dollars. Afin d’obtenir ce résultat, le chercheur s’est basé sur des données connues ou supposées de ChatGPT, comme le nombre de paramètres, estimé à 175 milliards, le nombre de tokens par réponse, établi à 2 000, ou encore le taux d'utilisation du matériel, qui environne les 50 %. Mais plusieurs des variables du calcul demeurent « inconnues », précise l’auteur principal, puisqu’OpenAI ne communique que des informations lapidaires à ce sujet.

Selon vous, est-ce démesuré de débourser 700 000 dollars par jour pour faire fonctionner un modèle d'IA comme ChatGPT ?

« Il est difficile d’établir un coût de fonctionnement exact d’un modèle d’IA comme ChatGPT étant donné l’opacité d’OpenAI, confirme Virginie Mathivet, docteure en intelligence artificielle. De plus, beaucoup de paramètres sont à prendre en compte, comme l’interface web, qui nécessite de nombreux serveurs pour fonctionner, le load balancing, un système qui emmagasine toutes les requêtes et qui les renvoie vers les machines disponibles, ou encore les cartes graphiques, que l’on appelle GPU et qui coûtent chacune entre 1 et 30 dollars de l’heure ».
 
Outre ces variables incertaines, Dylan Patel a précisé au média américain Business Insider que le coût d’exploitation de l’agent conversationnel est probablement encore plus élevé depuis la mise à jour du modèle GPT-3. Accessible sur abonnement depuis le mois de mars, GPT-4 serait plus coûteux à exploiter car plus performant.
« Le résultat final est faux, en tant que tel, mais il donne un ordre d’idée du coût de fonctionnement de ChatGPT par jour »
Virginie Mathivet, docteure en intelligence artificielle

Pour Virginie Mathivet, bien que le résultat affiché par le bureau d’étude de SemiAnalysis soit « réaliste », il n’en demeure pas moins approximatif. « Le résultat final est faux, en tant que tel, mais il donne un ordre d’idée du coût de fonctionnement de ChatGPT, qui se situe quelque part entre 500 000 et 1 000 000 de dollars par jour », estime la chercheuse.

Cet ordre de grandeur, c’est aussi celui qu’affichent des entreprises comme Airbnb et Netflix, qui payent entre 10 et 20 millions de dollars par mois pour faire fonctionner leur plateforme et notamment stocker leurs données, selon Virginie Mathivet. « Les autres modèles d’IA qui existent aujourd’hui sont moins comparables puisqu’ils sont beaucoup plus petits et comptent un nombre restreint d’utilisateurs, avance l’experte en intelligence artificielle. Même Google, qui a sorti Bard de ses tuyaux, ne paye sans doute pas autant, puisqu’il héberge son modèle d’IA sur son propre cloud ».

Objectif réduction des coûts

Alors, combien paye réellement OpenAI pour faire fonctionner ChatGPT ? Difficile à dire. Selon le média Presse Citron, dont les citations ont depuis été reprises par 20 Minutes, « l’intelligence artificielle répond à plus de 1,5 milliard de requêtes par jour et chacune coûte environ 33 centimes à l’entreprise ». Concernant le nombre moyen de demandes envoyées quotidiennement à ChatGPT, OpenAI n’a rien communiqué de tel, ce qui ne nous permet pas de corroborer les affirmations des deux médias français. Par contre, une requête est loin de coûter 33 centimes, si l’on se réfère à l’étude de SemiAnalysis. En effet, cette dernière est estimée à 0,36 cents l’unité, soit 0,0036 dollars.

Par ailleurs, il n’y a pas que les requêtes qui pèsent sur le prix de ChatGPT. Si les coûts d’inférence « dépassent de loin les coûts de formation lors du déploiement d’un modèle à une échelle raisonnable  », précisent Dylan Patel et Afzal Ahmad, un autre analyste de SemiAnalysis, lors d’une interview accordée à Forbes en février dernier, la formation des grands modèles linguistiques de ChatGPT coûterait tout de même des dizaines de millions de dollars, selon le média américain. 

Pour Virginie Mathivet, quel qu’en soit le coût exact, OpenAI ne paye sans doute pas la totalité des frais nécessaires pour faire fonctionner son agent conversationnel. « Sachant que Microsoft constitue le seul fournisseur de cloud d’OpenAI et qu’il a intégré ChatGPT à son pack office, la multinationale a sans doute fait un geste commercial sur la facture en retour, spécule la docteure en IA. Il y a très certainement des accords commerciaux derrière et une réduction de la note totale ».

Par ailleurs, OpenAI pourrait bien baisser un peu plus sa facture. En effet, Microsoft s’est donné pour mission de réduire les frais engendrés, selon les informations du média The Information, en abaissant l’exigence de calcul, soit le nombre d’opérations nécessaires pour fournir une réponse à une requête, et en mettant au point ses propres puces. Baptisé « Athena », ce projet débuté en 2019 pourrait aboutir sur des premiers tests en interne dès l’année prochaine.

Sur le même sujet :