Depuis un certain temps, des rumeurs courent selon lesquelles Google pourrait introduire des frais pour les résultats de recherche améliorés par l’IA, notamment via un service de recherche premium proposé intégrant l’IA générative. L’avenir de ce développement est encore incertain, mais un changement évident est évident alors que Google met fin à l’accès gratuit à son API Gemini, marquant un tournant stratégique dans son approche financière de l’IA.
Google a initialement fourni un accès gratuit à ses offres d’IA pour attirer les développeurs et concurrencer la première présence d’OpenAI sur le marché. OpenAI avait déjà commencé à capitaliser sur ses API et ses grands modèles de langage. Désormais, Google vise à emboîter le pas en monétisant les services au sein de ses offres cloud et AI Studio, ce qui suggère que l’ère de l’accès gratuit et illimité touche peut-être à sa fin.
L’API PaLM a disparu depuis longtemps
Dans un e-mail adressé aux développeurs rapporté par Techradar, Google a annoncé qu’il abandonnerait l’API PaLM, précurseur du modèle Gemini utilisé pour créer des chatbots personnalisés, via AI Studio à partir du 15 août. Cette API avait déjà été supprimée en février. La stratégie de Google consiste à faire passer les utilisateurs du service gratuit en promouvant le Gemini 1.0 Pro, plus fiable. L’e-mail conseille :
«Nous encourageons les tests d’invites, le réglage, l’inférence et d’autres fonctionnalités avec Gemini 1.0 Pro stable pour éviter les interruptions. Vous pouvez utiliser la même clé API que celle que vous avez utilisée pour l’API PaLM pour accéder aux modèles Gemini via les SDK Google AI.
La structure des coûts pour la version payante commence à 7 $ pour un million de jetons d’entrée et monte à 21 $ pour la même quantité de jetons de sortie. Une exception existe dans le plan de Google ; PaLM et Gemini continueront d’être disponibles pour les clients qui s’abonnent à Vertex AI dans Google Cloud.
PaLM et Gémeaux continuera d’être disponible pour ceux qui ont investi dans Vertex AI sur Google Cloud. En revanche, AI Studio reste le choix le plus accessible pour les développeurs travaillant avec des budgets plus serrés et qui trouvent Vertex AI trop coûteux.

Les API de Google sont alimentées par le matériel des propres centres de données de l’entreprise, Gemini fonctionnant sur des TPU spécialement conçus pour les tâches de formation et d’inférence.
Dans le cadre d’un investissement important dans les infrastructures, Google a alloué des milliards à la construction de nouveaux centres de données, y compris un récent engagement d’un milliard de dollars dans une installation au Royaume-Uni.
Les investissements substantiels dans les centres de données pour soutenir les opérations d’IA représentent un risque considérable, compte tenu de l’absence de modèles de revenus établis pour l’IA. Cependant, à mesure que l’adoption des grands modèles de langage (LLM) se développe, de modestes flux de revenus provenant de services tels que les API pourraient aider à compenser les coûts substantiels associés au développement du matériel et des centres de données nécessaires.
De la même manière, d’autres sociétés d’IA investissent plusieurs milliards de dollars dans de nouveaux centres de données, dans le but de générer suffisamment de revenus grâce à l’IA pour couvrir ces dépenses substantielles.
Crédit image en vedette : Mitchell Luo/Unsplash