15 millions d’exécution de ses modèles d’IA par seconde ! Uber s’est tourné vers Oracle et Ampere Computing pour optimiser traitement de ses workloads IT dans le cloud jusqu’au niveau du processeur.
Uber, qui hébergeait auparavant plus de 90 % de son système sur ses propres infrastructures, s’était tourné vers les cloud d’Oracle et de Google en 2023. Depuis, Uber a choisi d’aller plus loin pour contrôler l’exécution des workloads dans OCI (Oracle Cloud Infrastructure). Et d’inclure dans son projet le concepteur américain de puces « fabless » Ampere Computing. Aujourd’hui, 95 % des services d’Uber fonctionnent sur l’infrastructure OCI Ampere Computing…
A entendre Oracle, c’est une avancée importante. Et d’y voir un exemple essentiel de la manière dont les entreprises peuvent moderniser leur infrastructure pour réaliser des économies, améliorer les performances et favoriser la durabilité. Si les réalisations d’Uber sont remarquables, commente l’éditeur, elles s’inscrivent dans un mouvement plus large : les capacités d’inférence d’IA de pointe d’Ampere, les innovations en matière de sécurité et la collaboration avec les services propriétaires d’Oracle.
Au cœur de la transition d’Uber
Alors que l’entreprise ajoute 1,5 milliard de trajets par an à sa plateforme, il était essentiel de trouver un équilibre entre expansion rapide et efficacité opérationnelle. En migrant vers OCI Ampere Compute, Uber a réduit ses coûts d’infrastructure, tout en diminuant sa consommation d’énergie de 30 %. Ces résultats ont été essentiels pour la stratégie de croissance à long terme d’Uber, permettant à l’entreprise de maintenir sa rentabilité tout en poursuivant des objectifs d’expansion ambitieux.
De plus, le passage d’Uber vers OCI Ampere Compute a renforcé son engagement en faveur du développement durable. À l’heure où certaines entreprises reviennent aux solutions sur site, Uber démontre que l’infrastructure cloud, avec les bons partenaires, peut offrir des avantages à la fois opérationnels et environnementaux.
Inférence IA sur OCI Ampere Compute : stimuler l’innovation dans tous les secteurs
Alors que l’expérience d’Uber met en évidence ses propres gains en termes d’efficacité et de durabilité, les capacités d’IA d’Ampere offrent également des avantages significatifs à un large éventail d’entreprises. Les processeurs d’Ampere offrent désormais un rapport prix/performance jusqu’à 152 % supérieur pour l’inférence IA lors de l’utilisation des modèles llama.cpp de Meta, ce qui fait d’Ampere un choix attrayant pour les entreprises qui cherchent à optimiser les charges de travail d’IA.
Les formes de calcul A1 d’Ampere permettent aux entreprises d’exécuter simultanément des tâches d’inférence IA et de calcul général, maximisant ainsi l’utilisation des ressources et réduisant le besoin de GPU coûteux. Cette polyvalence est essentielle pour permettre une innovation plus rapide dans tous les secteurs. Avec le calcul OCI Ampere, les entreprises peuvent adopter une IA avancée sans compromettre le coût ou l’efficacité, garantissant ainsi que les entreprises de toutes tailles peuvent faire évoluer les charges de travail d’IA à mesure que leurs besoins évoluent.
Les nouveaux services Oracle First-Party s’exécutent sur Oracle OCI Ampere Compute
L’un des ajouts les plus notables est la plateforme Oracle Data Science, désormais exécutée sur OCI Ampere Compute. Cette plateforme joue un rôle crucial dans la prise en charge du développement et du déploiement de modèles d’IA à grande échelle. En exploitant les processeurs d’Ampere, Oracle offre à ses clients un meilleur rapport prix/performance pour les charges de travail d’IA exigeantes, offrant aux entreprises un ensemble d’outils puissants pour exploiter tout le potentiel de la science des données et de l’IA.
Toujours selon Oracle, la migration vers OCI Ampere Compute démontre comment les grandes entreprises peuvent exploiter la puissance des formes de calcul basées sur Ampere pour évoluer efficacement. En adoptant les formes de calcul OCI Ampere A1 et A2, Uber a obtenu la flexibilité d’infrastructure nécessaire pour gérer sa plateforme en pleine croissance tout en réduisant considérablement les coûts.
Enfin, Uber a migré une partie de son environnement Hadoop Distributed File System (HDFS) Big Data, l’un des plus importants du secteur, et a re-plateformisé sa couche de stockage vers OCI Object Storage. En conséquence, Uber a la flexibilité de faire évoluer le stockage vers une capacité presque illimitée avec une durabilité extrêmement élevée.