Face à la pénurie et à la hausse des prix des puces GPU pour l’IA, Microsoft cherche à créer ses propres solutions GPU pour ses équipes et celles d’OpenAI.

Microsoft a rapidement compris l’importance des puces GPU dans le développement de l’intelligence artificielle (IA) et, afin d’éviter une dépendance coûteuse envers Nvidia, elle développe ses propres GPU pour les applications d’IA. Le projet, codéveloppé avec OpenAI et lancé en 2019, porte le nom de code Athena.
Le monopole de Nvidia sur le marché des processeurs graphiques utilisés pour l’apprentissage automatique, notamment pour les modèles de langage étendus (comme ChatGPT ou Bard de Google) et l’IA générative en général, a entraîné une hausse des prix. En raison de la demande croissante dans la course à l’IA, le secteur connaît une pénurie de puces, ce qui a fait grimper les prix de manière astronomique. Selon les estimations, OpenAI aurait besoin de plus de 30 000 GPU A100 de Nvidia pour commercialiser ChatGPT, avec un coût unitaire de 10 000 dollars par puce.
L’intelligence artificielle représente un coût important et Microsoft, qui en a récemment fait un pilier de son activité, cherche à contourner cette contrainte. Ainsi, la société de Redmond travaille sur ses propres GPU, sous le nom de code Athena, et aurait accéléré leur développement ces derniers temps.
Les puces, conçues pour l’apprentissage de logiciels, sont déjà mises à disposition d’un petit groupe d’employés de Microsoft et d’OpenAI qui les testent. On ne sait pas encore si Microsoft les proposera à ses clients Azure, mais elles devraient être disponibles dès l’année prochaine au sein de ses équipes ainsi que chez OpenAI, dans laquelle Microsoft a investi 10 milliards de dollars. Plusieurs générations de ces GPU sont déjà prévues, ce qui permettra à la société de soutenir ses ambitions dans le domaine de l’IA, en l’intégrant progressivement à ses nombreux produits.
Face au monopole de Nvidia, plusieurs entreprises développent leurs propres puces en interne. Par exemple, Tencent a récemment annoncé qu’elle travaillait sur ses propres puces de transcodage vidéo. Des géants tels qu’Amazon, Google et Meta disposent également de leurs propres puces pour l’IA, comme en témoigne la récente présentation par Google d’un supercalculateur basé sur ses propres puces, qui serait jusqu’à 70 % plus rapide et consommerait jusqu’à 90 % d’énergie en moins par rapport à celui de Nvidia, à taille égale.