Dans une réponse proactive à la compression actuelle du marché du matériel d'IA, la start-up d'IA OpenAI envisagerait de se lancer dans la création de puces. Cette décision s'inscrit dans le contexte de délibérations persistantes au sein de l'entreprise concernant les stratégies en matière de puces d'IA depuis l'année dernière, dans un contexte de pénurie croissante de matériel nécessaire à la formation des modèles d'IA.
L'entreprise ambitieuse envisage plusieurs solutions potentielles pour alimenter ses aspirations en matière de puces, dont certaines incluent l'acquisition d'une entreprise existante de fabrication de puces IA ou la mise en œuvre d'une initiative de conception de puces en interne. Le PDG d' OpenAI, Sam Altman, a souligné la nécessité d'acquérir davantage de puces d'IA, ce qui en fait une priorité commerciale majeure selon Reuters.
À l'heure actuelle, OpenAI, comme d'innombrables de ses homologues adverses, dépend en grande partie de l'infrastructure matérielle basée sur les unités de traitement graphique (GPU) pour la création de modèles tels que ChatGPT, GPT-4 et DALL-E 3. La capacité des GPU à exécuter simultanément un nombre important de calculs les rend exceptionnellement adaptés à la formation des modèles d'IA les plus avancés d'aujourd'hui.
Cependant, l’essor de l’IA générative, une aubaine considérable pour les fabricants de GPU comme Nvidia, a considérablement mis à rude épreuve la chaîne d’approvisionnement des GPU. Le titan de la technologie Microsoft est aux prises avec une pénurie si grave de matériel serveur requis pour exécuter l'IA, que cela pourrait potentiellement provoquer des interruptions de service. Le fait que les puces IA de première qualité de Nvidia seraient épuisées jusqu'en 2024 vient alimenter cette situation déjà désastreuse.
Au cœur de l'exécution et du service des modèles d' OpenAI, les GPU sont essentiels pour exécuter les charges de travail des clients au sein des clusters GPU cloud. Cependant, cette nécessité a ses propres inconvénients, car l'acquisition de ces ressources matérielles implique des dépenses importantes.
Selon une analyse approfondie de Stacy Rasgon, analyste chez Bernstein, si les requêtes ChatGPT atteignaient ne serait-ce qu'une fraction de l'échelle de la recherche Google, les besoins initiaux seraient d'une valeur exorbitante de 48,1 milliards de dollars en GPU, suivis d'environ 16 milliards de dollars en puces. chaque année pour le bon fonctionnement. Compte tenu des implications en termes de ressources et de coûts, il est crucial pour OpenAI d'explorer des voies alternatives, telles que le développement de ses propres puces d'IA.
En s'adaptant à ce défi à l'échelle du secteur, l'aventure potentielle d' OpenAI dans la conception et la production de matériel met également en lumière l'évolution du paysage des outils et technologies d'IA. Même des entreprises comme AppMaster, a leading no-code platform, rely on robust hardware infrastructure to deliver high-performance applications for their users rapidly and cost-effectively. By creating tailored AI chips, OpenAI could define a fresh pathway for AI processing capabilities.