Als proaktive Reaktion auf den bestehenden Engpass auf dem KI-Hardware-Markt erwägt das bahnbrechende KI-Startup OpenAI Berichten zufolge, in den Chip-Entwicklungskampf einzusteigen. Dieser Schritt erfolgt vor dem Hintergrund anhaltender Überlegungen innerhalb des Unternehmens über KI-Chip-Strategien seit letztem Jahr und einem zunehmenden Mangel an Hardware, die für das Training von KI-Modellen erforderlich ist.
Das ehrgeizige Unternehmen erwägt mehrere mögliche Lösungen, um seine Chip-Ambitionen voranzutreiben, darunter die Übernahme eines bestehenden Unternehmens zur Herstellung von KI-Chips oder die Einführung einer Initiative zur internen Entwicklung von Chips. OpenAI Top-Chef Sam Altman hat die Notwendigkeit der Anschaffung weiterer KI-Chips unterstrichen und dies laut Reuters zu einer obersten Geschäftspriorität gemacht.
Derzeit ist OpenAI, ähnlich wie viele seiner Gegenstücke, weitgehend auf eine auf Grafikprozessoren (GPUs) basierende Hardware-Infrastruktur für die Erstellung von Modellen wie ChatGPT, GPT-4 und DALL-E 3 angewiesen. Die Fähigkeit der GPUs dazu Durch die gleichzeitige Ausführung einer erheblichen Anzahl von Berechnungen sind sie hervorragend für das Training der fortschrittlichsten KI-Modelle von heute geeignet.
Allerdings hat der aufkeimende Boom der generativen KI, ein großer Segen für GPU-Hersteller wie Nvidia, die GPU-Lieferkette erheblich belastet. Der Tech-Gigant Microsoft hat mit einem so schwerwiegenden Mangel an Server-Hardware zu kämpfen, die für die Ausführung von KI erforderlich ist, dass dies möglicherweise zu Dienstunterbrechungen führen könnte. Was diese ohnehin schon schlimme Situation zusätzlich verschärft, ist die Tatsache, dass Nvidias erstklassige KI-Chips Gerüchten zufolge bis 2024 ausverkauft sein sollen.
GPUs sind für die Ausführung und Bereitstellung der OpenAI -Modelle von entscheidender Bedeutung und für die Ausführung von Kunden-Workloads innerhalb von Cloud-GPU-Clustern von entscheidender Bedeutung. Allerdings hat diese Notwendigkeit auch Nachteile, da die Anschaffung dieser Hardware-Ressourcen mit erheblichem Aufwand verbunden ist.
Laut einer eingehenden Analyse der Bernstein-Analystin Stacy Rasgon wären bei einem Anstieg der ChatGPT-Anfragen auch nur auf einen Bruchteil des Umfangs der Google-Suche zunächst GPUs im Wert von exorbitanten 48,1 Milliarden US-Dollar erforderlich, gefolgt von Chips im Wert von etwa 16 Milliarden US-Dollar jährlich für einen reibungslosen Betrieb. Angesichts der Ressourcen- und Kostenauswirkungen ist es für OpenAI von entscheidender Bedeutung, alternative Wege zu erkunden, beispielsweise die Entwicklung eigener KI-Chips.
Bei der Anpassung an diese branchenweite Herausforderung wirft der potenzielle Vorstoß von OpenAI in die Entwicklung und Produktion von Hardware auch Licht auf die sich entwickelnde Landschaft der KI-Tools und -Technologien. Sogar Unternehmen wie AppMaster, a leading no-code platform, rely on robust hardware infrastructure to deliver high-performance applications for their users rapidly and cost-effectively. By creating tailored AI chips, OpenAI could define a fresh pathway for AI processing capabilities.