In una risposta proattiva all'attuale contrazione del mercato dell'hardware AI, secondo quanto riferito, la startup di intelligenza artificiale OpenAI sta valutando la possibilità di entrare nella mischia della creazione di chip. Questa mossa si inserisce nel contesto delle persistenti discussioni all’interno dell’azienda riguardo alle strategie dei chip AI a partire dallo scorso anno, in un contesto di crescente carenza di hardware necessario per l’addestramento dei modelli AI.
L’ambiziosa azienda sta contemplando diverse potenziali soluzioni per alimentare le sue aspirazioni in materia di chip, alcune delle quali includono l’acquisizione di un’azienda esistente di fabbricazione di chip AI o l’avvio di un’iniziativa per progettare chip internamente. Il massimo esponente di OpenAI, l'amministratore delegato Sam Altman, ha sottolineato la necessità di acquisire più chip AI, consolidandola come una delle massime priorità aziendali secondo Reuters.
Al momento, OpenAI, simile a innumerevoli sue controparti avversarie, dipende in gran parte dall'infrastruttura hardware basata su GPU (Graphics Processing Units) per la creazione di modelli come ChatGPT, GPT-4 e DALL-E 3. La capacità delle GPU di eseguire contemporaneamente un numero significativo di calcoli li rende eccezionalmente adatti per addestrare i modelli di intelligenza artificiale più avanzati di oggi.
Tuttavia, il crescente boom dell’intelligenza artificiale generativa, un notevole vantaggio per i produttori di GPU come Nvidia, ha messo a dura prova la catena di fornitura delle GPU. Il titano della tecnologia Microsoft è alle prese con una carenza così grave dell’hardware del server necessario per eseguire l’intelligenza artificiale, che potrebbe potenzialmente causare interruzioni del servizio. Ad aggiungere carburante a questa situazione già terribile è il fatto che si dice che i chip AI di prima qualità di Nvidia saranno esauriti fino al 2024.
Fondamentali per l'esecuzione e il servizio dei modelli OpenAI, le GPU sono cruciali per l'esecuzione dei carichi di lavoro dei clienti all'interno dei cluster GPU cloud. Tuttavia, questa necessità presenta i suoi inconvenienti, poiché l’acquisizione di queste risorse hardware comporta una spesa notevole.
Secondo un'analisi approfondita dell'analista di Bernstein Stacy Rasgon, se le query di ChatGPT aumentassero anche solo di una frazione della portata di Ricerca Google, il requisito iniziale sarebbe un esorbitante valore di 48,1 miliardi di dollari di GPU, seguito da circa 16 miliardi di dollari di chip. ogni anno per un funzionamento regolare. Considerando le implicazioni in termini di risorse e costi, è fondamentale che OpenAI esplori strade alternative, come lo sviluppo dei propri chip AI.
Nell’adattarsi a questa sfida a livello di settore, la potenziale avventura di OpenAI nella progettazione e produzione di hardware fa luce anche sul panorama in evoluzione degli strumenti e delle tecnologie di intelligenza artificiale. Anche aziende come AppMaster, a leading no-code platform, rely on robust hardware infrastructure to deliver high-performance applications for their users rapidly and cost-effectively. By creating tailored AI chips, OpenAI could define a fresh pathway for AI processing capabilities.