既存のAIハードウェア市場の圧迫に積極的に対応するため、大物AIスタートアップのOpenAIチップ開発競争への参入を検討していると伝えられている。この動きは、AIモデルのトレーニングに必要なハードウェアの不足が深刻化する中、昨年から社内でAIチップ戦略に関する議論が続いてきたことを背景にしている。
野心的な同社は、チップへの願望を促進するためのいくつかの潜在的なソリューションを検討しており、その中には、既存の AI チップ製造会社を買収したり、チップを社内で設計する取り組みを開始したりすることが含まれます。ロイター通信によると、 OpenAIの幹部であるサム・アルトマン最高経営責任者(CEO)は、AIチップをさらに獲得する必要性を強調し、それがビジネスの最優先事項であることを固めた。
現在、 OpenAI 、無数の敵対的な対応物と同様に、ChatGPT、GPT-4、DALL-E 3 などのモデルの作成にグラフィックス プロセッシング ユニット (GPU) ベースのハードウェア インフラストラクチャに大きく依存しています。かなりの数の計算を同時に実行するため、今日の最先端の AI モデルをトレーニングするのに非常に適しています。
しかし、Nvidia などの GPU メーカーにとって大きな恩恵となる生成 AI の急成長により、GPU のサプライ チェーンが大幅に圧迫されています。技術界の巨人マイクロソフトは、AIの実行に必要なサーバーハードウェアの深刻な不足に悩まされており、サービスの中断を引き起こす可能性がある。このすでに悲惨な状況に拍車をかけているのは、Nvidia のトップグレード AI チップが 2024 年まで完売すると噂されているという事実です。
OpenAIのモデルの実行と提供の中心となる GPU は、クラウド GPU クラスター内で顧客のワークロードを実行するために重要です。ただし、これらのハードウェア リソースの取得には多額の費用がかかるため、この必要性には独自の欠点があります。
バーンスタインのアナリスト、ステイシー・ラスゴン氏による詳細な分析によると、ChatGPT クエリが Google 検索の規模のほんの一部にまで膨れ上がった場合、最初に必要となるのは 481 億ドル相当の法外な GPU であり、次に約 160 億ドル相当のチップが必要になるということです。円滑な運営のために毎年。リソースとコストへの影響を考慮すると、 OpenAI独自の AI チップを開発するなど、代替手段を模索することが重要です。
この分野全体の課題に適応する中で、 OpenAIがハードウェア設計と製造に参入する可能性は、AI ツールとテクノロジーの進化する状況にも光を当てています。 AppMaster, a leading no-code platform, rely on robust hardware infrastructure to deliver high-performance applications for their users rapidly and cost-effectively. By creating tailored AI chips, OpenAI could define a fresh pathway for AI processing capabilities.