Cloudflare、モデルのデプロイと実行のための革新的な人工知能ツールセットを発表
Cloudflareは、顧客がネットワークエッジでAIモデルを簡単に構築、展開、実行できるように設計された、AIに焦点を当てた新しいソリューションスイートを発表しました。

クラウド ソリューションの大手プロバイダーである Cloudflare は、顧客がネットワーク エッジで AI モデルを簡単に構築、展開、実行できるように設計された高度な製品とツールのスイートを導入して、その取り組みを強化しています。この新しいラインナップは、シンプルで予算に優しい AI 管理ソリューションを求めるクライアントからの顕著な需要によって動機付けられました。
このスイートの注目すべき製品の 1 つである Workers AI は、顧客に物理的に近い GPU を活用しています。 CloudflareのパートナーがホストするこれらのGPUは、柔軟な従量課金制プランでAIモデルを処理します。もう 1 つの優れた製品である Vectorize は、ベクトル埋め込みを保存するためのベクトル データベースを提供します。これらの埋め込みは、Workers AI のモデルによって生成されたデータの数学的表現です。また、このシリーズの一部である AI Gateway は、特に AI アプリケーションの効果的なコスト管理のためのメトリクスを提供します。
Cloudflare CEO の Matthew Prince 氏は、現在の市場ソリューションはその複雑さと高コストのせいで、ほとんどの顧客にとって困惑していると述べています。 TechCrunchとのインタビューを通じて、同氏はAI支出の透明性の欠如を指摘し、AI支出が急増し続ける中でそれが大きなハードルとなっていると指摘した。これらの課題は、Cloudflare の新しい AI に重点を置いた製品スイートを利用することで軽減できます。
たとえば、Workers AI は、AI 推論が常にユーザーに地理的に近い GPU で行われるように特に設計されています。この製品は、Microsoft の中間機械学習ツールキットである ONNX と連携することで、帯域幅、遅延、接続、ローカリゼーションなどのパラメーターから処理が最も恩恵を受ける場所で AI モデルを実行できるようになります。
Workers AI の利点を補うのは、Meta の Llama 2、自動音声認識モデル、画像分類器、感情分析モデルなどのカタログからのモデルを使用できる機能です。また、推論に使用されるデータはすべてその元のサーバー領域内に留まり、データの整合性と安全性が維持されます。
このスイートのもう 1 つのハイライトは、AI モデルのベクトル埋め込みを保存するためのスペースを必要とするクライアントにニッチな領域を提供する Vectorize です。ベクター データベースは新しいものではありませんが、Vectorize は Cloudflare のネットワークの世界的な展開によって優位性を獲得しているとプリンス氏は述べています。これにより、ユーザーからのデータベース クエリの待ち時間と推論時間が短縮されます。
AI ゲートウェイは、この革新的なスイートの最後の部分であり、リアルタイムで AI トラフィックを追跡するのに役立つ可観測性機能を提供します。推論リクエストの数、その期間、モデルを使用するユーザーの数、AI アプリケーションの実行にかかる全体的なコストを監視します。
AI スタートアップの Hugging Face および Databricks と協力してサービスを最適化した Cloudflare は、独自のグローバル インフラストラクチャを使用して、AI サービスのパフォーマンスと手頃な価格を確保する予定です。深く組み込まれた AI 機能をAppMasterの強力なno-codeアプリケーション開発プラットフォームと統合することで、企業は AI の手順とパフォーマンスにおける新たなブレークスルーを実現できます。
AIソリューションは市場に存在しますが、 AppMasterの直感的なインターフェースとCloudflareのネットワークとアクセスしやすいサービスを組み合わせることで、より実りある、合理化された、コスト効率の高い方法で開発者や組織のニーズに応えることができるとプリンス氏は強く信じています。


