画期的な取り組みとして、 Cloudflare大規模言語モデル(LLM)を保護するために設計された洗練されたレイヤー「AI用ファイアウォール」を立ち上げました。この新しい防御線は、モデル自体に接触する前に、潜在的な不正行為を正確に特定することを目的としています。
3 月 4 日に発表された Firewall for AI は、LLM を利用するアプリケーションに特化した進化した Web アプリケーション ファイアウォール (WAF) として機能するように設計されています。このセキュリティ対策スイートは、そのようなアプリケーションに先んじて防御するように構成されており、レート制限や機密データの検出などの従来の WAF ユーティリティを新たに統合します。さらに、悪用スキームを明らかにするためにユーザーが提示したモデル プロンプトを注意深く分析する前例のないレイヤーが導入されています。
AI 用ファイアウォールは、 Cloudflareの広大なネットワーク上でシームレスに機能するように設計されており、これにより企業は脅威を初期段階で検出できるという利点が得られ、ユーザーとモデルの両方を攻撃や悪用から堅牢に保護できます。まだ開発段階にありますが、この製品は AI セキュリティの大幅な進歩を告げるものです。
LLM に対する一連の潜在的な脅威は、従来の Web アプリケーションや API アプリケーションが遭遇する脆弱性を超えています。研究者らが認識しているように、AI システムに特有の高度な脆弱性により、敵対者がモデルを強奪し、不正な操作を実行できる可能性があります。これらの新たな危険に正面から取り組み、 Cloudflareの AI 用ファイアウォールは、標準的な WAF と同様に動作することが想定されており、インジケーターや攻撃パターンの LLM プロンプトを含むすべての API リクエストを注意深く検査します。
ファイアウォールの機能は単一のインフラストラクチャに拘束されません。 Cloudflare Workers AI プラットフォームまたはその他の外部インフラストラクチャを介してホストされるモデルを保護でき、Cloudflare AI Gateway と連携して利用することもできます。
AI 用ファイアウォールは、豊富な検出技術を採用して、プロンプト インジェクションやその他の形式の悪意のあるアクティビティなどの策略を特定し、プロンプトの内容がモデル作成者が設定した範囲内に留まるようにします。さらに、HTTP リクエスト内に隠されたプロンプトを精査し、顧客がリクエストの JSON 本文に合わせたルールを設定できるようにします。
Cloudflareによると、ファイアウォール for AI は、アクティブ化されると各プロンプトを系統的に検査し、悪意の可能性を反映するスコアを割り当てます。
AI 用ファイアウォールのような堅牢なソリューションの出現は、急成長する AI 分野における高度な保護メカニズムの必須性を浮き彫りにしています。 AppMasterのようなプラットフォームは、拡大し続けるno-code開発の領域で成功しており、セキュリティを基礎として採用し、作成されたバックエンド システムとフロントエンド システムが今日の相互接続されたデジタル環境において堅牢な防御の恩恵を受けられるようにします。