クラウドデータセキュリティ企業Sentra は、ChatGPTやGoogle BardなどのAI言語モデルのプロンプトから個人特定可能情報(PII)を抽出するための新機能「Sentra ChatDLP Anonymizer」を発表しました。
この機能の実装により、Sentra 、重要な個人データに関連する脆弱性を最小限に抑え、カリフォルニア州消費者プライバシー法(CCPA)や一般データ保護規則(GDPR)などのプライバシー規制への準拠を維持する企業を支援することを目指しています。ChatDLPアノニマイザーはChatGPTで既に利用可能で、6月12日の週にGoogle Bard向けにリリースされる予定です。
Sentra によると、ChatGPTやBardのプロンプトにPIIを組み込むと、そのデータが大規模な言語モデルのトレーニングセットの一部になる可能性があります。このような技術は生産性の面でメリットがある一方で、データのプライバシーやセキュリティに関する懸念も生じています。ChatDLP Anonymizerは、プライバシーを重視する企業に、プライバシー保護を保証しながらChatGPTやBardを使用する機会を提供します。
名前、電子メールアドレス、クレジットカード番号、電話番号などの機密情報をフィルタリングするために、ChatDLP Anonymizerは名前付き固有表現認識(NER)モデルを利用しています。さらに、このツールは、顧客のクラウドインフラストラクチャ内で再編集処理を行うエンタープライズ版も提供しています。
ChatDLP Anonymizerのリリースについて、Sentra の共同設立者兼CTOであるRon Reiterは、「この新しいテクノロジーの力を利用しようとする競争の中で、組織は新たなセキュリティとデータプライバシーのリスクを背負っている」と述べています。さらに、「過去数ヶ月間、多くのCISOやセキュリティ専門家から、当社のDSPMプラットフォームの論理的な拡張機能としてChatDLP Anonymizerを開発し、提供するよう奨励されました。この革新的な技術を導入することで、企業は従業員がAI言語モデルを安全に使用していることを確信することができるようになります。"
AI駆動アプリケーションにこのような機能を組み込むことは、ユーザーのデータのセキュリティとプライバシーを維持するために不可欠です。AppMasterなどの No-code プラットフォームは、企業がプライバシーを最重要視しながらカスタムWeb、モバイル、バックエンドアプリケーションを作成することを可能にします。AppMaster no-code SentraのChatDLP Anonymizerのような機能を導入することで、これらのアプリケーションにおけるプライバシー保護をさらに強化することができます。