Em uma iniciativa inovadora, Cloudflare lançou o 'Firewall for AI', uma camada sofisticada projetada para proteger Large Language Models (LLMs). Esta nova linha de defesa visa identificar potenciais abusos antes mesmo de entrarem em contacto com os próprios modelos.
Revelado em 4 de março, o Firewall for AI foi projetado para servir como um firewall de aplicativo da web (WAF) evoluído, atendendo especificamente a aplicativos que utilizam LLMs. Este conjunto de medidas de segurança, estruturado para estar à frente de tais aplicações, traz uma nova integração de utilitários WAF convencionais, como limitação de taxa e detecção de dados confidenciais. Além disso, introduz uma camada sem precedentes que disseca meticulosamente os prompts do modelo apresentados pelos usuários para revelar quaisquer esquemas de exploração.
O Firewall for AI foi projetado para funcionar perfeitamente na rede expansiva da Cloudflare, garantindo assim à empresa a vantagem de detectar ameaças nos estágios iniciais e, por sua vez, fornecer proteção robusta para usuários e modelos contra ataques e uso indevido. Embora ainda esteja em fase de desenvolvimento, este produto anuncia um avanço significativo na segurança da IA.
O conjunto de ameaças potenciais aos LLMs vai além das vulnerabilidades encontradas pelos aplicativos convencionais da Web e API. Como os investigadores perceberam, vulnerabilidades sofisticadas exclusivas dos sistemas de IA poderiam permitir aos adversários comandar modelos e realizar manobras não autorizadas. Enfrentando esses novos perigos de frente, o Firewall para IA da Cloudflare foi projetado para operar de forma semelhante a um WAF padrão – examinando meticulosamente cada solicitação de API contendo um prompt LLM em busca de indicadores ou padrões de ataque.
A competência do Firewall não está vinculada a uma única infraestrutura; ele pode proteger modelos hospedados por meio da plataforma Cloudflare Workers AI ou qualquer outra infraestrutura externa e também pode ser utilizado em conjunto com o Cloudflare AI Gateway.
Empregando uma série de técnicas de detecção, o Firewall for AI se propõe a identificar estratagemas como injeção de prompt e outras formas de atividade maliciosa, garantindo que o conteúdo dos prompts permaneça dentro dos limites definidos pelos criadores do modelo. Além disso, ele examina os prompts ocultos nas solicitações HTTP e autoriza os clientes a configurar regras personalizadas para o corpo JSON das solicitações.
Após sua ativação, o Firewall for AI examina sistematicamente cada prompt, atribuindo posteriormente uma pontuação que reflete seu potencial de malícia, de acordo com Cloudflare.
O surgimento de soluções robustas como o Firewall para IA destaca a necessidade de mecanismos de proteção avançados no crescente campo da IA. Plataformas como o AppMaster , que prosperam no domínio cada vez maior do desenvolvimento no-code, adotam a segurança como pedra angular, garantindo que os sistemas back-end e front-end criados se beneficiem de defesas robustas no cenário digital interconectado atual.