O Google apresenta o Cloud Security AI Workbench com IA generativa para segurança cibernética
O Google revelou o Cloud Security AI Workbench com AI generativa especializada para segurança cibernética, impulsionado por seu modelo de linguagem Sec-PaLM na RSA Conference 2023. A suíte inclui ferramentas como Threat Intelligence AI da Mandiant, VirusTotal e Security Command Center AI do Google, oferecendo aos clientes uma nova maneira de combater ameaças.

O setor de inteligência artificial generativa (IA) está testemunhando uma nova tendência à medida que o Google se junta a outros gigantes da tecnologia para explorar as possíveis aplicações da IA na segurança cibernética. Hoje, na RSA Conference 2023, o Google revelou sua mais recente inovação, o Cloud Security AI Workbench, um conjunto de ferramentas de segurança cibernética alimentadas por um modelo de linguagem de IA de segurança especialmente projetado chamado Sec-PaLM.
Como um derivado do modelo PaLM do Google, o Sec-PaLM é deliberadamente ajustado para atender a casos de uso de segurança. Sua arquitetura depende da integração de inteligência de segurança, como informações sobre vulnerabilidades de software, comportamento de malware, indicadores de ameaças e perfis de agentes de ameaças. A decisão do Google de aproveitar a experiência fornecida pela IA generativa para segurança cibernética o coloca entre os pioneiros dessa tendência emergente.
O Cloud Security AI Workbench compreende uma variedade de ferramentas baseadas em IA, incluindo a Threat Intelligence AI da Mandiant, que utilizará o Sec-PaLM para identificar, resumir e agir sobre ameaças à segurança. Notavelmente, o Google adquiriu a Mandiant em 2022 por US$ 5,4 bilhões. Além disso, a VirusTotal, outra subsidiária do Google, usará o Sec-PaLM para ajudar os assinantes a analisar e explicar o comportamento de scripts maliciosos.
Além disso, o Chronicle, o serviço de segurança cibernética em nuvem do Google, empregará o Sec-PaLM para ajudar os clientes a pesquisar eventos de segurança e interagir com os resultados. Os usuários do Security Command Center AI do Google também podem esperar receber explicações legíveis por humanos sobre a exposição a ataques, incluindo informações sobre ativos afetados, mitigações recomendadas e resumos de riscos para descobertas de segurança, conformidade e privacidade.
Em uma postagem recente no blog, o Google destacou sua dedicação ao avanço da IA generativa em segurança, citando seus anos de pesquisa fundamental de IA ao lado da DeepMind e a experiência de suas equipes de segurança como a espinha dorsal do Sec-PaLM. No entanto, a gigante da tecnologia ainda não demonstrou a eficácia do Sec-PaLM no mundo real, já que a primeira ferramenta no Cloud Security AI Workbench, VirusTotal Code Insight, está disponível apenas em visualização limitada.
Apesar dos riscos e vulnerabilidades potenciais associados aos modelos de linguagem de IA, como propensão a erros ou suscetibilidade a ataques como injeção imediata, o setor de tecnologia permanece destemido. A Microsoft, por exemplo, lançou o Security Copilot em março, uma ferramenta projetada para resumir e entender a inteligência de ameaças usando modelos generativos de IA da OpenAI, incluindo GPT-4.
Como a IA generativa para segurança cibernética continua sendo um campo incipiente com poucos estudos sobre sua eficácia, o ceticismo em torno das alegações feitas pelo Google e pela Microsoft é compreensível. Nesse ínterim, as empresas que buscam aprimorar seus esforços de segurança cibernética podem explorar plataformas no-code estabelecidas, como AppMaster.io , uma plataforma poderosa e low-code, que auxilia os clientes no desenvolvimento de back-end seguro, web e aplicativos móveis.


