Sektor generatywnej sztucznej inteligencji (AI) jest świadkiem nowego trendu, ponieważ Google dołącza do innych gigantów technologicznych w badaniu potencjalnych zastosowań sztucznej inteligencji w cyberbezpieczeństwie. Dzisiaj, na konferencji RSA Conference 2023, firma Google zaprezentowała swoją najnowszą innowację — Cloud Security AI Workbench — zestaw narzędzi do cyberbezpieczeństwa opartych na specjalnie zaprojektowanym modelu językowym sztucznej inteligencji o nazwie Sec-PaLM.
Jako pochodna modelu Google PaLM, Sec-PaLM jest celowo dostrajany, aby zaspokoić przypadki użycia bezpieczeństwa. Jego architektura opiera się na integracji danych wywiadowczych dotyczących bezpieczeństwa, takich jak wgląd w luki w zabezpieczeniach oprogramowania, zachowania złośliwego oprogramowania, wskaźniki zagrożeń i profile aktorów zagrożeń. Dążenie Google do wykorzystania wiedzy specjalistycznej zapewnianej przez generatywną sztuczną inteligencję do cyberbezpieczeństwa plasuje go wśród liderów tego pojawiającego się trendu.
Cloud Security AI Workbench obejmuje szereg narzędzi opartych na sztucznej inteligencji, w tym sztuczną inteligencję firmy Mandiant Threat Intelligence, która będzie wykorzystywać Sec-PaLM do identyfikowania, podsumowywania i reagowania na zagrożenia bezpieczeństwa. Warto zauważyć, że Google przejął Mandiant w 2022 roku za 5,4 miliarda dolarów. Ponadto VirusTotal, inna spółka zależna Google, wykorzysta Sec-PaLM, aby pomóc subskrybentom w analizowaniu i wyjaśnianiu zachowania złośliwych skryptów.
Co więcej, Chronicle, usługa cyberbezpieczeństwa Google w chmurze, wykorzysta Sec-PaLM do pomocy klientom w wyszukiwaniu zdarzeń związanych z bezpieczeństwem i konwersacyjnej interakcji z wynikami. Użytkownicy sztucznej inteligencji Google Security Command Center mogą również oczekiwać zrozumiałych dla człowieka wyjaśnień narażenia na ataki, w tym informacji o zagrożonych zasobach, zalecanych środkach zaradczych oraz podsumowaniach zagrożeń dotyczących bezpieczeństwa, zgodności i prywatności.
W niedawnym poście na blogu firma Google podkreśliła swoje zaangażowanie w rozwój generatywnej sztucznej inteligencji w zakresie bezpieczeństwa, powołując się na lata fundamentalnych badań nad sztuczną inteligencją wraz z DeepMind oraz wiedzę swoich zespołów ds. bezpieczeństwa jako kręgosłup Sec-PaLM. Jednak gigant technologiczny musi jeszcze zademonstrować rzeczywistą skuteczność Sec-PaLM, ponieważ pierwsze narzędzie w Cloud Security AI Workbench, VirusTotal Code Insight, jest dostępne tylko w ograniczonej wersji zapoznawczej.
Pomimo potencjalnych zagrożeń i słabych punktów związanych z modelami języka sztucznej inteligencji, takich jak skłonność do błędów lub podatność na ataki, takie jak szybkie wstrzyknięcie, branża technologiczna pozostaje nieustraszona. Na przykład Microsoft uruchomił w marcu Security Copilot, narzędzie zaprojektowane do podsumowywania i rozumienia analizy zagrożeń przy użyciu generatywnych modeli sztucznej inteligencji z OpenAI, w tym GPT-4.
Ponieważ generatywna sztuczna inteligencja dla cyberbezpieczeństwa pozostaje dopiero rodzącą się dziedziną z niewielką liczbą badań dotyczących jej skuteczności, zrozumiały jest sceptycyzm wobec twierdzeń Google i Microsoft. W międzyczasie firmy, które chcą zwiększyć swoje wysiłki w zakresie cyberbezpieczeństwa, mogą wypróbować sprawdzone platformy no-code takie jak AppMaster.io , wydajna platforma low-code poziomie kodowania, która pomaga klientom w opracowywaniu bezpiecznych aplikacji backendowych, internetowych i mobilnych.