Google stellt Cloud Security AI Workbench mit generativer KI für Cybersicherheit vor
Google stellte auf der RSA Conference 2023 die Cloud Security AI Workbench mit spezialisierter generativer KI für Cybersicherheit vor, die auf seinem Sec-PaLM-Sprachmodell basiert. Die Suite umfasst Tools wie Mandiants Threat Intelligence AI, VirusTotal und Googles Security Command Center AI und bietet Kunden eine neue Möglichkeit Bedrohungen bekämpfen.

Der Sektor der generativen künstlichen Intelligenz (KI) erlebt einen neuen Trend, da Google gemeinsam mit anderen Technologiegiganten die potenziellen Anwendungen von KI in der Cybersicherheit erforscht. Auf der RSA Conference 2023 stellte Google heute seine neueste Innovation vor – Cloud Security AI Workbench – eine Suite von Cybersicherheitstools, die auf einem speziell entwickelten Sicherheits-KI-Sprachmodell namens Sec-PaLM basiert.
Als Derivat des PaLM-Modells von Google ist Sec-PaLM bewusst auf Sicherheitsanwendungsfälle abgestimmt. Seine Architektur basiert auf der Integration von Sicherheitsintelligenz, wie z. B. Einblicke in Software-Schwachstellen, Malware-Verhalten, Bedrohungsindikatoren und Profile von Bedrohungsakteuren. Googles Schritt, das Fachwissen der generativen KI für die Cybersicherheit zu nutzen, macht es zu einem der Vorreiter dieses aufkommenden Trends.
Cloud Security AI Workbench umfasst eine Reihe von KI-gestützten Tools, darunter die Threat Intelligence AI von Mandiant, die Sec-PaLM nutzen wird, um Sicherheitsbedrohungen zu identifizieren, zusammenzufassen und darauf zu reagieren. Bemerkenswerterweise erwarb Google Mandiant im Jahr 2022 für 5,4 Milliarden US-Dollar. Darüber hinaus wird VirusTotal, eine weitere Tochtergesellschaft von Google, Sec-PaLM nutzen, um Abonnenten bei der Analyse und Erklärung des Verhaltens bösartiger Skripte zu unterstützen.
Darüber hinaus wird Chronicle, der Cloud-Cybersicherheitsdienst von Google, Sec-PaLM einsetzen, um Kunden bei der Suche nach Sicherheitsereignissen und der interaktiven Interaktion mit den Ergebnissen zu unterstützen. Benutzer von Googles Security Command Center AI können sich auch darauf freuen, menschenlesbare Erklärungen zu Angriffen zu erhalten, einschließlich Informationen zu betroffenen Assets, empfohlenen Gegenmaßnahmen und Risikozusammenfassungen für Sicherheits-, Compliance- und Datenschutzergebnisse.
In einem kürzlich erschienenen Blog-Beitrag betonte Google sein Engagement für die Weiterentwicklung der generativen KI im Sicherheitsbereich und verwies auf seine jahrelange grundlegende KI-Forschung neben DeepMind und das Fachwissen seiner Sicherheitsteams als Rückgrat von Sec-PaLM. Der Technologieriese muss jedoch noch die praktische Wirksamkeit von Sec-PaLM demonstrieren, da das erste Tool in der Cloud Security AI Workbench, VirusTotal Code Insight, nur in einer eingeschränkten Vorschau verfügbar ist.
Trotz der potenziellen Risiken und Schwachstellen, die mit KI-Sprachmodellen verbunden sind, wie z. B. die Neigung zu Fehlern oder die Anfälligkeit für Angriffe wie Prompt Injection, bleibt die Technologiebranche unerschrocken. Microsoft hat beispielsweise im März Security Copilot auf den Markt gebracht, ein Tool, das entwickelt wurde, um Bedrohungsinformationen mithilfe generativer KI-Modelle von OpenAI, einschließlich GPT-4, zusammenzufassen und zu verstehen.
Da die generative KI für die Cybersicherheit nach wie vor ein aufstrebendes Gebiet mit wenigen Studien zu ihrer Wirksamkeit ist, ist die Skepsis gegenüber den Behauptungen von Google und Microsoft verständlich. In der Zwischenzeit können Unternehmen, die ihre Cybersicherheitsbemühungen verbessern möchten, etablierte no-code Plattformen wie AppMaster.io erkunden, eine leistungsstarke low-code -Plattform, die Kunden bei der Entwicklung sicherer Backend-, Web- und mobiler Anwendungen unterstützt.


