Während Menschen versuchen, mehr Einsatzmöglichkeiten für generative KI zu finden, bei denen es weniger um die Erstellung gefälschter Fotos geht, sondern die tatsächlich nützlich sind, plant Google, die KI auf die Cybersicherheit auszurichten und Bedrohungsberichte leichter lesbar zu machen.

In einem Blogbeitrag schreibt Google, dass sein neues Cybersicherheitsprodukt Google Threat Intelligence die Arbeit seiner Mandiant-Cybersicherheitseinheit und VirusTotal zu Bedrohungen mit dem Gemini-KI-Modell zusammenführen wird.

Das neue Produkt nutzt das große Sprachmodell Gemini 1.5 Pro, das laut Google die Zeit verkürzt, die für das Reverse Engineering von Malware-Angriffen benötigt wird. Das Unternehmen gibt an, dass Gemini 1.5 Pro, das im Februar veröffentlicht wurde, nur 34 Sekunden brauchte, um den Code des WannaCry-Virus – des Ransomware-Angriffs von 2017, der Krankenhäuser, Unternehmen und andere Organisationen auf der ganzen Welt lahmlegte – zu scannen und einen Notausschalter zu identifizieren. Das ist beeindruckend, aber nicht überraschend, wenn man bedenkt, wie talentierte LLMs Code lesen und schreiben können.

Eine weitere mögliche Verwendung von Gemini im Bedrohungsbereich besteht darin, Bedrohungsberichte in natürlicher Sprache in Threat Intelligence zusammenzufassen, damit Unternehmen die Auswirkungen potenzieller Angriffe auf sie einschätzen können – oder mit anderen Worten, um sicherzustellen, dass Unternehmen nicht auf Bedrohungen über- oder unterreagieren.

Laut Google verfügt Threat Intelligence außerdem über ein umfangreiches Informationsnetzwerk, um potenzielle Bedrohungen zu überwachen, bevor es zu einem Angriff kommt. Es ermöglicht Benutzern, sich einen Überblick über die Cybersicherheitslandschaft zu verschaffen und Prioritäten zu setzen, worauf sie sich konzentrieren möchten. Mandiant stellt menschliche Experten zur Verfügung, die potenziell bösartige Gruppen überwachen, und Berater, die mit Unternehmen zusammenarbeiten, um Angriffe zu blockieren. Die VirusTotal-Community veröffentlicht außerdem regelmäßig Bedrohungsindikatoren.

Das Unternehmen plant außerdem, Mandiant-Experten mit der Bewertung von Sicherheitslücken rund um KI-Projekte zu beauftragen. Mithilfe des Secure AI Framework von Google wird Mandiant die Abwehrmechanismen von KI-Modellen testen und zu Red-Teaming-Bemühungen beitragen. Während KI-Modelle dabei helfen können, Bedrohungen zusammenzufassen und Malware-Angriffe zurückzuentwickeln, können die Modelle selbst manchmal Opfer böswilliger Akteure werden. Zu diesen Bedrohungen gehört manchmal „Data Poisoning“, das den von KI-Modellen abgerufenen Daten fehlerhaften Code hinzufügt, sodass die Modelle nicht auf bestimmte Eingabeaufforderungen reagieren können.

Natürlich ist Google nicht das einzige Unternehmen, das KI mit Cybersicherheit kombiniert. Microsoft hat Copilot for Security auf den Markt gebracht, das auf GPT-4 und dem Cybersicherheits-spezifischen KI-Modell von Microsoft basiert und es Cybersicherheitsexperten ermöglicht, Fragen zu Bedrohungen zu stellen. Ob beides tatsächlich einen guten Anwendungsfall für generative KI darstellt, bleibt abzuwarten, aber es ist schön zu sehen, dass es für etwas anderes als Fotos eines Swag-Papsts verwendet wird.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *