
Auf der RSA Conference wurden zentrale Strategien diskutiert, wie Unternehmen KI sicher und wirkungsvoll einsetzen können.
Gorodenkoff – Shutterstock.com
Künstliche Intelligenz (KI) wird künftig eine noch größere Rolle für CISOs spielen. Angesichts Herausforderungen wie dem Fachkräftemangel nutzen viele Unternehmen bereits KI in der Cybersicherheit. Deren sicherer und strategischer Einsatz ist jedoch komplex. Die RSA Conference in San Francisco bot hier Impulse, wie CISOs KI verantwortungsvoll und strategisch einsetzen können.
Expertenrunde diskutiert KI-Sicherheit
Wie wichtig die Zusammenarbeit zwischen Industrie und Regierung für sichere KI-Systeme ist , behandelte eine Podiumsdiskussion mit
- Jamil Jaffer, Venture Partner und strategischem Berater bei Paladin Capital,
- Jason Clinton, CISO von Anthropic,
- Matt Knight, CISO von OpenAI, und
- Sandra Joyce, VP bei Google Threat Intelligence
Die Diskussion über den Einsatz von KI zur Cyberabwehr lieferte zudem weiterführende Denkanstöße.
10 KI- Erkenntnisse
Hier die wichtigsten Erkenntnisse zur Entwicklung von KI in der Cybersicherheit und deren Bedeutung für künftige Strategien von CISOs und Sicherheitsteams:
1. KI stellt eine komplexe Dualität für die Cybersicherheit dar, da sie Angreifern, aber auch Verteidigern erhebliche Vorteile bietet. Im Moment scheint es so, als ob das Momentum bei den Verteidigern liegt. Dies kann sich allerdings schnell ändern.
2. KI-Tools können die Verteidigung durch schnellere Malware-Analyse und Schwachstellenscans stärken, werden jedoch ebenso von Angreifern genutzt. Diese doppelte Nutzung macht KI zu einem zweischneidigen Schwert. Sie erleichtert unter anderem weniger erfahrenen Angreifern den Zugang zu effektiven Angriffsmethoden.
3. Mit zunehmender Intelligenz von KI-Modellen und sinkenden Technikkosten gewinnen Verteidiger eine bessere Sichtbarkeit der Bedrohungslage und können die Cybersicherheit automatisieren, etwa bei Penetrationstests. Zudem kann generative KI zwar Tests erleichtern, erschwert es jedoch gleichzeitig Schwachstellen effektiv zu beheben.
4. KI hat Social-Engineering- und Phishing-Angriffe verbessert – etwa durch bessere Sprache und stärkere Personalisierung. Die menschliche Raffinesse und Zerstörungskraft ist bislang aber noch unübertroffen. Generative KI hilft jedoch zunehmend dabei, Phishing zu tarnen und effektiver zu gestalten. Das schafft neue Herausforderungen, wenn es darum geht, solche Attacken zu erkennen.
5. Am Horizont zeichnen sich neue Bedrohungen ab, darunter KI-gestützte automatische Schwachstellenerkennung sowie polymorphe Malware, die sich autonom anpasst und in Netzwerken bewegt. Diese Technologien könnten besonders von Nationalstaaten missbraucht werden und traditionelle Cybersicherheitsmaßnahmen unterlaufen.
6. KI-Modelle können grundlegende Cybersicherheitsaufgaben schnell erlernen, scheitern aber noch an komplexen, realitätsnahen Angriffssimulationen. Daher ist KI derzeit eher als Unterstützung auf Einsteigerniveau im Security Operations Center (SOC) einsetzbar. Sie muss weiterentwickelt werden, um fortgeschrittene Bedrohungen wirksam bewältigen zu können.
7. Bedrohungsdaten auszutauschen und offensive KI-Modelle in sicheren Umgebungen zu testen soll helfen, künftige Cyberbedrohungen besser zu verstehen und abzuwehren. Solche proaktiven Maßnahmen können die Resilienz aller Sektoren stärken – erfordern aber enge Zusammenarbeit. Diese wird jedoch erschwert, da etwa unter der Trump-Regierung die Verantwortung zunehmend auf lokale Behörden verlagert und der Informationsaustausch reduziert wurde.
8. KI unterstützt Sicherheitsanalysten durch schnelle Verarbeitung großer Datenmengen und hilft, Bedrohungen schneller zu erkennen. Dennoch bleibt menschliche Aufsicht unverzichtbar, da KI bislang kein
- Urteilsvermögen,
- Kontextverständnis oder
- ethisches Denken besitzt.
9. Autonome Agenten, die Aufgaben in der Cyberabwehr und sogar offensive Aktionen durchführen können, markieren den Beginn einer stärkeren Automatisierung von Sicherheitsprozessen. Diese KI-Agenten könnten ein Vorteil für Sicherheitsteams sein, doch ihre Autonomie birgt auch Risiken. Allerdings besteht auch die Gefahr, dass sie CISOs zusätzliche Herausforderungen in anderen Unternehmensbereichen bescheren.
10. Trotz der Risiken von KI in den Händen von Angreifern betont die Security Community, wie wichtig es ist,
- verantwortungsvoll weiterzuentwickeln,
- Bedrohungsdaten auszutauschen und
- grundlegende Sicherheitspraktiken festzulegen.
Ziel hierbei ist es stets, einen Verteidigungsvorsprung zu sichern. Zusammenarbeit und proaktive Ansätze sind hierbei entscheidend, um den Missbrauch von KI zu verhindern und eine sichere Zukunft der Cyberabwehr zu gewährleisten.
Untätigkeit hilft Angreifern
Unternehmen und Behörden reagieren bereits mit neuen Richtlinien auf KI-Risiken, doch mangelndes Verständnis bremst die effektive Nutzung. Besonders in Kombination mit Insider-Bedrohungen stellt KI ein erhebliches Risiko dar. Da Angreifer keine Rücksicht auf ethische Vorgaben nehmen, erhöht Abwarten das Risiko.
Daher müssen CISOs einen Weg finden, das Wissen ihrer Teams darüber zu erweitern, wie KI die Sicherheit verbessern kann und wie sie eingesetzt werden kann, um Lücken zu schließen – nicht nur bei den derzeit verwendeten Sicherheitstools, sondern auch bei den vorhandenen Fähigkeiten, diese optimal zu nutzen.
The original article found on Strategien für eine sichere digitale Zukunft von der RSA | CSO Online Read More