Künstliche Intelligenz verschärft das Wettrennen um IT-Sicherheit

Künstliche Intelligenz verschärft das Wettrennen um IT-Sicherheit
 

Cyberangriffe sind in Deutschland das größte Geschäftsrisiko – noch vor Naturkatastrophen, politischen Risiken oder regulatorischen Herausforderungen. Das zeigt die aktuelle Umfrage Allianz Risk Barometer 2025.

Jüngste Vorfälle zeigen, dass die Bedrohung real ist: Allein im Juli 2025 sorgten zahlreiche Bedrohungen für Schlagzeilen. Darunter sogenannte DDoS-Attacken auf kommunale Websites von Stadtverwaltungen, S-Bahnen und Landratsämtern. Solche Angriffe verfolgen das Ziel, ein System oder eine Website durch viele zeitgleiche Zugriffe zum Absturz zu bringen. Die Anzahl der bekanntgewordenen DDoS-Angriffe ist laut Bundesamt für Sicherheit und Informationstechnik in den vergangenen Monaten tendenziell gestiegen.

Ebenfalls für Schlagzeilen sorgte jüngst eine schwerwiegende Zero-Day-Schwachstelle auf lokalen SharePoint-Servern. Zero-Day-Schwachstellen sind unbekannte Sicherheitslücken, die Unternehmen buchstäblich null Tage Zeit lassen, um zu reagieren. Mehr als 100 Organisationen in Deutschland sollen von lokalen SharePoint-Schwachstellen betroffen gewesen sein.

Täuschend echte Phishing-Angriffe aufgrund der KI auf dem Vormarsch

Auch die Zahlen sprechen eine klare Sprache: Im ersten Halbjahr stieg die Anzahl der Cloud-basierten Cyberangriffe global um 136 % laut dem Threat Hunting Report 2025. Laut Gartner, einem IT-Marktforschungs- und Beratungsunternehmen, trägt auch die generative Künstliche Intelligenz (KI) zu diesem Anstieg bei. Experten warnen in diesem Zusammenhang vor einer neuen Ära von Cyberkriminalität. Dies gilt insbesondere auch im Zusammenhang mit sogenanntem Social Engineering. Hier nutzen Kriminelle die KI, um täuschend echte, personalisierte Nachrichten oder Manipulationen zu erstellen, die Menschen dazu bringen, vertrauliche Informationen preiszugeben oder schädliche Aktionen auszuführen.

Phishing-Mails, die früher oft durch Rechtschreibfehler oder unbekannte Absender erkannt werden konnten, werden von Betrügern heute mithilfe generativer KI hochgradig personalisiert erstellt, indem KI-Werkzeuge persönliche Daten aus öffentlich zugänglichen Quellen im Internet auslesen und nutzen. Das versetzt Angreifer in die Lage, sich als Kollegen, Vorgesetzte, Verwandte oder Dienstleister aus dem persönlichen Umfeld auszugeben, um Menschen zu schädlichen Verhaltensweisen zu bewegen. Der neueste Trend sind KI-gestützte Deepfakes, insbesondere in Video- und Audioformaten.

KI ist ein zweischneidiges Schwert für die IT-Sicherheit

„In puncto IT-Sicherheit ist KI ein zweischneidiges Schwert“, sagt Junus Ergin, IT-Experte bei der Developer Akademie. Einerseits verhelfe sie Angreifern zu immer raffinierteren Methoden, andererseits helfe sie aber auch bei der Abwehr von Angriffen.

So können KI-basierte Systeme heute global verfügbare Bedrohungsdaten in Sekundenschnelle analysieren, neue Angriffstrends in Echtzeit erkennen und davor warnen. Bereits laufende Angriffe werden durch blitzschnelle Musteranalyse entdeckt und oft automatisiert abgewehrt – ohne dass der Mensch eingreifen muss. Denn während menschliche Beobachter im Stress auffällige Details oft übersehen, erkennt die KI ungewöhnliche Anfragen oder Verhaltensweisen sofort. Auf diese Weise schützt sie auch vor Deepfakes und Social-Engineering: „Selbst wenn im E-Mail-Absender der Name eines Kollegen oder Freundes steht, erkennt die KI, wenn die E-Mail von einer ungewöhnlichen Domain stammt oder beispielsweise für eine echte Mail viel zu generisch formuliert ist“, erklärt Ergin. Auch ungewöhnliche Drohkulissen, mit denen Kriminelle ihre Opfer zur Preisgabe von Zugangsdaten verleiten wollen, blieben der KI nicht verborgen. Angriffe könnten somit erkannt werden, noch bevor Schaden entsteht.

KI ist kein Alleskönner

Ergin betont jedoch, die Technik funktioniere nur in Verbindung mit menschlicher Expertise und hochwertigen Trainingsdaten. Experten müssten KI-Systeme kontinuierlich überwachen und sicherstellen, dass diese auf erklärbaren Modellen basieren. Nur so könnten Menschen die Entscheidungen der KI nachvollziehen und bei Bedarf korrigierend eingreifen. Ergin hält grundlegendes Basiswissen über die Funktionsweise von KI für unverzichtbar, damit der Mensch die Technik beherrscht und nicht umgekehrt. Der Experte sieht zudem die Qualität der Trainingsdaten kritisch: Sie stammen oft aus frei zugänglichen Quellen im Internet, welche theoretisch manipulierbar sind und so Halluzinationen, also fehlerhaften KI-Output, hervorrufen können. Ob KI der IT-Sicherheit letztlich nützt oder schadet, lässt Ergin offen: „IT-Sicherheitsexperten haben sich schon immer einen Wettlauf mit Cyberkriminellen geliefert – die KI hat das Tempo jedoch drastisch erhöht.“

Pressekontakt:

public performance | Miriam Piecuch | T +49 ((0)40 23 80 12 83 | Mail mp@publicperformance.de

Original-Content von: Developer Akademie GmbH, übermittelt durch news aktuell