Künstliche Intelligenz (KI) hat die Art und Weise, wie wir Technologie nutzen, revolutioniert – doch sie hat auch eine dunkle Seite.
Cyberkriminelle setzen KI immer häufiger ein, um Menschen gezielt anzugreifen, und die Bedrohungen werden raffinierter. Von personalisierten Angriffen bis hin zu selbstlernender Malware: Die Möglichkeiten sind beängstigend vielfältig. Was bedeutet das für unsere Sicherheit, und wie können wir uns schützen?
Ein prominentes Beispiel sind Deepfake-Technologien.
Mithilfe von KI können Hacker täuschend echte Videos oder Audiodateien erstellen. Stellen Sie sich vor, Sie erhalten einen Anruf von Ihrem Chef, der Sie bittet, dringend vertrauliche Daten zu übermitteln – nur dass es nicht Ihr Chef ist, sondern eine KI-generierte Stimme. Solche Szenarien sind keine Science-Fiction mehr, sondern Realität. Laut Berichten wurden bereits Unternehmen durch derartige Angriffe um Millionen betrogen, etwa als ein britischer Geschäftsführer 2019 per Deepfake-Anruf zu einer Überweisung von 220.000 Euro verleitet wurde.
Auch die Malware-Entwicklung profitiert von KI.
Traditionelle Schadsoftware war statisch – sie folgte festen Mustern, die Sicherheitsprogramme erkennen konnten. KI-gestützte Malware hingegen lernt dazu: Sie analysiert Systeme in Echtzeit, passt sich an Sicherheitsmaßnahmen an und findet Schwachstellen schneller als je zuvor. Ein Beispiel ist die „Emotet“-Malware, die sich durch KI-Elemente ständig weiterentwickelt und weltweit Netzwerke infiziert.
Besonders perfide wird es, wenn KI persönliche Daten nutzt.
Durch die Analyse von Social-Media-Profilen, Einkaufsverläufen oder geleakten Datenbanken können Angreifer Profile erstellen, die Ihre Vorlieben, Gewohnheiten und Schwächen kennen. Eine E-Mail, die exakt auf Ihre Interessen zugeschnitten ist – etwa ein Angebot für Ihr Lieblingshobby – hat eine viel höhere Erfolgsquote. Diese Präzision macht KI-Angriffe so gefährlich: Sie zielen nicht auf Systeme, sondern auf den Menschen dahinter.
Die Abwehr solcher Bedrohungen ist ein Wettrennen. Unternehmen setzen ebenfalls KI ein, um Angriffe zu erkennen, etwa durch Verhaltensanalysen, die ungewöhnliche Aktivitäten markieren. Doch Technologie allein reicht nicht. Sensibilisierung ist entscheidend: Mitarbeiter müssen lernen, verdächtige Anfragen zu hinterfragen, auch wenn sie authentisch wirken. Privatpersonen sollten ihre digitalen Spuren minimieren, etwa durch stärkere Datenschutzeinstellungen. Denn eines steht fest: KI ist ein Werkzeug – in den Händen von Cyberkriminellen jedoch eine Waffe, die wir nicht unterschätzen dürfen.