Angriff der KI – Seite 1
Das Muster ist immer das gleiche. Der Angreifer verschafft sich Zutritt durch eine Schwachstelle im IT-System. Unerkannt sucht er darin nach sensiblen Informationen: Persönlichem, Adressen, Finanz- und Gesundheitsdaten. Dann setzt er ein Erpresserschreiben auf, droht mit Veröffentlichung, außer natürlich: Die Opfer zahlen.
Daten-Lösegeld in Höhe von bis zu einer halben Million Dollar sollten kürzlich 17 Organisationen zahlen, darunter Behörden und Rettungsdienste. Solche Erpressungen sind nicht neu. Neu ist, dass diesmal eine künstliche Intelligenz die dafür entscheidenden Schritte übernahm. "KI-Modelle werden inzwischen genutzt, um selbst ausgefeilte Cyberattacken auszuführen", schreiben Sicherheitsforscher des KI-Unternehmens Anthropic in einem aktuellen Sicherheitsbericht zu diesen Fällen. Und weiter: "Der Angreifer setzte KI in einem Ausmaß ein, das unseres Wissens beispiellos ist."
Branchenweit hatten Sicherheitsexperten vor einer Ära KI-gesteuerter Angriffe gewarnt. Das könnte er nun sein, der technologische Kipppunkt für die digitale Sicherheit – einer, auf den die Gesellschaft nur unzureichend vorbereitet ist.
"Die Geschichte der Cybersicherheit war stets von Flickarbeiten begleitet", sagt Ahmad-Reza Sadeghi, Professor und Leiter des Labors für Systemsicherheit an der TU Darmstadt. "Systeme wurden entwickelt, ohne Sicherheit mitzudenken. Erst als Angriffe zunahmen, musste man sie nachträglich abdichten." Sadeghi forscht seit acht Jahren zur Sicherheit von KI – lange bevor Sprachmodelle wie ChatGPT Einzug in den Alltag hielten.
Seit den 1980er-Jahren wiederholt sich dieses Katz-und-Maus-Spiel immer wieder: Auf die ersten Heimcomputer folgten die ersten Viren – und erst danach die Antivirenprogramme. Mit der Verbreitung von E-Mail kam die Spamflut, dann kamen die Filter. Und als Phishing-Attacken zunahmen, reagierten Unternehmen mit Sicherheitsschulungen. Es war ein ungleicher Wettlauf, doch das Innovationstempo der Angreifer ließ den Verteidigern Zeit, die Lücke immer wieder zu schließen. Diese Dynamik ändert sich mit der KI nun fundamental.
Dass auch Kriminelle künstliche Intelligenz nutzen würden, war unausweichlich. So wie Chatbots im Büro Routineaufgaben übernehmen, unterstützen sie auch Hacker beim Programmieren. Sie verfassen sekundenschnell Betrugsmails oder bauen Fake-Websites. Und das ohne jene Tipp- und Grammatikfehler, die Cyberangriffe früher als solche verrieten. Mit messbarer Wirkung: Eine Untersuchung des US-Sicherheitsunternehmens SlashNext zeigte im Jahr 2024 einen vierzigfachen Anstieg von Phishing-E-Mails seit dem Start von ChatGPT. Besonders perfide wird KI für digitalen Telefonbetrug eingesetzt: In automatisierten Telefonaten mit synthetischen Stimmen täuscht sie ihre Opfer.
Zwar stieg die Zahl der Cyberangriffe ebenso wie der finanzielle Schaden zuletzt an, wie Zahlen von BKA und FBI zeigen. Doch die ganz große Disruption blieb zunächst aus. Die KI assistierte, machte Kriminelle effizienter. Die Logik der Angriffe blieb gleich, ein Hacker musste noch immer wissen, was er tat. Nur übernahm ein Sprachmodell die Fleißarbeit.
Nun aber verschiebt sich etwas Grundsätzliches. Sprachmodelle wechseln die Rolle – vom Assistenten zum Komplizen. Der Grund dafür ist eine neue Generation dieser Modelle: KI-Agenten.
Ein maschinelles Bauchgefühl
"Der Begriff ist ein Modewort", sagt Michael Pradel, Informatiker am Helmholtz-Zentrum für Informationssicherheit und an der Universität Stuttgart. In der Forschung jedoch habe er eine klare Bedeutung: Ein KI-Agent kombiniert ein Sprachmodell mit weiteren Werkzeugen, die er selbstständig einsetzen kann, um ein Ziel zu erreichen.
Pradels Team arbeitet an Agenten für die Softwareentwicklung – und nutzt dafür unter anderem Claude, jene KI, die auch die "beispiellosen" Cyberangriffe durchführte. Anders als bei traditionellen KI-Modellen reicht es bei solchen Agenten aus, wenn der Nutzer einen allgemeinen Auftrag formuliert. Wie der erfüllt werden kann, findet der Agent daraufhin selbst heraus und führt diesen Plan auch aus. Das Vorgehen beschreibt Pradel so: "Der Agent liest Code, probiert Eingaben aus, führt Befehle aus, schaut sich Rückmeldungen an und entscheidet dann, was er als Nächstes macht."
Möglich wird das durch eine entscheidende Eigenschaft der jüngsten Sprachmodelle: Sie können Strategien entwickeln, wenn man sie zwingt, laut zu denken – also nicht sofort eine Antwort zu geben, sondern sie Schritt für Schritt herzuleiten. Statt bloß Ergebnisse auszuwerfen, bilden sie kleine Gedankenketten. Diese Fähigkeit zum reasoning, kombiniert mit Werkzeugen zum Lesen, Schreiben und Analysieren von Code oder zur Websuche, ja zum Ausführen eigener Programme, steigert das Potenzial von KI enorm. Im Guten wie im Schlechten.
Die Sprache, in der wir über KI sprechen, vermenschlicht die Technologie zwangsläufig. Sich KI-Agenten als denkende Wesen vorzustellen, ist so naheliegend wie falsch. In einzelnen Aspekten sind sie aber so überzeugend, dass eine andere Wortwahl die Sache nur unnötig verkomplizieren würde. Auch der eher nüchterne Wissenschaftler Pradel sagt: "Große Sprachmodelle haben so etwas wie Intuition. Sie haben unzählige Beispiele gesehen und können dadurch Entscheidungen treffen, die zuvor nur Menschen möglich waren." Ein maschinelles Bauchgefühl also, und genau das macht KI-basierte Schadsoftware so gefährlich.
Auf die 17 Opfer des Hackingangriffs hatte der böswillige Nutzer die Claude-KI mit nicht mehr als ein paar groben Anweisungen losgelassen. Die KI tastete sich dann brav durch die Systeme, stöberte in den Rechnern von Administratoren und der Buchhaltung, trug sorgfältig Spenderlisten und Kontodaten zusammen. Zum Schluss schlug Claude ein individualisiertes Erpressungsschema vor. So schildert es Alex Moix, ein Mitarbeiter von Anthropic, in einem YouTube-Video.
Der hohe Grad an Autonomie und die überlegene Reaktionsgeschwindigkeit von KI-Agenten verschaffen einen gefährlichen Effizienzvorteil. "Nach unseren Beobachtungen würde man eigentlich erwarten, dass ein ganzes Team von Cyberkriminellen mehrere Monate braucht, um in diesem Umfang aktiv zu werden", sagt Moix im Video. Hier aber sei es einer Einzelperson gelungen, unterstützt durch den KI-Komplizen, in nur einem Monat.
Noch ist die Technologie nicht so weit entwickelt, dass sie massenhaft von Kriminellen eingesetzt wird. Noch sind die Hürden zu hoch, als dass jeder Laie einen erfolgreichen Angriff starten könnte. Angesichts des rasanten Fortschritts aber scheint das nur eine Frage der Zeit zu sein.
Die Agenten treten zu einem heiklen Zeitpunkt auf. Die digitale Sicherheit ist ohnehin bedroht, Stichwort hybride Angriffe aus Russland. Zudem sind potenzielle Opfer schlecht gewappnet. Lediglich zwei Prozent der deutschen Unternehmen seien 2024 bestmöglich auf aktuelle Cybergefahren vorbereitet gewesen, erhob der Telekommunikationskonzern Cisco. Privatnutzer, teilt das Bundesamt für Sicherheit in der Informationstechnik im diesjährigen Cybersicherheitsmonitor mit, seien mehrheitlich schlecht gegen Angriffe gewappnet. Mehr noch, die Menschen im Land ergriffen heute weniger Schutzmaßnahmen als früher.
Und die KI-Unternehmen?
Fatal könnte sich zudem eine Entwicklung in den USA auswirken. "Das globale Alarmsystem für Cybersicherheit bricht zusammen", titelte im Juli das renommierte Magazin Technology Review. Die öffentliche Datenbank NVD, in der IT-Sicherheitslücken beschrieben und bewertet werden, habe einen massiven Rückstau aufgebaut: Zehntausende Schwachstellen seien nicht analysiert und veröffentlicht. Das liege an Kürzungen und Personalmangel. Angreifer – künftig wohl auch feindliche KI-Agenten – könnten diese Lücken ausnutzen, bevor Nutzer überhaupt davon erfahren. Besonders kleinere Firmen ohne teure Spezialsoftware sind dadurch gefährdet.
Von einer preparedness gap sprechen Fachleute – der wachsenden Kluft zwischen Vorsorge und Bedrohung. Die Fähigkeiten von KI-Agenten wachsen im Monatsrhythmus. Bald könnten sie Sicherheitslücken vollautomatisch innerhalb weniger Stunden finden und ausnutzen. Organisationen hingegen brauchen mitunter Jahre, um ihre Abwehr anzupassen. Denn, sagt IT-Forscher Pradel: "Leider entsteht Bewusstsein für Sicherheit fast immer erst nach dem Ernstfall."
Damit es gar nicht so weit kommt, sind die KI-Unternehmen gefordert. Schließlich sind es ihre Sprachmodelle, die Kriminelle als digitale Komplizen missbrauchen. Doch bislang sind sie eher Teil des Problems. "KI ist eine Goldmine für IT-Sicherheitsforschung, weil sie so viele Sicherheitsprobleme hat", sagt Ahmad-Reza Sadeghi.
Ein Beispiel: Sprachmodellen wie Claude wurden Sicherheitsfilter eingebaut. Werden sie direkt nach Schadsoftware gefragt, müssen sie antworten: "Geht nicht! Gefährlich und illegal!" Erschreckend leicht lässt sich der Filter aber umgehen. Im von Anthropic dokumentierten Fall gab der Kriminelle einfach vor, selbst Sicherheitsexperte zu sein und eine Verteidigung überprüfen zu wollen. In dem Anthropic-Bericht heißt es, man habe alle Informationen mit den Behörden geteilt und den Schutz verbessert. Anders gesagt: Man hat geflickt.
Für die großen Anbieter gibt es Wichtigeres als die Sicherheit ihrer Systeme. Sie stehen in einem globalen Rennen um Marktdominanz. Der Schutz vor böswilliger Manipulation komme da zu kurz, sagt Sadeghi. "Je mehr KI eingesetzt wird, ohne inhärente Sicherheit, desto dystopischer wird unsere Welt."
Es ist nicht schwer, sich für die nahe Zukunft eine hässliche digitale Welt vorzustellen, bevölkert von KI-Agenten, jederzeit zum Angriff bereit. Michael Padel hingegen sagt: "Die dystopischen Szenarien sind interessant, aber überzeugen mich selten. Ich sehe mindestens ebenso viele Chancen." Man könne schließlich dieselben Fähigkeiten, mit denen Agenten Sicherheitslücken fänden, auch zur Verteidigung nutzen. Reparatur-Agenten könnten Software automatisiert sicherer machen. Sein Team forsche längst an defensiver KI. Entscheidend sei nur, dass die Verteidigung schnell aufhole. Und dass Sicherheit bei Behörden und Unternehmen zur Priorität werde.
Wenn aber der Anthropic-Bericht nun vor Augen führt, dass das K in KI auch für kriminell stehen kann, so ist noch etwas anderes nötig: eine ehrliche Auseinandersetzung mit den Risiken der neuen Technologie – und eine Strategie. Ahmad-Reza Sadeghi etwa fordert von Politik und Gesellschaft in Anlehnung an das Atomprogramm der USA im Zweiten Weltkrieg ein "Manhattan Project, aber für einen guten Zweck". Einen gemeinsamen Kraftakt, um der Entwicklung Herr zu werden.
Künstliche Intelligenz, so lautet stets das Versprechen der Industrie, werde dem Menschen Arbeit abnehmen – darin liegt, so wissen wir spätestens jetzt, eine bittere Ironie.
19 Kommentare
Prokrastineur
Details
Das was mich als interessierter Laie am meisten interessiert, ist mit dem ersten Satz abgearbeitet.
Wie verschafft sich ein Angreifer Zutritt zum System? Muß ein Insider noch was falsches Klicken oder der Admin ein update versäumen, dann wären die die Schwachstelle.
Oder funktioniert so ein Angriff über eine Schwachstelle schon out of the box?
SchlafeLange
Details
Löst beim Lesen so einen furchtbar impertinenten Louis De Funès "Nein!? - Doch!! - Ohh!!!" Reflex aus ...
Hamburg im Herzen
Details
Ein Roboter darf keinem Menschen schaden oder durch Untätigkeit zulassen, dass einem Menschen Schaden zugefügt wird.
Ein Roboter muss den von Menschen gegebenen Befehlen gehorchen, außer wenn solche Befehle dem Ersten Gesetz widersprechen.
Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.
Isaak Asimov
Dass Technik zwei Seiten hat und man den Missbrauch immer mitdenken muss, ist seit Jahrzehnten bekannt. Asimov hat das Konzept der zum Schaden von Mitmenschen eingesetzten künstlichen Intelligenz in einigen seiner Geschichten gefühlt vor Urzeiten thematisiert. Wer in den vergangenen zwanzig Jahren auf die Nachteile von Technik und IT hingewiesen hat, wurde als rückständig verteufelt. Wer heute mehr Sicherheit in der IT fordert, hat schnell den Ruf weg, paranoid zu sein.
Maschinen die Mittäterschaft auszutreiben wird zunehmend schwierig, weil Sicherheit nicht vom ersten Moment an mitgedacht worden ist. Es braucht keine Kenntnisse mehr, um eine KI zu bedienen - und wo die kriminelle Energie das ist, sie zu missbrauchen, ist auch genug Phantasie da, die Technik zur Kooperation zu bewegen.
Pumpernickelkarnickel
Details
OpenAI in die Haftung nehmen?
GuRRickY
Details
Mein Arbeitgeber ist optimal gegen unbefugte IT-Zugriffe geschützt, auch von KI. Warum? Hier wird nach wie vor so analog gearbeitet, dass mir das wohl kaum jemand glauben würde. Jeder Vorschlag zu mehr Digitalisierung wird knallhart abgelehnt. Papier und Fax Geräte bleiben. Keine Diskussion. Es lebe die Hoch-analog-Technologie. Wenn Hacker also vertrauliche Daten wollen, dann müssen Hacker schon den Analogen Weg wählen. Zumindest wird KI mich in diesem Unternehmen nicht ersetzen...
derBjörn
Details
Oh schöne vernetzte Welt...
Wäre doch Windows nur halbwegs sicher oder die Leute vernünftig genug auf Linux umzusteigen.
Wären doch die Router und Firewalls von Cisco & Co. nicht mit sovielen fest eingebauten Adminusern versehen.
Wäre doch nur das am Netz, was wirklich ans Netz muss.
Hätten wir mal zugehört, als die Experten vor Cloud und IoT gewarnt haben.
Gäbe es noch echte Clientsoftware und nicht nur gruselige WebApps.
Würde man den Leuten nur eine ordentliche Ausbildung geben, bevor man ihnen die Waffe Laptop in die Hand drückt.
...
api-zeit
Details
Originalton FDP und andere Neoliberale: Keine Panik! Es gibt für alles eine technische Lösung. Bremst einfach nicht die Ökonomen. Die finden schon die Techniker, die uns vor dem Übel bewahren. Schaut vertrauensvoll in die Zukunft!
Inselbanker
Details
Genauso ist es!
Jedwede unwissende oder willentliche Schönfärberei ist unverantwortlich!
Wer die LiberalDemokratie ernsthaft schützen will, muss so schnell wie möglich wirkungsvolle Gegenmaßnahmen ergreifen, damit die charakterlich verlotterten Tech-Milliardäre mit unserer Sicherheit nicht absolut fahrlässig umgehen können.