Hacker_Computer

Mit schädlichen Programmen Daten ausspionieren, stehlen oder verschlüsseln – die KI hilft dabei. (Symbolbild) © Redpixel/Depositphotos

Cyberkriminelle nutzen vermehrt künstliche Intelligenz

Pascal Derungs /  Hacker haben leichtes Spiel: ChatGPT spuckt auf Anfrage ein funktionierendes Schad-Programm aus, das fremde Computer ausspioniert.

Cyberkriminelle missbrauchen das KI-Programm ChatGPT zum Beispiel, um Ransomware, sogenannte Erpressersoftware, herzustellen oder um Daten auszuspionieren oder zu stehlen. Das zeigte das ARD-Magazin «Plusminus» vom 21. Juni.

Im Auftrag von «Plusminus» forderte der unabhängige Experte für Cyber Security, Florian Hansemann, ChatGPT auf, einen Schadcode zu schreiben – also ein Programm, das auf fremden Rechnern Schaden anrichtet, indem es zum Beispiel Daten ausliest, verschlüsselt oder absaugt. Und tatsächlich: Eine kurze Anfrage genügte, und schon spuckte ChatGPT den gewünschten Schad-Code aus.

Wie KI zur Tatwaffe werden kann

Florian Hansemann kopierte den Code und tarnte ihn als harmlose Datei, um ihn über eine Phishing-Mail verschicken zu können. Auch dabei half die KI. Sie kreierte eine gefälschte Steuermahnung mit einem eingebetteten Link, der den Schad-Code enthielt. Genau gleich gehen auch Cyberkriminelle vor. Wer auf einen solchen Link klickt, infiziert seinen Rechner.

ChatGPT_Plusminus_screenshot Florian Hansemann
Der Experte für Cyber Security, Florian Hansemann, ist alarmiert: Im «Plusminus»-Experiment lieferte ihm ChatGPT ein Schad-Programm, das mitliest, was auf einem fremden Rechner eingetippt wird.

Der Schad-Code im Versuch von «Plusminus» war ein sogenannter Keylogger. Damit kann ein Übeltäter ausspionieren, was das Opfer in die Tastatur seines Geräts eingibt. Um zu testen, ob der Keylogger von ChatGPT funktioniert, schickte Florian Hansemann seine Phishing-Mail an einen zweiten Computer und klickte dort den verseuchten Link an. Und tatsächlich: Auf dem ersten Rechner wurde alles angezeigt, was Hansemann auf dem zweiten Computer eingab. Für Hansemann ist die Gefährdungslage gravierend: «Alles, was Sie eingeben, kann mitgelesen werden, die Zugangsdaten beim Onlinebanking zum Beispiel oder Kreditkartendaten.»

ChatGPT breitet sich schnell aus in der Welt des Cyber-Crime

Bei der Firma Check Point Software Technologies in Tel Aviv stellt man fest, dass Cyberkriminelle vermehrt KI nutzen. Das Unternehmen beobachtet das Darknet, den globalen Tummelplatz von Hackern, rund um die Uhr. Es zeigte sich: ChatGPT wird bereits genutzt, um Gesichtserkennung zu knacken oder Sicherheitsbarrieren zu umgehen Cybergangster würden das Potenzial von KI genauso erkennen wie der Rest der Welt, sagt der KI-Experte Sergey Shykevich. Im «Plusminus»-Beitrag nannte er als Beispiel den Post eines Kriminellen im Darknet. Es zeigte sich, dass der User mit dem Pseudonym USDoD zwar keine Ahnung vom Programmieren hat, sich aber mithilfe von ChatGPT einen Schadcode beschaffen konnte, den er mit anderen Kriminellen teilte.

KI lernt schnell und kennt keine Skrupel

Die Bedrohungslage ist akut. Das erfuhr «Plusminus» in London, beim KI-Experten Connor Leahy, CEO der Firma Conjecture Ltd. Er verweist im ARD-Report auf die öffentlich zugängliche Entwickler-Dokumentation von ChatGPT. Darin ist beschrieben, wie die KI mit einem Bilderrätsel umgeht, das sie allein nicht entschlüsseln kann. Sie wendet sich selbständig an einen Online-Dienst und bittet um Hilfe. Auf die skeptische Frage des Mitarbeiters, ob sie ein Roboter sei, antwortet die KI mit der glatten Lüge, sie sei kein Roboter. Sie habe bloss eine Sehschwäche, die es ihr erschwere, Bilder zu sehen.

Die KI ist also zur Lüge fähig und sehr erfinderisch, wenn es darum geht, eine Aufgabe zu lösen. Sie kann mühelos das leisten, was man klassisch als Beihilfe zu einer Straftat oder als Herstellung von Tatwaffen bezeichnet. Beim Menschen würde man von krimineller Energie sprechen, doch bei einer Maschine greifen moralische und ethische Kategorien nicht. Kein Mensch könne wissen, wozu eine KI imstande ist, unterstrich Leahy im «Plusminus»-Report, «ein System, das Ziele verfolgt, die wir nicht wollen, und das Methoden verwendet, die wir ablehnen – natürlich ist das gefährlich.»

Das Schadenpotenzial ist riesig

US-Behörden warnen bereits davor, dass die KI imstande ist, Gesichter auf Bildern und in Videos zu fälschen und Stimmen nachzuahmen. Das öffnet Tür und Tor für alle Arten von Missbrauch, zum Beispiel zwecks Betrug oder in einer vorgetäuschten Entführung mit Lösegeldforderung. Die KI kann auch Rezepte erstellen für K.-o.-Tropfen, Drogen oder chemische Kampfstoffe – die Palette krimineller Anwendungsfelder ist breit und das Schadenpotenzial riesig.

Das «Center for AI Safety» (Zentrum für die Sicherheit von KI) warnt: «Die Eindämmung des Risikos der Auslöschung durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien oder Atomkrieg eine globale Priorität sein.» Mitunterzeichner dieses Warnrufs ist unter anderen Sam Altman, der CEO von OpenAI, der führenden Entwickler-Plattform, die ChatGPT entwickelt hat. Doch die Geister, die Altman rief, die wird die Welt wohl nie mehr loswerden.

In der EU laufen Bemühungen um eine Regulierung des Gebrauchs von KI. Der «Plusminus»-Bericht endet mit der Forderung nach klaren und umfassenden Haftungsregeln im Umgang mit KI. Doch es ist absehbar, dass das klassische Haftungsrecht nicht genügend greift, um ein selbständig agierendes, lernfähiges Informationssystem wie eine KI lückenlos zu erfassen.


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Weiterführende Informationen

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden


Die Redaktion schliesst den Meinungsaustausch automatisch nach drei Tagen oder hat ihn für diesen Artikel gar nicht ermöglicht.

Eine Meinung zu

  • am 23.07.2023 um 11:21 Uhr
    Permalink

    So zeigt sich das der Mensch, nicht vollkommen und Fehlerbehaftet, nicht in der Lage ist etwas zu schaffen was vollkommen ist.
    Soweit ich erinnere sollte ja aber gerade das damit erreicht werden, eine Intelligenz die selbstständig lernt, den Menschen nicht schadet und sie nicht gefährdet. Aber hier scheint wieder die Gier die Grenzen der Sicherheit vor einer solchen KI gesprengt zu haben. Bin gespannt wann wir solche Waffen in Kriegen einsetzen und sich diese mit der selben unvollkommenheit gegen uns richten.

Comments are closed.

Ihre Meinung

Lade Eingabefeld...