Der Einsatz von künstlicher Intelligenz (KI) durch Trickbetrüger könnte es künftig schwieriger machen, Betrüger am Telefon zu entlarven. Das gilt zum Beispiel bei sogenannten Schockanrufen, wenn es dem Täter gelingt, seine Stimme mit Hilfe von KI so klingen zu lassen wie die echte Stimme des vermeintlichen Anrufers. Bei Schockanrufen geben sich Betrüger am Telefon als Tochter, Sohn oder Enkel aus. Sie täuschen eine Notsituation vor, aus der sie nur mithilfe hoher Geldbeträge der angerufenen Eltern oder Großeltern herauskommen. Prominentes (Fast-)Opfer in Bremen war im vergangenen Frühjahr Altbürgermeister Henning Scherf.
"Schockanrufe beschäftigen die Polizei permanent. Nicht nur in Bremen, sondern bundesweit", sagt Nils Matthiesen, Pressesprecher der Bremer Polizei. "Sie gehören weiterhin zu den variantenreichen Maschen, wenn es darum geht, ältere Menschen um ihr Erspartes zu bringen." Bei vielen Taten bliebe es jedoch beim Versuch, da die Opfer nicht auf die Masche der Betrüger reinfallen.
Die allerdings legen jetzt offenbar nach: Die "Berliner Zeitung" berichtet über den Fall einer 60-Jährigen aus Berlin, die morgens um 10 Uhr im Büro vermeintlich einen Anruf ihrer 33-jährigen Tochter aus Bremen erhalten hat. Die Frauenstimme am Telefon berichtete vollkommen aufgelöst, dass sie einen Unfall verursacht habe, bei dem ein kleines Mädchen ums Leben gekommen sei. Nun säße sie in Untersuchungshaft und käme nur gegen Zahlung einer Kaution wieder frei.
Natürlich sei ihr der Gedanke an Trickbetrug durch den Kopf geschossen, sagt die angerufene Mutter. Aber die Stimme, die Ausdrucksweise – das sei eindeutig ihre Tochter gewesen. Womit die Frau Opfer eines Betrugs geworden sein könnte, den Experten als "Deepfake" bezeichnen. Dabei imitieren die Täter mithilfe von KI Stimmen, die sie sich zuvor aus Audioschnipseln etwa aus Youtube-Videos oder Instagram-Stories gewonnen haben. Der künstlichen Intelligenz reichten dafür fünf bis zehn Sekunden Aufnahme einer Stimme als Trainingsmaterial, erklärt Thorsten Holz, Professor am Cispa-Helmholtz-Zentrum für Informationssicherheit. Akzente und Dialekte seien keine Hürde mehr, auch Emotionen könne die KI erzeugen. Die Stimmklone würden weder hölzern noch roboterartig klingen.
Der Bremer Polizei ist noch kein Fall mit diesem Modus Operandi bekannt, sagt Pressesprecher Matthiesen. Es sei auch zu bezweifeln, dass die Täter tatsächlich einen solchen Aufwand betreiben. Sie müssten sich ja nicht nur – von wo auch immer – die Stimmen besorgen, sondern dann auch noch die dazugehörigen Eltern oder Großeltern ermitteln, erklärt Matthiesen. "Unsere Erfahrung ist, dass die Betrüger eher Akkordarbeit betreiben, indem sie telefonieren und telefonieren, um an ihr richtiges Opfer zu gelangen." Anders ausgedrückt: "Wozu sollen sich die Täter so viel Mühe machen, wenn sie auch ohne KI schon sehr erfolgreich sind?"
Gleichwohl sei es möglich, dass Betrug mit KI-generierten Stimmen zu einer gängigen Bedrohung für Verbraucherinnen und Verbraucher wird, sagt Matthias Gärtner, Pressesprecher des Bundesamtes für Sicherheit in der Informationstechnik. "Die durch künstliche Intelligenz auftretenden Methoden sind in der Regel nicht neu, sondern sie gestalten bisherige Angriffsinstrumente wie Phishing, Trickanrufe oder Betrug effizienter." So benötigten die Täter bei den Trickanrufen künftig nicht mehr Dutzende Menschen, die potenzielle Opfer anrufen, sondern könnten KI einsetzen, um den Prozess zumindest teilweise zu automatisieren. Technisch reichen Sprachproben von wenigen Sekunden Länge aus, um einen Stimmenklang durch KI abzubilden, sagt auch Gärtner. "Öffentliche Profile mit Bild und Ton bieten für Kriminelle hierfür eine sehr einfach zugängliche Datenbasis."
Um so wichtiger sei es, beim Umgang mit persönlichen Daten achtsam zu sein, betont Nicole Bahn von der Verbraucherzentrale Bremen. Auch sie habe in der Beratung noch keinen Fall gehabt, bei dem es um einen betrügerischen Anruf mit Stimmfälschungstechnologie ging, berichtet die Referentin für Verbraucherrecht. "Präsent ist dieses Thema bei uns aber trotzdem." Vor allem in der Präventionsarbeit, wenn es darum gehe, für dieses Thema zu sensibilisieren: "Bislang haben wir geraten, bei solchen Anrufen auf die Tonalität zu achten. Aber jetzt kann man sich nicht mehr darauf verlassen, die Stimme zu erkennen."
Unverändert gelte, so Bahn: Am Telefon nicht unter Druck setzen lassen, kein Geld überweisen, keine persönlichen Daten preisgeben. Und im Fall von Schockanrufen: Zur Sicherheit noch einmal selbst bei Tochter, Sohn oder Enkel anrufen, um sich zu vergewissern, dass es sich nicht um Betrug handelt. Oder am Telefon eine persönliche Frage stellen, die die KI nicht beantworten kann.