„Es ist etwas Schreckliches passiert“: Immer mehr Bürger erhalten Horror-Anrufe

So verhält man sich richtig, wenn man den Anrufern zum Opfer fällt.

12.10.2023, 16:55 Uhr
„Es ist etwas Schreckliches passiert“: Immer mehr Bürger erhalten Horror-Anrufe
Jakub Zak/Shutterstock
Anzeige

Durch die immer weiter fortschreitende Technik entstehen auch immer neue Möglichkeiten, Menschen zu betrügen oder in Angst und Schrecken zu versetzen. Grund für die jüngsten Horroranrufe ist die künstliche Intelligenz (KI), mittels derer den Gaunern ganz neue Möglichkeiten geboten werden. Es findet ein Anruf einer angeblichen Tochter zur Mutter statt, die unter Tränen berichtet, in einen Verkehrsunfall verwickelt, und dadurch schuld am Tod eines kleinen Mädchens zu sein. Sie gibt das Gespräch an eine vermeidliche Polizistin ab. Die erklärt, dass die Tochter auf Kaution aus der Haft entlassen werden könnte. Dazu gibt es gleich noch eine Kontonummer, auf die man eine entsprechende Summe überweisen müsse. 

Später stellt sich raus, dass der gesamte Anruf und die Handlung frei erfunden war. Diesen Unfall gab es nie. Allerdings hatte die Mutter tatsächlich den Eindruck, mit ihrer Tochter gesprochen zu haben. In diesem, so wie in vielen anderen Fällen haben sich die Betrüger das sogenannte „Voice Cloning“ zunutze gemacht. Hier wird die Stimme einer vertrauten Person mittels künstlicher Intelligenz perfekt imitiert. Als Muster dazu reichen den Betrügern ein paar gesprochene Worte der Person aus – schon hat die entsprechende Software die Eigenschaften der Stimme analysiert und kann sie nachsprechen. 

Anzeige
Brian A Jackson/Shutterstock

Kriminelle nutzen KI für fiese Betrugsmasche

Laut Michael Zerna, dem Geschäftsführer einer Beratungsgesellschaft für künstliche Intelligenz, kommt diese Betrugsmethode immer häufiger vor. Die Informationen über potenzielle Opfer werden aus den sozialen Netzwerken generiert oder aus gehackten Personendaten, die im Darknet verfügbar sind. Die Stimmen der vertrauten Personen sind sogar noch leichter zu finden. Sie werden einfach aus den bei Facebook, Instagram und Co. ausgelesen, wo viele Menschen ihre Stimme in Videos hinterlassen – natürlich gemeinsam mit ihrem Namen. "Betrugsversuche mittels KI nehmen zu", fasst Zerna zusammen. "Laut FBI und verschiedenen Verbraucherschutzorganisationen werden KI-Technologien wie Deepfakes und Voice Cloning immer häufiger für Erpressung, dem "Großeltern-Betrug" und für hochentwickelte Social-Engineering-Angriffe gegen Unternehmen verwendet."

Anzeige

Der bayrische Justizminister Georg Eisenreich (CSU) nennt Schäden, die nur für die Stadt München bereits über 1,2 Millionen Euro liegen; und das alleine im ersten Halbjahr 2023. Im vorangegangenen Jahr waren es 1,78 Millionen Euro. Die Fälle nehmen also extrem stark zu. Eisenreich kommentiert: „Hier werden ganz gezielt die Gutgläubigkeit und die Sorgen von älteren Menschen ausgenutzt, um sie zu schädigen. Die Folgen dieser Taten können für die Opfer erheblich sein, nicht nur finanziell, sondern zum Teil auch gesundheitlich, bis hin zu Angstzuständen und Depressionen.“  Die Täter seien hochspezialisiert und sogar psychologisch geschult.

Anzeige

Eisenreich rät daher: „Lassen Sie sich nicht unter Druck setzen. Beziehen Sie Familie oder Freunde ein. Und wichtig ist: Zeigen Sie die Täter an. Es hilft, Polizei oder Staatsanwaltschaft frühzeitig zu informieren. So lassen sich Taten besser aufklären und weitere Taten verhindern.“ Zusätzlich verlangt er nach härteren Strafen seitens des Gesetzgebers. Meistens sitzen die Täter allerdings im Ausland und hier würden nur Geldboten oder kleinere Komplizen geschnappt. Zusammenfassend ist es immer ratsam, bei solchen Anrufen Testfragen zu stellen, die nur die betreffende Person beantworten kann und man sollte sich unbedingt bei der Polizei rückversichern. Außerdem sollte jeder dieser Betrugsversuche konsequent zur Anzeige gebracht werden.

Auch über WhatsApp versuchen Betrüger an das Geld unwissender Eltern zu gelangen.