Geklonte Identitäten und falsche Investments: Wie KI bekannte Betrugsmaschen revolutioniert

Anfang 2024 ereignete sich in Hongkong ein Betrugsfall, der die digitale Welt erschütterte: Ein Finanzangestellter nahm an einer Videokonferenz mit mehreren Kollegen teil, darunter auch der Finanzvorstand seines Unternehmens. Die Gesichter, Stimmen und Verhaltensweisen aller Teilnehmer wirkten authentisch – doch in Wahrheit handelte es sich um eine vollständig mittels künstlicher Intelligenz generierte Simulation. Das Ergebnis: Der Mitarbeiter überwies 25 Millionen Dollar (ca. 25,6 Millionen USD) an die Betrüger. Erst Tage später flog der Betrug auf, als der Angestellte mit der echten Finanzabteilung Kontakt aufnahm.

© Unsplash.com / Foto: Nadine E

Auch wenn sich dieser Fall in Hongkong und nicht in München ereignet hat: Er markiert einen beunruhigenden Meilenstein in der Evolution digitaler Betrugsmethoden, die keine Grenzen kennt.

1. Digital geklonte Identitäten: Social-Media-Betrug

Als Michael aus Berlin-Kreuzberg eine Freundschaftsanfrage seiner langjährigen Schulfreundin Sabine erhielt, dachte er sich nichts dabei. Auch wenn sie inzwischen nur noch selten trafen, lief man sich im Berliner Nachtleben doch hin und wieder über den Weg. Das Profil enthielt zahlreiche authentisch wirkende Fotos und schrieb in ihrem typischen Stil, kurze, knackige Sätze, viele Smileys und Ausrufezeichen.

Als Sabine ihn um finanzielle Unterstützung für eine dringende Familienangelegenheit bat, war Michael zwar überrasch, aber wurde nicht misstrauisch. Erst als er Sabine zu einer Detailfrage telefonisch kontaktierte, offenbarte sich die bittere Wahrheit: Er hatte die ganze Zeit mit einer KI-generierten Kopie ihrer Online-Persönlichkeit geschrieben.

Die Zeiten, in denen Betrüger mühsam Fake-Profile erstellen mussten, gehören der Vergangenheit an. Mit modernen KI-Tools analysieren Kriminelle heute innerhalb von Minuten tausende öffentlich zugängliche Daten einer Zielperson: Fotos, Sprachmuster, persönliche Vorlieben und soziale Verbindungen. Eine aktuelle Studie des Bundesamts für Sicherheit in der Informationstechnik (BSI) zeigt, dass sich die Zahl solcher “Social Identity Thefts” seit 2021 mehr als verdreifacht hat.

Die psychologische Dimension

Menschen vertrauen instinktiv Personen, die sie zu kennen glauben. Unser Gehirn ist evolutionär nicht darauf vorbereitet, zwischen echter und simulierter Vertrautheit zu unterscheiden. Und wenn ein solcher Betrüger dann nicht nur aussieht und spricht wie ein Freund, sondern auch über gemeinsame Erinnerungen und Insider-Wissen verfügt, werden selbst skeptische Personen anfällig.

Besonders wirksam ist der sogenannte “Vertrauenstransfer”: Das Vertrauen, das wir einer echten Person entgegenbringen, übertragen wir unbewusst auf deren digitales Abbild – ein psychologischer Mechanismus, den KI-gestützte Betrügereien perfekt ausnutzen.

Schutzmaßnahmen

  • Verifizieren von ungewöhnlichen Anfragen über einen alternativen Kommunikationskanal (z.B. Telefon)
  • Auf ungewöhnliche Verhaltensänderungen achten
  • Überprüfen, wann Online-Profile von vermeintlichen Bekannten erstellt wurden
  • Stärken der eigenen Privatsphäre-Einstellungen in sozialen Medien, um die Menge öffentlich zugänglicher Daten zu begrenzen
  • Besondere Vorsicht walten lassen, wenn Bitten um finanzielle Unterstützung ins Spiel kommen

2. Gefühlvolle Falle: KI-optimierte Romance Scams

Seit drei Monaten kommuniziert Sarah aus Berlin-Friedrichshain mit Marco, den sie auf einer Dating-Plattform kennengelernt hat. Der attraktive Ingenieur arbeitet angeblich auf einer Ölplattform vor der Küste Norwegens und überhäuft sie mit romantischen Nachrichten und Aufmerksamkeit. Die Fotos, die er teilt, zeigen einen charmanten Mann mit warmem Lächeln. Als Marco vorschlägt, gemeinsam in eine “sichere Kryptowährung” zu investieren und Sarah um eine “kleine Vorauszahlung” von 2.000 Euro bittet, kommen ihr erste Zweifel. Doch die emotionale Verbundenheit, die sie mittlerweile empfindet, macht es schwer, abzulehnen.

Betrügereien rund um die Liebe sind keine neue Erfindung. Bereits als das Mittel der Wahl noch Kontaktanzeigen in Zeitungen waren, gab es sie. Während diese traditionellen Romance Scammer aber in mühsamer Kleinarbeit Identitäten konstruieren mussten, generieren moderne Betrüger mittels KI binnen Sekunden überzeugende Profile mit maßgeschneiderten Fotos, Lebensläufen und sogar Sprachnachrichten. Aktuelle Statistiken zeigen einen alarmierenden Anstieg von KI-gestützten Romance Scams in Deutschland, mit Schäden in Millionenhöhe.

Die psychologische Dimension

Was diese Form des Betrugs besonders perfide macht, ist die gezielte Ausnutzung grundlegender menschlicher Bedürfnisse. Neurowissenschaftliche Untersuchungen belegen, dass romantische Zuwendung ähnliche Belohnungszentren im Gehirn aktiviert wie bestimmte Suchtmittel. Die KI ermöglicht es Betrügern, durch kontinuierliche Aufmerksamkeit und präzise auf das Opferprofil zugeschnittene Kommunikation eine starke emotionale Abhängigkeit zu erzeugen.

Menschen sehnen sich nach Verbindung und Bestätigung. Selbst wenn der Verstand Warnsignale sendet, übertrumpft die Emotion oft die rationale Entscheidungsfindung. Betrüger nutzen gezielt Techniken wie ‘Love Bombing’ – übermäßige Zuwendung in der Anfangsphase – und erzeugen künstliche Notfallsituationen, die Hilfsbereitschaft und Großzügigkeit aktivieren.

Schutzmaßnahmen

  • Auf widersprüchliche Angaben in der Lebensgeschichte und Auffälligkeiten bei Bildern achten
  • Videotelefonie ins Spiel bringen – zeigt sich das Gegenüber hier ausweichend, ist Vorsicht geboten.
  • Niemals Geld an Personen überweisen, die bisher ausschließlich Online-Bekanntschaften sind.
  • In Zweifel Rat bei Freunden oder Vertrauenspersonen suchen – eine Außenperspektive kann oft klarer sein.

Einige Dating-Plattformen bieten mittlerweile KI-basierte Warnhinweise, die verdächtige Verhaltensmuster erkennen und Nutzer auf mögliche Betrugsversuche aufmerksam machen.

3. Der neue Enkeltrick: KI-Stimmenimitation

Elisabeth, eine 76-jährige Rentnerin aus Berlin-Charlottenburg, erhielt einen Anruf, der ihr das Blut in den Adern gefrieren ließ: “Oma, ich hatte einen schrecklichen Unfall. Bitte hilf mir!” Die Stimme klang exakt wie die ihres Enkels Felix. In Panik folgte sie den Anweisungen und überwies 12.000 Euro an ein vermeintliches Anwaltsbüro. Erst als sie später ihren tatsächlichen Enkel erreichte, realisierte sie den Betrug. Was Elisabeth nicht wusste: Moderne KI-Systeme können aus nur weniger Sekunden Audiomaterial eine täuschend echte Stimmimitation erzeugen – in diesem Fall basierend auf einem Urlaubsvideo, das Felix auf Instagram geteilt hatte.

Die Technologie hinter diesen “Voice Deepfakes” hat in den letzten zwei Jahren beunruhigende Fortschritte gemacht. Das Bundeskriminalamt warnt in seinem aktuellen Bundeslagebild Cybercrime vor der zunehmenden Bedrohung durch Sprachklone und Deepfakes, die für Betrugsdelikte eingesetzt werden.

Vergleichbare Entwicklungen gibt es auch bei Phishing-Attacken, wo die Angreifer längst nicht mehr nur Massenmails nutzen, sondern immer öfter mit personalisierten E-Mails und zunehmend auch Anrufen oder Messenger-Nachrichten Jagd auf die Zugangsdaten zu Online-Konten machen oder sich Zugriff auf den Computer verschaffen. Wer Opfer eines solchen Angriffs geworden ist, sollte sich dringend an Experten wenden. IT-Fachleute und Experten für Datenrettung in Berlin und vielen anderen Städten können weiterhelfen.

Die psychologische Dimension

Bei Anrufen, die starke emotionale Reaktionen auslösen, wird unser kritisches Denken ausgehebelt, ohne dass wir uns dessen bewusst sind. Die Amygdala, unser emotionales Alarmsystem im Gehirn, übernimmt die Kontrolle und drängt uns zu schnellem Handeln. Diese “Emotionale Hijacking” genannte Reaktion unterdrückt die rationalen Hirnareale, die normalerweise Warnzeichen erkennen würden.

Ältere Menschen sind besonders gefährdet, da sie häufig:

  • Weniger Erfahrung mit neuen Technologien und deren Manipulationspotenzial haben
  • Stärkere familiäre Bindungen und Hilfsbereitschaft zeigen
  • Unter Stress anfälliger für Fehlentscheidungen sind
  • Seltener eine zweite Meinung einholen, bevor sie handeln

Schutzmaßnahmen

  • Vereinbaren eines persönlichen “Sicherheitsworts” für Notfälle in der Familie.
  • Bei unerwarteten Hilferufen: Rückruf unter einer bekannten Nummer.
  • Unter Zeitdruck keine finanziellen Entscheidungen treffen – legitime Notfälle erlauben immer Zeit für eine kurze Überprüfung.
  • Möglichst wenige persönliche Audio- und Videoaufnahmen öffentlich zugänglich machen.
  • Bei Verdacht auf Betrug: Umgehend die Bank und ggf. die Polizei kontaktieren.

4. Maßgeschneiderte Geldanlagen: Investment-Betrügereien

Thomas, ein 42-jähriger IT-Spezialist aus Berlin-Mitte, stieß beim Surfen auf eine personalisierte Werbung für eine innovative Investmentplattform. Die KI-optimierte Anzeige adressierte exakt seine Interessen und finanziellen Ziele. Nach seiner Registrierung übernahm ein scheinbar hochkompetenter Anlageberater die Kommunikation – in Wahrheit ein KI-Chatbot, der seine Antworten auf Basis von Thomas’ Online-Verhalten und Persönlichkeitsprofil perfekt abstimmte. Aufgrund dieses bewusst erzeugten Vertrauensverhältnisses war Thomas überzeugt und investierte 50.000 Euro. Als er das erste Mal Gewinne abheben wollte, waren diese verschwunden – zusammen mit seinem eingezahlten Geld, dem “Berater” und der ganzen angeblichen Investmentplattform.

KI-gestützte Anlagebetrugsmaschen sind noch nicht allzu weit verbreitet, kosten Betroffene aber zum Teil enorme Summen. Laut einer Studie der Verbraucherzentrale liegt der durchschnittliche Schaden bei Investment-Betrug deutlich über dem anderer Betrugsformen, mit Verlusten, die nicht selten im fünfstelligen Bereich liegen.

Die psychologische Dimension

Bei Investmentbetrug nutzt KI zwei mächtige psychologische Hebel: FOMO – die Angst, etwas zu verpassen – und Bestätigungsverzerrung. Aus den digitalen Spuren der Opfer werden Anlageoptionen generiert, die zu ihren Überzeugungen und Wünschen passen. Wenn ein Angebot exakt unsere Hoffnungen bestätigt, sinkt unsere kritische Urteilsfähigkeit dramatisch.

Betrüger nutzen zudem die menschliche Tendenz, Expertenmeinungen zu vertrauen – besonders wenn diese Experten unsere eigenen Ansichten bestätigen und gleichzeitig professionell und kompetent wirken.

Schutzmaßnahmen

  • Investmentangebote gründlich anhand unabhängiger Quellen prüfen
  • Identität von Anlageberatern bei der zuständigen Aufsichtsbehörde (BaFin) recherchieren
  • Misstrauen entwickeln gegenüber ungewöhnlich hohen Renditeversprechen ohne entsprechendes Risiko
  • Keine hohen Investitionen ohne ausführliches, persönliches Gespräch mit dem Anbieter
  • Investitionen ausschließlich über regulierte und etablierte Plattformen abwickeln

5. Wie wir uns schützen können

Die KI-Revolution ist dabei, klassische Betrugsszenarien auf eine neue Stufe zu heben. Was früher aufwendig und nur für spezialisierte Kriminelle möglich war wie das Erschaffen virtueller Identitäten, setzen KI-Algorithmen heute binnen weniger Minuten um. Täuschungen werden immer raffinierter, persönlicher und schwerer zu erkennen. Gerade vor dem Hintergrund dieser beunruhigenden Entwicklung bleiben Informationen und kritisches Denken unsere stärkste Verteidigung.

Zentrale Schutzstrategien

Unabhängig von der spezifischen Betrugsform gibt es grundlegende Sicherheitsprinzipien, die in vielen Situationen weiterhelfen können.

  1. Gesunde Skepsis bewahren: Egal ob unerwartete Kontaktaufnahmen, ungewöhnliche Wünsche oder zu gut klingende Angebote – ein genauerer zweiter Blick kann nicht schaden.
  2. Informationen sammeln: Wissen ist Macht. Umso mehr man über die technische Entwicklung und daraus resultierende Gefahren weiß, desto leichter wird es, betrügerische Absichten zu erkennen. Informationen zu Datensicherheit und Datenrettung, Betrugsmaschen und KI sind online wie offline nicht schwer zu finden.
  1. Verifizieren statt vertrauen: Kritische Informationen sollten immer über unabhängige Kanäle bestätigt werden.
  2. Zeit nehmen: Unter Zeitdruck getroffene Entscheidungen führen häufiger zu Fehlern – legitime Anfragen erlauben Bedenkzeit.
  3. Zweite Meinung einholen: Ein Gespräch mit einem engen Freund oder Familienmitglied bringt eine zweite Perspektive ins Spiel und kann auch dann nützlich sein, wenn kein Betrug im Spiel ist.
  4. Privatsphäre schützen: Je weniger persönliche Informationen öffentlich verfügbar sind, desto schwieriger wird zielgerichteter Betrug.
  5. Technologie nutzen: Technische Hilfen allein sind zwar nicht ausreichend. Sicherheitstools wie Passwort-Manager, Zwei-Faktor-Authentifizierung und Deepfake-Erkennungssoftware erhöhen den Aufwand für potentielle Angreifer aber enorm.

Gesellschaftliche Verantwortung

Betrugsbekämpfung ist nicht nur eine individuelle Aufgabe. Auch als Gesellschaft können wir gegensteuern:

  • Aufklärung fördern: Besonders vulnerable Gruppen wie Senioren benötigen zielgruppengerechte Informationsangebote.
  • Technologieunternehmen in die Pflicht nehmen: Entwickler von KI-Systemen tragen Mitverantwortung für Missbrauchsprävention.
  • Meldewege stärken: Niedrigschwellige Anlaufstellen erleichtern die Meldung von Betrugsversuchen.
  • Stigmatisierung bekämpfen: Betrugsopfer benötigen Unterstützung statt Vorwürfe.

Trotz aller Herausforderungen gibt es Grund für vorsichtigen Optimismus. Das wachsende Bewusstsein für digitale Sicherheit, kombiniert mit rechtlichen, technischen und bildungspolitischen Maßnahmen, bildet ein immer dichteres Sicherheitsnetz. Am Ende bleibt jedoch die wichtigste Erkenntnis: In der digitalen Welt wie im realen Leben gilt – Vertrauen ist gut, Kontrolle ist besser.

Weitere Nachrichten
Anzeige

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert