Rechtsanwalt Dr. Marc Maisch war zuletzt in der Sendung Sat1 FrühstücksFernsehen zu Gast, um über aktuelle Fälle von Cybercrime zu sprechen. Dr. Maisch ist angesehener Cybercrime-Experte und Speaker zu diesen Themen. Die Fragen stellte die Moderatorin und Journalistin Marlene Lufen.

Frage: Herr Maisch, mit welchen Fällen von Identitätsdiebstahl haben Sie in Ihrer Kanzlei aktuell besonders viel zu tun?

Antwort: Wir sehen eine Zunahme von Fällen, in denen Menschen aufgrund der Wohnungsnot vorschnell persönliche Informationen preisgeben. Dies reicht von Datenweitergabe bei der Wohnungssuche bis hin zum Missbrauch von AirBnB-Wohnungen für Datendiebstahl oder Identitätsdiebstahl. Mein Rat: Geben Sie nur geschwärzte Verdienstnachweise weiter, bei denen keine persönlichen Daten, außer den Beträgen, sichtbar sind. Seien Sie auch vorsichtig mit Bildern von Personalausweisen.

Frage: Wie wurde bei einem Fall mit Konzertkarten ein fremder Personalausweis missbraucht?

Antwort: In einem kürzlich bearbeiteten Fall wollte eine Person für eine Bank ihren Ausweis bestätigen. Die Webseite wurde jedoch gehackt, und die Bilder des Ausweises wurden verwendet, um in ihrem Namen Konzertkarten zu verkaufen. Die Opfer wandten sich dann mit rechtlichen Schritten an die betroffene Person.

Frage: Können Sie etwas über Fälle von sogenanntem Lovescamming berichten?

Antwort:Lovescamming ist eine besonders hinterhältige Form des Betrugs. Betrüger nutzen Datingplattformen, um Vertrauen aufzubauen, wechseln dann zu E-Mail oder WhatsApp und bringen ihre Opfer dazu, in Kryptowährungen zu investieren, oft über gefälschte Websites. Die Verluste sind enorm; in einem Fall ging es um eine Million Euro.

Frage: Wie kann man sich vor Identitätsdiebstahl schützen?

Antwort: Geben Sie niemals öffentlich Ihr Geburtsdatum an und vermeiden Sie es, Telefonnummern in sozialen Medien zu teilen. Seien Sie generell vorsichtig mit den Informationen, die Sie online stellen. Ich rate dazu, Profile immer auf privat zu stellen und keine Fremden als Freunde anzunehmen.

Frage: Inwiefern werden Fotos von Instagram-Accounts für Betrug verwendet?

Antwort: Betrüger können Fotos von Instagram-Accounts nutzen, um falsche Identitäten zu erstellen oder um glaubwürdige Geschichten für Betrugsversuche zu konstruieren. Besonders risikoreich ist es, wenn Fotos in Kombination mit anderen persönlichen Informationen verwendet werden.

Frage: Trotz sicherer Zahlungsmethoden bei Kleinanzeigen kommt es zu Betrug. Wie passiert das?

Antwort: Selbst bei sicheren Zahlungsmethoden können Betrüger Phishing-Nachrichten nutzen, um an E-Mail-Adressen und weitere Daten zu gelangen. Sie installieren fremde elektronische Kreditkarten auf Handys, um Geld abzubuchen. Ein Problem ist, dass Banken oft kein persönliches Erscheinen verlangen, im Schadensfall aber nicht immer erstatten. Seien Sie misstrauisch bei neuen Accounts ohne Bewertungen und bei Extrawünschen wie Zahlung per Sofortpay oder Kommunikation über WhatsApp.

Frage: Wie werden Deepfakes innerhalb von Firmen für Betrug eingesetzt?

Antwort: Ein besorgniserregender Trend sind Deepfakes, bei denen sich Betrüger als CEOs oder andere Führungskräfte ausgeben. In einem Fall wurde ein Betrüger nur entlarvt, weil jemand, der eigentlich in die Videokonferenz eingeladen war, unerwartet teilnahm und bemerkte, dass er nicht wie üblich geduzt wurde.

Ein Deepfake ist eine Art von synthetischem Medieninhalt, bei dem mithilfe künstlicher Intelligenz (KI) und maschinellem Lernen (ML) Gesichter oder Stimmen in Videos oder Audiodateien manipuliert oder ganz neu erstellt werden. Das Wort „Deepfake“ setzt sich aus „Deep Learning“, einem Zweig des maschinellen Lernens, und „Fake“, also Fälschung, zusammen.

Bei der Erstellung eines Deepfakes wird üblicherweise eine Technologie namens „Generative Adversarial Networks“ (GANs) verwendet. Hierbei arbeiten zwei KI-Systeme gegeneinander: das eine erstellt die Fälschungen (der Generator), während das andere (der Diskriminator) versucht, echte von gefälschten Inhalten zu unterscheiden. Durch diesen Wettbewerb verbessern sich beide Systeme kontinuierlich, wodurch die Fälschungen immer realistischer werden.

Deepfakes können beispielsweise dazu verwendet werden, eine bekannte Persönlichkeit Dinge sagen oder tun zu lassen, die nie tatsächlich stattgefunden haben. Dies wird erreicht, indem das Gesicht und die Mimik der Person in ein bestehendes Video eingefügt werden. Gleiches gilt für die Stimme: Eine KI kann trainiert werden, die Stimme einer Person zu imitieren und dann Wörter oder Sätze aussprechen zu lassen, die diese Person nie gesagt hat.

Während Deepfakes das Potenzial für positive Anwendungen haben, wie in der Filmproduktion oder virtuellen Realität, bergen sie auch erhebliche Risiken. Sie können für Desinformation, Manipulation, Erpressung oder Rufschädigung eingesetzt werden. Aufgrund dieser potenziellen Missbräuche ist die ethische und rechtliche Diskussion rund um Deepfakes ein wichtiges und aktuelles Thema.

Fazit:

Die Bedrohungen durch Cyberkriminalität, insbesondere durch Identitätsdiebstahl und den Einsatz von KI-erzeugten Deepfakes, sind real und wachsen stetig. Die Tipps und Einblicke von Herrn Dr. Maisch bieten wertvolle Anhaltspunkte, wie man sich in der digitalen Welt sicherer bewegen und sich gegen solche Betrugsversuche schützen kann. Es ist entscheidend, wachsam zu bleiben und sich über die neuesten Methoden der Cyberkriminellen zu informieren.

Das könnte Sie auch interessieren
Die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) hat kürzlich eine dringende Warnung bezüglich TGX AI veröffentlicht. Diese Plattform, die [...]
Mehr lesen
Seit dem 1. Juli 2024 verändert sich die beliebte Kryptowährung Fetch.ai (und viele wissen das gar nicht!!) : Die Artificial Superintelligence Allianc [...]
Mehr lesen
Was ist ein Mittelherkunftsnachweis? In der heutigen Finanzwelt, die von strengen Vorschriften und umfassenden Regulierungen geprägt ist, wird immer h [...]
Mehr lesen
Spenden sind ein vitaler Bestandteil unserer Gesellschaft, denn sie schließen Lücken im System. Dort, wo der Staat nicht ausreichend eingreifen kann o [...]
Mehr lesen