18. Februar 2026
Veröffentlicht am
Autor*in

Deepfake auf dem Glücksspielmarkt: Identitätsbetrug, Geldwäsche und manipulierte Werbung

Deepfakes beschäftigen europaweit auch die Glücksspielbranche und Regulierungsbehörden: KI-Fälschungen täuschen Identitäten, missbrauchen Promis und unterlaufen den Spielerschutz.

Die rasante Entwicklung künstlicher Intelligenz hat sogenannte Deepfakes hervorgebracht – täuschend echt wirkende, aber künstlich erzeugte Medieninhalte. Was zunächst als technische Spielerei erschien, entwickelt sich zu einem ernsthaften Problem für Gesellschaft und Wirtschaft.

Auch die Glücksspielindustrie sich hier vor neuen Herausforderungen gestellt. Insbesondere Identitätsbetrug, manipulierte Werbung mit prominenten Gesichtern sowie die Umgehung von Sicherheits- und Geldwäschekontrollen zählen zu den größten Gefahren. Branchenbeobachter und Behörden schlagen Alarm und betonen, dass jetzt wirksame Gegenmaßnahmen erforderlich sind, um KI-generierte Identitäten zu enttarnen und Missbrauch zu verhindern.

Identitätsbetrug und Geldwäsche durch KI-Generierte Identitäten

Ein zentrales Risiko liegt im Identitätsbetrug mittels Deepfake-Technologie. Kriminelle nutzen KI, um Personalausweise, Selfies und sogar Video-Identifikationen so echt wie möglich zu fälschen. Nach Angaben des Branchenportals Pokerfirma sind im Internet bereits für wenige Euro täuschend echte Ausweisfälschungen erhältlich, die auf den ersten Blick kaum von realen Dokumenten zu unterscheiden sind. Solche gefälschten Identitäten unterlaufen die gängigen KYC-Verfahren („Know Your Customer“), mit denen Glücksspielanbieter eigentlich die Identität ihrer Kunden überprüfen müssen. In Deutschland, Österreich und der Schweiz sind Anbieter gesetzlich verpflichtet, durch Ausweiskopien oder Online-Ident-Verfahren das Alter und die Identität der Spieler zu verifizieren – ein Kernelement der Spielerschutz- und Geldwäschepräventionsgesetze. Deepfakes erschweren die Erfüllung dieser Pflicht erheblich.

Die Folgen sind weitreichend: Organisierte Kriminalität kann mit falschen Identitäten in Online-Casinos und Wettplattformen Geldwäsche betreiben, indem illegal erlangtes Geld eingezahlt, durch Glücksspiel “gewendet” und als scheinbar legaler Gewinn wieder ausgezahlt wird. Behörden sehen mit Sorge, dass Deepfake-Tools diese Prozesse noch begünstigen. Europol warnte bereits 2022, dass Deepfake-Technologie gezielt eingesetzt werden kann, um Online-Identitäten zu fälschen und KYC-Kontrollen auszuhebeln, was Straftaten wie Finanzbetrug und Geldwäsche erleichtert. Die Skalierbarkeit ist dabei besonders alarmierend: Automatisierte Systeme erlauben es Betrügern, gleichzeitig bei zahlreichen Anbietern Konten unter Fake-Identitäten zu eröffnen. Für die Glücksspielanbieter bedeutet jeder erfolgreich erschlichene Account ein potentielles Risiko, sowohl finanziell (durch Betrug oder Strafzahlungen bei Verstößen gegen Vorschriften) als auch regulatorisch.

Das Branchenmagazin Pokerfirma betont, dass Anbieter dringend sicherstellen müssen, dass Deepfakes gar nicht erst die Kontoeröffnung schaffen – sonst ließe sich das Problem nicht in den Griff bekommen. Hierfür reichen herkömmliche Prüfungen (Kopie eines Ausweises plus Adressnachweis) vermutlich nicht mehr aus. Einige Fachleute halten es daher für denkbar, zurück zu klassischen Identitätsprüfungen zu gehen: So wurde etwa diskutiert, neue Online-Spieler in sensiblen Bereichen künftig persönlich ihre Identität bestätigen zu lassen – z.B. über das Post-Ident-Verfahren in einer Filiale oder Bank. Solche aufwendigeren Verfahren könnten helfen, Betrug durch KI-Fälschungen zu unterbinden, da eine bloß digitale Täuschung dann deutlich schwieriger wäre.

Die Dimension des Problems wird auch durch aktuelle Daten illustriert. Eine im Februar 2025 veröffentlichte Studie des Identitätsdienstleisters Signicat ergab, dass Deepfake-basierte Betrugsversuche in den letzten drei Jahren um über 2.000 % zugenommen haben. Finanzinstitute berichten demnach, dass tiefgreifende digitale Täuschungen mittlerweile zu den häufigsten Methoden des Identitätsbetrugs zählen. Auch wenn diese Zahlen primär aus der Finanzbranche stammen, lässt sich ein vergleichbarer Trend in der Glücksspielbranche vermuten – beide Bereiche sind attraktive Ziele für Betrüger, die mit falscher Identität schnellen Profit suchen.

In der DACH-Region verzeichnen Strafverfolger bereits jetzt deutliche Anstiege: So registrierten die Schweizer Behörden allein 2023 über 1.400 Fälle von Online-Anlagebetrug mit solchen Methoden, die einen Schaden von insgesamt über 100 Millionen Schweizer Franken verursachten. Die Dunkelziffer dürfte noch höher liegen. Diese alarmierende Entwicklung zeigt, dass ohne neue Schutzmechanismen ein wachsender Teil krimineller Energie unentdeckt durch digitale Maskerade umgesetzt werden könnte.

Manipulierte Werbung - falsche Testimonials: Gefälschte Gesichter in der Öffentlichkeit

Neben dem direkten Identitätsdiebstahl bereitet auch ein anderes Phänomen der Glücksspielbranche Kopfzerbrechen: Manipulierte Werbung mit scheinbar echten Personen. Scammer erzeugen mittels Deepfake-Software Videos oder Bilder, in denen prominente Moderatoren, Sportler oder andere bekannte Gesichter scheinbar für Glücksspiele oder dubiose Investmentangebote werben – ohne dass die Betroffenen jemals involviert waren. Diese falschen Testimonials verleihen Betrugsangeboten auf den ersten Blick Glaubwürdigkeit und können Verbraucher täuschen.

So berichtete der Nachrichtensender Sky News über einen Fall, in dem ein vollständig KI-generiertes Video im Umlauf war: Bekannte Sky-Moderatoren erklärten darin angeblich die Vorzüge einer bestimmten Glücksspiel-App – doch wie der Sender klarstellte, hat es dieses Video in Wirklichkeit nie gegeben. Das Material wurde aus früheren Aufnahmen der Moderatoren künstlich zusammengeschnitten. Für viele Zuschauer war es kaum erkennbar, dass es sich um eine Fälschung handelte, da Bild und Stimme der bekannten Personen täuschend echt nachgeahmt wurden.

Auch im deutschsprachigen Raum mehren sich solche Fälle. Die Schweizer Rundfunkanstalt SRF warnte im Juni 2024, dass seit Monaten Fotos und Videos ihrer beliebten TV-Moderatoren ohne deren Einwilligung für betrügerische Online-Werbung missbraucht werden. Beispielsweise kursierte ein Deepfake-Video, das einen bekannten Tagesschau-Sprecher im SRF-Nachrichtenstudio zeigt, wie er für eine Casino-App wirbt. Tatsächlich dürfen SRF-Moderatoren aus Neutralitätsgründen gar keine Werbung machen – was das Video als Lüge entlarvte. Dennoch wurde die Fälschung zunächst tausendfach auf sozialen Medien verbreitet. Erst die öffentliche Richtigstellung durch SRF und die Entfernung der Inhalte schoben dem Spuk einen Riegel vor. In diesem Fall stellte sich die beworbene App übrigens als betrügerisch heraus und wurde aus den App-Stores entfernt.

Der Schaden liegt hier vor allem bei den Verbrauchern, die auf das unwahre Versprechen hereinfallen: Sie werden etwa mit unrealistischen Gewinnversprechen gelockt, geben persönliche Daten preis und verlieren am Ende Geld an unseriöse Betreiber. Gleichzeitig leidet die Reputation der betroffenen Medienschaffenden und Marken. Für die Opfer ist es oft schwer nachzuvollziehen, dass das vertraute Gesicht in Wahrheit nicht echt war.

Diese Form der Täuschung nutzt gezielt das Vertrauen aus, das etablierte Persönlichkeiten oder Institutionen genießen. Wenn plötzlich ein bekannter Nachrichtensprecher, Sportidol oder gar ein Regierungsmitglied (auch ein Video mit dem Bild des österreichischen Finanzministers wurde bereits für einen Phishing-Betrug eingesetzt) in einem Video etwas Unglaubliches empfiehlt, sind viele Menschen geneigt, unkritisch zu glauben, was sie sehen. Deepfakes senken dabei die Hürde für Betrüger enorm: Mit handelsüblicher Computertechnik und frei verfügbarer Software lassen sich fotorealistische Fake-Videos erstellen, ohne dass besonderes Spezialwissen nötig wäre.

Die Qualität dieser Fälschungen hat ein Niveau erreicht, dass Laien die Manipulation kaum noch erkennen können. Kleinere Unstimmigkeiten – unnatürliche Mimik, abweichende Stimme, leicht stockende Bewegungen – können zwar noch Hinweise liefern, aber die Technologie verbessert sich stetig. Experten erwarten, dass in naher Zukunft äußerlich praktisch nicht mehr zu unterscheiden sein wird, ob es sich um echte Aufnahmen oder um KI-Fakes handelt. Die Öffentlichkeit steht damit vor einem Informationsproblem: Nicht jedes Video mit einem bekannten Gesicht ist glaubwürdig, nur weil es echt aussieht.

Regulatorische Reaktionen und Gegenmaßnahmen in Europa

Die wachsende Deepfake-Problematik hat mittlerweile Regulierungsbehörden und Gesetzgeber auf den Plan gerufen. Auf EU-Ebene wurde 2024 der Artificial Intelligence Act (AI Act) verabschiedet – der erste europäische Rechtsrahmen für KI. Dieser sieht unter anderem vor, dass KI-generierte Inhalte klar als solche gekennzeichnet werden müssen, sofern sie geeignet sind, eine Person über deren Echtheit zu täuschen. Diese Transparenzpflicht, die ab 2025 verbindlich werden soll, zielt darauf ab, die Verbreitung von unerkannter Desinformation und Betrug einzudämmen. Fachleute begrüßen diese Regelung, betonen jedoch, dass allein ein Pflicht-Hinweis auf “KI-Inhalt” in der Praxis wenig nützt, wenn kriminelle Akteure sich schlicht nicht daran halten.

Realistisch gesehen wird die Verordnung schädliche Deepfakes nicht vollständig stoppen, wie der auf KI-Recht spezialisierte Jurist Mateusz Łabuz einschätzt. Dennoch setzt der AI Act ein wichtiges Signal und schafft erstmals EU-weit einheitliche Definitionen und Grundlagen, um gegen Missbrauch von KI, etwa für betrügerische Zwecke, vorzugehen. Ergänzend arbeiten Strafverfolgungsbehörden und Aufsichtsstellen daran, ihre Vorgehensweisen anzupassen. So empfahl Europol in einem Innovationsbericht, sowohl technische als auch rechtliche Mittel zu stärken: Behörden, Online-Dienste und betroffene Unternehmen müssten in Detektionstechnologien investieren und interne Richtlinien entwickeln, um verdächtige KI-Fälle zu erkennen und konsequent zu melden. Zudem wird appelliert, bestehende Gesetze gegen Betrug, Fälschung und Geldwäsche zügig an die neuen Methoden anzupassen. Beispielsweise könnten höhere Strafen für die Verwendung von Deepfake-Identitäten oder spezielle Straftatbestände für das Erstellen solcher Fake-Inhalte erwogen werden, um eine abschreckende Wirkung zu erzielen.

In der Glücksspielbranche selbst reagiert man ebenfalls auf die Bedrohung. Viele seriöse Anbieter evaluieren derzeit neue Identitätsprüfungs-Technologien, etwa biometrische Verfahren mit Lebenderkennung, die es erschweren sollen, ein statisches Fake-Bild zu verwenden. Auch der verstärkte Rückgriff auf zentrale Verifikationsdienste (z.B. Bank-Ident oder behördliche eID-Lösungen) wird diskutiert, da diese schwerer zu täuschen sind als isolierte Checks durch den Anbieter allein.

Branchenverbände betonen zudem die Notwendigkeit, Mitarbeiter gezielt zu schulen: Der menschliche Faktor spielt eine Rolle, denn geschulte Augen können, zumindest aktuell, manche Deepfakes noch anhand subtiler Fehler entlarven. Allerdings herrscht Einigkeit, dass dies ein Wettrüsten gegen die Technologie ist. Langfristig kann kein Mitarbeiter und auch kein einfaches Filtersystem alle Fakes erkennen, wenn KI-Generierung immer perfekter wird. Deshalb mehren sich Stimmen, die auf einen ganzheitlichen Ansatz drängen: Technik, Personal und rechtliche Vorgaben müssen zusammenspielen, um ein hohes Schutzniveau zu halten.

Schließlich wird klar, dass die digitale Plattformökonomie einbezogen werden muss. Viele betrügerische Deepfake-Inhalte verbreiten sich über soziale Netzwerke, Videoportale und Messenger. Diese Plattformen stehen in der Verantwortung, offensichtlich manipulative Inhalte schneller zu identifizieren und zu löschen, bevor sie große Schäden anrichten.

Einige Anbieter wie Facebook/Meta und Google haben Richtlinien gegen manipulierte Medien erlassen, doch die Umsetzung stößt angesichts der Masse an Uploads an Grenzen. Hier ist auch eine Zusammenarbeit mit den Behörden wichtig, etwa wenn es darum geht, Fake-Profile und werbende Bot-Netzwerke hinter solchen Aktionen aufzuspüren und abzuschalten. Die jüngsten Fälle zeigen zudem, dass App-Stores achtsam sein müssen – im Schweizer Beispiel konnte eine betrügerische Casino-App unerkannt angeboten werden, bis der Schwindel aufflog. Künftig könnten strengere Prüfprozesse für neue Apps und Werbeanzeigen erforderlich sein, um sicherzustellen, dass keine Deepfakes darin enthalten sind.

Fazit

Deepfake-Betrug stellt die Glücksspielindustrie vor neuartige, komplexe Risiken, die nur durch gemeinsame Anstrengungen und innovative Lösungen bewältigt werden können. Die vergangenen Jahre haben gezeigt, wie schnell sich diese Betrugsmasche mit “gefälschten Gesichtern” von einer Randnotiz zu einer realen Gefahr entwickelt hat, sei es für die Integrität von Online-Casino-Angeboten oder für das Vertrauen der Öffentlichkeit in bekannte Persönlichkeiten. Technologisch steht uns eine weitere Qualitätssteigerung dieser Fälschungen bevor, was die Dringlichkeit unterstreicht, jetzt zu handeln. Auf Seiten der Anbieter sind Investitionen in sichere Identitätsprüfungen und laufende Kontrollen unabdingbar, um Fake-Accounts konsequent auszusieben.

Die Aufsichtsbehörden und Gesetzgeber wiederum müssen die rechtlichen Rahmenbedingungen fortlaufend prüfen und anpassen – von der Ausweispflicht bis zur Werberegulierung –, um Schlupflöcher für Deepfake-Betrüger zu schließen. Nicht zuletzt sind auch die großen Online-Plattformen gefordert, bei der Erkennung und Sperrung manipulativer Inhalte eng mit den Behörden und Unternehmen zusammenzuarbeiten. Nur ein konzertiertes, rechtlich abgestütztes Vorgehen aller Beteiligten wird verhindern können, dass KI-“Masken” weiterhin ein ernstzunehmendes Risiko für Verbraucher und Anbieter darstellen.

Tags

Auf Social Media teilen

Autor*in

Das könnte Sie auch interessieren

Lotto Baden-Württemberg zieht Bilanz 2025
Lotto Baden-Württemberg zieht Bilanz 2025
Lotto Baden-Württemberg zieht Bilanz für 2025 und berichtet über Spieleinsätze, ausgezahlte Gewinne sowie Zweckabgaben für das Gemeinwohl. Drei Millionengewinne warten darauf abgeholt zu werden.
Artikel lesen
BW-Kabinett gibt grünes Licht für GlüStV-Update
BW-Kabinett gibt grünes Licht für GlüStV‑Update
Baden-Württemberg will den Vollzug gegen illegale Glücksspielangebote schärfen: Der Ministerrat stimmte dem Änderungsstaatsvertrag zum GlüStV 2021 zu, mit IP-Blocking und erweiterten Abfragen.
Artikel lesen
Bonusbetrug mit gestohlenen Identitäten
Mit gestohlenen Identitäten sollen zwei Beschuldigte Bonuswetten und Credits bei FanDuel und anderen Plattformen missbraucht haben. Die US-Justiz spricht von rund 3 Mio. US-Dollar Schaden.
Artikel lesen