Betrug mit "Voice Cloning"
Schnipsel reicht aus, um Stimme zu klonen

Beim "Voice Cloning" werden die Stimmen von Personen mittels KI nachgemacht und eingesetzt, um betrügerische Anrufe bei Familienmitgliedern zu machen. (Symbolbild) | Foto: Pixabay / Symbolbild
3Bilder
  • Beim "Voice Cloning" werden die Stimmen von Personen mittels KI nachgemacht und eingesetzt, um betrügerische Anrufe bei Familienmitgliedern zu machen. (Symbolbild)
  • Foto: Pixabay / Symbolbild
  • hochgeladen von Agnes Dorn

Der klassische Enkeltrick-Telefonbetrug wird dank Künstlicher Intelligenz (KI) und sozialen Medien um eine Facette reicher: Beim "Voice Cloning" werden über Instagram, TikTok, YouTube und Co. Stimmproben gewonnen, aus denen die KI die Stimme echter Personen nachempfinden kann. Die geklonten Sprecher am Telefon sind dann kaum mehr von der echten Stimme zu unterscheiden. So kannst du den Betrug dennoch erkennen.

ÖSTERREICH. Das Europäische Verbraucherzentrum wies unlängst auf steigende Fälle von Betrug mittels Voice Cloning hin. Dabei wird vor allem die Stimme einer Person für Anrufe mit betrügerischer Absicht bei ihren Verwandten verwendet.

Stimme so einzigartig wie Fingerabdruck

Das Telefon und der Enkel oder das Kind ist dran und befindet sich in einer misslichen Lage. Mit ein wenig Geld soll das Problem aber lösbar sein. Das ist eine der vielen Maschen von Betrügern, die hoffen so an Geld zu kommen. In Deutschland ist es oftmals das Kind, das kurz von der Notlage erzählt und den Hörer dann an einen angeblichen Polizisten weitergibt, der erklärt, wie der Umstand mit Geld bereinigt werden kann. Oftmals wenden sich die Betrüger damit an ältere oder naive Menschen. Das ist an sich nichts Neues, allerdings starten die Anrufe neuerdings immer öfter mit einer Originalstimme, erklärt Stefan Strauß vom Institut für Technikfolgen-Abschätzung an der Österreichischen Akademie der Wissenschaften (ÖAW). "Voice Cloning bezeichnet den Einsatz von künstlicher Intelligenz, um aus einem Schnipsel einer echten Stimme ein täuschend echt klingendes Imitat zu erzeugen", so Strauß' Definition.

Programme können aus einem einfachen Schnipsel, der heutzutage leicht über die Sozialen Medien zu finden ist, maschinell Lernen und die echte Stimme in jeden beliebigen Text verwandeln. Programme mit denen sich solche Fälschungen machen lassen, werden immer mehr. Ebenso die Audioaufnahmen die online zu finden sind.

Die biometrische Einzigartigkeit wird bei der Stimme gern vergessen, dabei ist keine wie eine andere. "Mit künstlicher Intelligenz können sehr leicht biometrische Merkmale von Personen erfassen und zugleich auch imitiert, sprich geklont werden", weiß Strauß. Daher sollten Menschen bewusster mit der Veröffentlichung von Aufnahmen mit ihrer Stimme umgehen.

Oftmals wollen die Betrüger an Geld kommen und geben vor ein Familienmitglied sei in einer Notlage, die nur finanziell lösbar ist. | Foto: skn
  • Oftmals wollen die Betrüger an Geld kommen und geben vor ein Familienmitglied sei in einer Notlage, die nur finanziell lösbar ist.
  • Foto: skn
  • hochgeladen von BezirksBlätter Tirol

Gesunde Skepsis bei Geldforderungen

Wenn bei einem Anruf um Geld oder private Daten gebeten wird, solle man immer ein wenig skeptisch sein. Unterdrückte Nummern und skurrile Forderungen sollten immer gründlich üb erdacht werden. Am besten spricht man sich mit anderen Familienmitgliedern ab, ob sie etwas über die angebliche Notlage wissen. Auffällig ist etwa, wenn von einer Tochter die Rede ist, man aber keine hat oder von einem Autounfall, obwohl die betroffene Person keinen Führerschein hat. 

Dem Betrug auf die Schliche kommen, kann man, indem man Fragen stellt, die nur das betroffene Familienmitglied selbst beantworten kann. Ein gemeinsam vorab beschlossenes Familiencodewort kann einen versuchten Betrug ebenfalls entlarven. Wer sich einen Spaß daraus machen will, kann die Betrüger auch ein wenig ärgern und anfangen ausschweifende Geschichten von Tante Gerda – die es eigentlich gar nicht gibt – erzählen und fragen, ob sich die Person am anderen Ende der Leitung noch daran erinnern kann. Stimmt sie zu, ist klar, dass es sich um ein Fake handelt. 

Voice Cloning sollte aber nicht gleich verteufelt werden. Etwa wenn Menschen durch eine Krankheit oder aus anderen Gründen nicht mehr in der Lage sind zu sprechen und auf das Schreiben angewiesen sind, können sie sich mittels KI mit ihrer eigenen Stimme ausdrücken, hebt Strauß hervor.

Das könnte dich auch interessieren:

Wie du kinderleicht Fake News im Internet erkennst
Tursky stellt Novelle gegen Rufnummern-Missbrauch vor
Das sollten Eltern und Kinder in den sozialen Medien beachten

Kommentare

?

Du möchtest kommentieren?

Du möchtest zur Diskussion beitragen? Melde Dich an, um Kommentare zu verfassen.

UP TO DATE BLEIBEN


Aktuelle Nachrichten aus Österreich auf MeinBezirk.at

Neuigkeiten aus deinem Bezirk als Push-Nachricht direkt aufs Handy

MeinBezirk auf Facebook: MeinBezirk.at/Österrreichweite Nachrichten

MeinBezirk auf Instagram: @meinbezirk.at


Du möchtest selbst beitragen?

Melde dich jetzt kostenlos an, um selbst mit eigenen Inhalten beizutragen.