Betrug mit "Voice Cloning"
Schnipsel reicht aus, um Stimme zu klonen
Der klassische Enkeltrick-Telefonbetrug wird dank Künstlicher Intelligenz (KI) und sozialen Medien um eine Facette reicher: Beim "Voice Cloning" werden über Instagram, TikTok, YouTube und Co. Stimmproben gewonnen, aus denen die KI die Stimme echter Personen nachempfinden kann. Die geklonten Sprecher am Telefon sind dann kaum mehr von der echten Stimme zu unterscheiden. So kannst du den Betrug dennoch erkennen.
ÖSTERREICH. Das Europäische Verbraucherzentrum wies unlängst auf steigende Fälle von Betrug mittels Voice Cloning hin. Dabei wird vor allem die Stimme einer Person für Anrufe mit betrügerischer Absicht bei ihren Verwandten verwendet.
Stimme so einzigartig wie Fingerabdruck
Das Telefon und der Enkel oder das Kind ist dran und befindet sich in einer misslichen Lage. Mit ein wenig Geld soll das Problem aber lösbar sein. Das ist eine der vielen Maschen von Betrügern, die hoffen so an Geld zu kommen. In Deutschland ist es oftmals das Kind, das kurz von der Notlage erzählt und den Hörer dann an einen angeblichen Polizisten weitergibt, der erklärt, wie der Umstand mit Geld bereinigt werden kann. Oftmals wenden sich die Betrüger damit an ältere oder naive Menschen. Das ist an sich nichts Neues, allerdings starten die Anrufe neuerdings immer öfter mit einer Originalstimme, erklärt Stefan Strauß vom Institut für Technikfolgen-Abschätzung an der Österreichischen Akademie der Wissenschaften (ÖAW). "Voice Cloning bezeichnet den Einsatz von künstlicher Intelligenz, um aus einem Schnipsel einer echten Stimme ein täuschend echt klingendes Imitat zu erzeugen", so Strauß' Definition.
Programme können aus einem einfachen Schnipsel, der heutzutage leicht über die Sozialen Medien zu finden ist, maschinell Lernen und die echte Stimme in jeden beliebigen Text verwandeln. Programme mit denen sich solche Fälschungen machen lassen, werden immer mehr. Ebenso die Audioaufnahmen die online zu finden sind.
Die biometrische Einzigartigkeit wird bei der Stimme gern vergessen, dabei ist keine wie eine andere. "Mit künstlicher Intelligenz können sehr leicht biometrische Merkmale von Personen erfassen und zugleich auch imitiert, sprich geklont werden", weiß Strauß. Daher sollten Menschen bewusster mit der Veröffentlichung von Aufnahmen mit ihrer Stimme umgehen.
Gesunde Skepsis bei Geldforderungen
Wenn bei einem Anruf um Geld oder private Daten gebeten wird, solle man immer ein wenig skeptisch sein. Unterdrückte Nummern und skurrile Forderungen sollten immer gründlich üb erdacht werden. Am besten spricht man sich mit anderen Familienmitgliedern ab, ob sie etwas über die angebliche Notlage wissen. Auffällig ist etwa, wenn von einer Tochter die Rede ist, man aber keine hat oder von einem Autounfall, obwohl die betroffene Person keinen Führerschein hat.
Dem Betrug auf die Schliche kommen, kann man, indem man Fragen stellt, die nur das betroffene Familienmitglied selbst beantworten kann. Ein gemeinsam vorab beschlossenes Familiencodewort kann einen versuchten Betrug ebenfalls entlarven. Wer sich einen Spaß daraus machen will, kann die Betrüger auch ein wenig ärgern und anfangen ausschweifende Geschichten von Tante Gerda – die es eigentlich gar nicht gibt – erzählen und fragen, ob sich die Person am anderen Ende der Leitung noch daran erinnern kann. Stimmt sie zu, ist klar, dass es sich um ein Fake handelt.
Voice Cloning sollte aber nicht gleich verteufelt werden. Etwa wenn Menschen durch eine Krankheit oder aus anderen Gründen nicht mehr in der Lage sind zu sprechen und auf das Schreiben angewiesen sind, können sie sich mittels KI mit ihrer eigenen Stimme ausdrücken, hebt Strauß hervor.
Das könnte dich auch interessieren:
Kommentare
Du möchtest kommentieren?
Du möchtest zur Diskussion beitragen? Melde Dich an, um Kommentare zu verfassen.