Künstliche Intelligenz

"Voice Cloning": Betrugsfälle mit KI-Stimmen nehmen zu

Mithilfe von Künstlicher Intelligenz werden Stimmen von Freunden oder Verwandten imitiert, um den Opfern Gelb abzuluchsen.

Newsdesk Heute
"Voice Cloning": Betrugsfälle mit KI-Stimmen nehmen zu
Der "Enkel-Trick" erhält durch die Technologie eine neue Gestalt.
Getty Images/iStockphoto

Man hebt ab und hört die verzweifelte Stimme des Enkels, der Lebensgefährtin oder des Onkels, der in einer finanziellen Zwickmühle steckt. Schnell soll Geld überwiesen werden, am besten sofort. Auch wenn die Stimme genau so klingt, stellt sich heraus, dass es gar nicht einer der Liebsten war, sondern ein Betrüger. 

Wie das europäische Verbraucherzentrum kürzlich bekanntgab, nehmen solle Fälle immer mehr zu. Die Betrüger nutzen für das sogenannte "Voice Cloning" Künstliche Intelligenz, die zuvor mit Audioaufnahmen einer Person gefüttert wurden und somit lernt, wie diese klingt. Die KI generiert den gewünschten Text in der passenden Stimme. Der altbekannte "Enkel-Trick" wird durch die Technologie wohl schwerer zu durchschauen sein.

Betrug wird einfacher

Wie Stefan Strauß vom Institut für Technikfolgen-Abschätzung an der Österreichischen Akademie der Wissenschaften gegenüber Ö1 erklärt, gibt es immer mehr und bessere Programme, um Stimmen-Imitate zu generieren. Zum Teil können Kriminelle die Texte selbst einsprechen, die dann in der gewünschten Stimme ausgegeben werden.

Voice Cloning: Hier zeigt Star-DJ David Guetta, dass auch er sich KI zunutze gemacht hat, um die Stimme des Rappers Eminem zu imitieren.

Außerdem finden sich immer mehr Audioaufnahmen online, wodurch es mehr Material gibt, womit die KI gefüttert werden kann. Besonders bei TikTok und anderen Social Media-Plattformen können Stimmen einfach gesammelt werden. Laut Strauß seien Menschen mit dem eigenen Fingerabdruck vorsichtiger als mit ihrer Stimmen, wobei beide biometrische Merkmale darstellen. "Mit künstlicher Intelligenz können sehr leicht biometrische Merkmale von Personen erfasst und zugleich auch imitiert, sprich geklont werden", so der Experte. Es brauche mehr Vorsicht, wo man Aufnahmen der eigenen Stimme veröffentlicht.

Schutz vor Stimmen-Fakes

Ganz gleich welche Stimme zu hören ist, ist es ratsam, eine solche Forderung zu hinterfragen. Aus welchem Grund fragt mich die Person und ist es logisch, dass sie aus heiterem Himmel nach so einer Summe bittet? Auch Fragen zu stellen, die zum Beispiel nur der Enkel beantworten kann, können die Betrüger entlarven.

Weiters solle man auf die Art und Weise achten, wie jemand kommuniziert. Bestimmte Sprachmuster und Auffälligkeiten wie ungewöhnliche Pausen können Klarheit geben. Generell sollte bei fremden Telefonnummern immer Vorsicht geboten sein.

1/52
Gehe zur Galerie
    <strong>17.11.2024: Heeres-Blamage: Unser Luftraum ist völlig ungeschützt.</strong> Österreich kann seinen eigenen Luftraum nicht mehr verteidigen. Die Eurofighter können nicht abheben, <a data-li-document-ref="120072835" href="https://www.heute.at/s/heeres-blamage-unser-luftraum-ist-voellig-ungeschuetzt-120072835">obwohl die Jets selbst einsatzbereit wären &gt;&gt;</a>
    17.11.2024: Heeres-Blamage: Unser Luftraum ist völlig ungeschützt. Österreich kann seinen eigenen Luftraum nicht mehr verteidigen. Die Eurofighter können nicht abheben, obwohl die Jets selbst einsatzbereit wären >>
    Bundesheer / OTS

    Auf den Punkt gebracht

    • "Voice Cloning": Mit Hilfe von KI werden Stimmen von Bekannten imitiert, um Personen zu täuschen
    • Da Kriminelle auf immer bessere und leichter zugängliche Programme zurückgreifen können, ist es einfacher geworden, solche Fälschungen anzufertigen
    • Es wird daher empfohlen, bei ungewöhnlichen skeptisch zu sein sowie auf Kommunikationsmuster und Details zu achten, um etwaige Betrüger zu entlarven
    • Außerdem soll man bedacht mit der Veröffentlichung der eigenen Stimme im Netz umgehen
    red
    Akt.