Limburger Zeitung

Deutsche und europäische Nachrichten, Analysen, Meinungen und aktuelle Nachrichten des deutschen internationalen Senders.

KI-simulierende Stimme täuscht Alexa und andere Spracherkennungsgeräte

Bildnachweis: Pixabay.

Deepfakes (Teil von „tief lernen „und“gefälscht“ sind synthetische Medien, bei denen Fotos, Videos oder Sprache einer realen Person in ein Bild einer anderen Person (oft einer Berühmtheit) umgewandelt werden. Sie sind vielleicht schon einmal im Internet auf einige gestoßen, wie zum Beispiel den Tom Cruise Deepfake auf Tik Tok oder Joe Rogan Sprachwiedergabe.

Während die Vielfalt der Fotos und Videos überzeugender ist, hatte man den Eindruck, dass die stimmtiefen Fälschungen verzögert wurden – zumindest nicht ohne ausgiebiges Stimmtraining. Aber eine neue Studie ist ein Weckruf und zeigt, dass die leicht zu findenden Audiotranskriptionsalgorithmen tatsächlich ziemlich gut sind. Tatsächlich haben Forscher herausgefunden, dass diese Algorithmen mit minimalem Training Spracherkennungsgeräte wie Amazons Alexa austricksen können.

Forscher des Security, Algorithms, Networks, and Data (SAND) Laboratory der University of Chicago testeten zwei der beliebtesten Voice-Spoofing-Algorithmen: SV2TTS Und AutoVC Beide sind Open Source und auf Github frei verfügbar.

Die beiden Programme sind als „Echtzeit-Audio-Wiedergabe-Tools“ bekannt. SV2TTS-Entwickler rühmen sich, dass nur fünf Sekunden Trainingsaufzeichnungen ausreichen, um akzeptable Imitationen zu erzeugen.

Die Forscher stellten beide Systeme auf die Probe, indem sie ihnen dieselben fünfminütigen Audioaufnahmen von verschiedenen Gesprächspartnern zuführten. Sie nahmen auch ihre eigenen Proben von 14 Freiwilligen auf, die um Erlaubnis gebeten wurden, zu sehen, ob computergenerierte Stimmen Spracherkennungsgeräte wie Microsoft Azure, WeChat und Amazon Alexa entsperren könnten.

SV2TTS konnte Microsoft Azure in etwa 30 Prozent der Fälle täuschen, aber es holte in etwa zwei Dritteln oder 63 Prozent der Zeit das Beste von WeChat und Amazon Alexa. Ein Hacker kann sich damit bei WeChat mit einer synthetischen Sprachnachricht anmelden, die einen echten Benutzer simuliert, oder auf die Alexa einer anderen Person zugreifen, um Zahlungen für Apps von Drittanbietern zu tätigen.

Siehe auch  Wie kann es den architektonischen Raum beeinflussen?

AutoVC schnitt so schlecht ab, dass es Microsoft Azure nur in 15 Prozent der Fälle täuschen konnte. Da es nicht den Erwartungen entsprach, machten sich die Forscher nicht die Mühe, es gegen die Sicherheit von WeChat und Alexa-Spracherkennung zu testen.

In einem anderen Experiment rekrutierten die Forscher 200 Freiwillige, die gebeten wurden, sich zwei Aufnahmen anzuhören und zu entscheiden, welche als gefälscht galten. Die Freiwilligen wurden etwa die Hälfte der Fälle betrogen, was ihre Urteile nicht besser machte, als eine Münze zu werfen.

Die überzeugendsten Stimmen waren diejenigen, die die Stimmen von Frauen nachahmten, und die von Nicht-Englisch-Muttersprachlern. Damit beschäftigen sich Forscher derzeit.

Die Forscher schrieben in einem Bericht veröffentlicht am Open-Access-Server arXiv.

Solche Tools ermöglichen in den falschen Händen eine Reihe mächtiger Angriffe sowohl gegen Menschen als auch gegen Softwaresysteme [aka machines]“.

Im Jahr 2019 ein Betrüger Diebstahl künstlicher Intelligenz, mit gefälschten Sprachalgorithmen, um sich als Führungskraft eines deutschen Energieunternehmens auszugeben und die Mitarbeiter davon zu überzeugen, ihn in 240.000 Dollar zu verwandeln. entsprechend Washington Post, fand die Person, die die Überweisung durchführte, eine solche Anfrage von seinem Chef seltsam, aber der deutsche Akzent und die vertraute Stimme am Telefon überzeugten. Symantec Cybersicherheitsunternehmen sagen Ich habe ähnliche Fälle von Deep-Voice-Betrug identifiziert, die zu Verlusten in Millionenhöhe geführt haben.