Medien

Mit KI gegen Audio Deepfakes

10. Apr 2024 , aktualisiert: 10. Apr 2024

Künstliche Intelligenz hat nicht nur Freunde, denn mitunter wird sie missbraucht. Doch sie bietet auch große Chancen. Beispielsweise beim Aufdecken von Audio Deepfakes.

Bild: Pexels
Mit KI gegen Audio Deepfakes

Die spanische Mediengruppe PRISA Media hat ein neues KI-Tool zur Erkennung von Deepfakes entwickelt. Es heißt VerificAudio und soll Journalisten die bei der Erkennung von Audio-Deepfakes zu unterstützen. Das Tool wurde ins Leben gerufen, um die Vertrauenswürdigkeit von Audio-Inhalten in einer Zeit zu stärken, in der synthetische Stimmen und Voice-Cloning immer häufiger werden. Darüber berichtet Reuters.

Olalla Novoa, Journalistin und Produktmanagerin bei PRISA Media, erklärt, dass sie und ihr Team VerificAudio als Reaktion auf die Herausforderungen entwickelt haben, die durch die Verbreitung von gefälschten Audios entstehen. Diese gefälschten Audios können durch Technologien wie synthetische Stimmen leicht erstellt und in sozialen Medien und Messaging-Apps verbreitet werden.

Deepfake-Erkennung verbessern und verbreiten

Das Projekt, finanziert durch die Google News Initiative, kombiniert maschinelles Lernen und neuronale Netzwerke, um verdächtige Audiodateien zu überprüfen. VerificAudio bietet Journalisten zwei Hauptüberprüfungsoptionen: den Vergleichsmodus, um zu bestimmen, ob Audiodateien von der gleichen Person oder von verschiedenen Personen stammen, und den Identifikationsmodus, um zu bestimmen, ob eine Audiodatei wahrscheinlich echt oder synthetisch ist.

Das Tool ist bereits in den Verifizierungsteams der PRISA Media-Radiosender in Spanien, Kolumbien, Mexiko und Chile im Einsatz und steht für interne Verwendung zur Verfügung. Zukünftig plant das Unternehmen, die Anwendung weiter zu verbessern und auch anderen Medienunternehmen zur Verfügung zu stellen.


Folge unserem News-Podcast NAPS: auf podcast.de | per RSS | auf Spotify | auf Apple Podcasts
Folge unseren News: per RSS | auf Google News | auf Newsadoo