Telefonische Authentifizierung gegen Deep Fake Audio
Art der Arbeit: Masterarbeit
Fachlicher Hintergrund:
Im Bereich der Operational Technology (und auch im sonstigen Geschäftsleben) werden nach wie vor viele Anweisungen und Informationen telefonisch übermittelt. Die telefonische Übermittlung stellt einen vielversprechenden Angriffsvektor dar. Ein solcher Angriff kann enorme Schäden verursachen. Die Authentifizierung des Gegenübers wird lediglich über Absender-Rufnummer und Erkennung der Stimme realisiert. Beides kann mit überschaubarem Aufwand manipuliert werden. Hier konzentrieren wir uns auf das Nachahmen der Simme. Deep Fake Audio in unterschiedlicher Qualität ist heute für Angreifer einfach zu nutzen.
Aufgabenbeschreibung:
Wir wollen die Machbarkeit eines Deep Fake Audio Angriffs zeigen und anschließend Möglichkeiten zur Verhinderung entwickeln.
Es sollen folgende Fragestellungen beantwortet werden (sinnvolle Auswahl entsprechend der Bearbeitungszeit treffen):
- Wie hoch ist der Aufwand für einen Deep Fake Audio Angriff?
- Wie gut ist die Qualität von Deep Fake Audio Systemen aktuell?
- Welche Messverfahren für die Qualität gibt es?
- Wie hoch ist der Aufwand zur Erstellung eines funktionierenden Sprachmodells für eine beispielhafte Person?
- Wie groß ist der Einfluss von Duktus (hier: stilistische Elemente, wie Wortwahl und Satzbau) im Verhältnis zur Stimmlage?
- Wie kann ein Angriff bei Beginn und während des Telefongesprächs verhindert / erkannt werden?
Mögliche Arbeitsschritte:
- Einarbeitung Deep Fake Audio im Kontext "Telefonqualität".
- Evaluation zumindest eines Systems für Deep Fake Audio.
- Konzipierung und Entwicklung eines Systems, das In Band (über die Telefonleitung) zur Authentisierung und Authentifizierung dienen kann, beispielsweise als "Wasserzeichen" im Audiokanal.
- Prototyp und Test
- Auswertung der Ergebnisse
Die genaue Festlegung des Themas erfolgt in Abstimmung mit dem Betreuer unter Berücksichtigung eventuell schon an andere Studenten vergebener Themengebiete. Eine gemeinsame Bearbeitung verschiedener Teilthemen durch mehrere Studenten ist unter Umständen möglich.
Literatur und Ressourcen:
- Almutairi, Zaynab, and Hebah Elgibreen. "A Review of Modern Audio Deepfake Detection Methods: Challenges and Future Directions." Algorithms 15.5 (2022): 155.
- Zhang, Tao. "Deepfake generation and detection, a survey." Multimedia Tools and Applications 81.5 (2022): 6259-6276.
- Wang, Chenglong, et al. "Fully Automated End-to-End Fake Audio Detection." Proceedings of the 1st International Workshop on Deepfake Detection for Audio Multimedia. 2022.
Betreuer: Dr. Thomas Mundt (thomas.mundt@uni-rostock.de)
Voraussetzungen: Keine besonderen.