Ein Deepfake ist ein synthetischer Inhalt (Video, Audio, Bild), der durch künstliche Intelligenz erzeugt wird und das Aussehen oder die Stimme einer realen Person imitiert. Der Begriff kombiniert "Deep Learning" und "Fake". Seit Februar 2025 schreibt der europäische AI Act eine Kennzeichnungspflicht für diese generierten Inhalte vor, mit Ausnahmen für klar gekennzeichnete künstlerische oder satirische Werke.
Wie funktionieren Deepfakes?
Deepfakes verwenden tiefe neuronale Netze, insbesondere:
- GANs (Generative Adversarial Networks): Zwei Netzwerke konkurrieren miteinander, um realistische Bilder zu erzeugen
- Autoencoder: Lernen, Gesichter zu rekonstruieren, und können Merkmale austauschen
- Diffusion Models: Erzeugen Bilder schrittweise aus Rauschen
- Voice Cloning: Synthetisieren eine Stimme aus Audiobeispielen
Arten von Deepfakes
| Typ | Beschreibung | Technologien |
|---|---|---|
| Face Swap | Austausch des Gesichts einer Person durch ein anderes | DeepFaceLab, FaceSwap |
| Lip Sync | Lippensynchronisation mit neuem Audio | Wav2Lip, SyncNet |
| Voice Clone | Nachahmung der Stimme einer Person | ElevenLabs, Resemble.ai |
| Full Body | Erzeugung vollständiger Videos von Personen | Synthesia, HeyGen |
| Bildgenerierung | Erstellung realistischer Fotos fiktiver Personen | Midjourney, DALL-E, Stable Diffusion |
Regulierung von Deepfakes (AI Act)
Der AI Act stuft Deepfakes in die Kategorie „begrenztes Risiko" ein, mit Transparenzpflichten:
Kennzeichnungspflichten
- KI-generierte Inhalte, die reale Personen imitieren, müssen klar gekennzeichnet werden
- Der Nutzer muss wissen, dass er einen synthetischen Inhalt betrachtet
- Die Kennzeichnung muss sichtbar und verständlich sein
Ausnahmen
- Künstlerische Werke, die klar als Fiktion gekennzeichnet sind
- Offensichtlich satirische oder parodistische Inhalte
- Verwendung zu Forschungszwecken
Sanktionen
Die Nichteinhaltung der Transparenzpflichten kann zu Bußgeldern von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes führen.
Legitime Verwendung von Deepfakes
Nicht alle Deepfakes sind böswillig. Zu den legitimen Verwendungen gehören:
- Marketing: Marken-Avatare, personalisierte Videos
- Schulung: Simulationen, E-Learning mit virtuellen Moderatoren
- Unterhaltung: Spezialeffekte, Synchronisation, Verjüngung von Schauspielern
- Barrierefreiheit: Videoübersetzung mit Lip Sync
- Gedenken: „Wiederbelebung" historischer Persönlichkeiten (mit Zustimmung der Rechteinhaber)
Risiken von Deepfakes
- Desinformation: Falsche Aussagen, die Persönlichkeiten zugeschrieben werden
- Betrug: Identitätsdiebstahl für Betrügereien
- Belästigung: Nicht einvernehmliche Inhalte (Pornografie)
- Politische Manipulation: Einflussnahme auf Wahlen
- Rufschädigung: Gefälschte kompromittierende Videos
Erkennung von Deepfakes
Mehrere Methoden ermöglichen die Identifizierung generierter Inhalte:
- Analyse von Inkonsistenzen (Blinzeln, Reflexionen, Hintergrund)
- Erkennung von KI-Generierungsmustern
- Überprüfung der Metadaten
- Spezialisierte Tools (Microsoft Video Authenticator, Sensity AI)
- Unsichtbares Watermarking durch KI-Entwickler