Creafactory®
«Discours de
la méthode»
Zwischen Vertrauen und Täuschung: Wie die Welt lernt, mit Deepfakes umzugehen
Ist das echt? Desinformation durch KI-generierte Medieninhalte erzwingt neue Kommunikationsstrategien. Dabei werden zukunftsfähige Standards etabliert.
Papst Franziskus im Puffer-Coat, ein Krokodil in der Limmat, Freddie Mercury als Protagonist in seiner eigenen Filmbiografie – soweit so witzig. Leider ist die KI aber auch in der Lage, pornografische oder politisch relevante Deepfakes zu generieren, welche die Persönlichkeitsrechte verletzen, Debatten verzerren oder Wahlergebnisse manipulieren können. Ein bekanntes Beispiel für politische Manipulation ist eine Desinformations-Kampagne aus dem Jahr 2022. Hier wurde ein gefälschtes Video in Umlauf gebracht, in dem Wolodymyr Selenskyj ukrainische Soldaten dazu aufrief, sich den russischen Truppen zu ergeben. Und auch auf Textebene nehmen die Deepfakes zu, etwa in Chats, E-Mails, Kommentaren oder Posts. Dabei werden zum Beispiel Zitate oder ganze Interviews erfunden, Produktbewertungen gefälscht oder Meinungen zu politischen Programmen im Rahmen einer Desinformations-Kampagne simuliert.
Braucht es mehr Gesetze? Dänemark beispielsweise plant ein Gesetz, das jedem Menschen das Recht auf seinen eigenen Körper, seine eigene Stimme und seine eigenen Gesichtszüge gibt. Um sein Recht einzufordern, muss man Deepfakes aber zunächst erkennen. Ist das möglich? Fragen wir die KI:
«Ja, es gibt Möglichkeiten, Deepfakes zu erkennen, aber keine Methode ist derzeit absolut zuverlässig. Die Erkennung ist ein Wettrennen zwischen der Entwicklung immer besserer KI-Fälschungen und den technischen Verfahren, sie aufzudecken.»
For real! Proaktive Authentizität
Auf technischer Ebene versuchen Spezialsoftware, Metadaten-Analyse oder KI-basierte Detektoren Fehler aufzudecken. KI-Modelle lernen aber schnell, diese Fehler zu vermeiden: Heute passen Spiegelungen in Brillen zur Umgebung, der Ton stimmt mit den Lippenbewegungen überein und der Text entspricht dem Stil einer realen Person oder eines Mediums. Da Deepfake-Erkennung auch immer nur reaktiv ist, wird zunehmend versucht, Authentizität auf technischer Ebene – zum Beispiel durch digitale Wasserzeichen oder Kryptosignaturen – proaktiv zu sichern. Automatische Signaturen, die via Blockchain unveränderbar gespeichert sind, finden sich zum Beispiel in Kameras oder Smartphone-Apps, in KI-Wasserzeichen der OpenAI oder in der sogenannten C2PA (Coalition for Content Provenance and Authenticity). Die C2PA ist ein offener Industriestandard, der zum Beispiel von Adobe, Microsoft oder Radiosendern verwendet wird, um die Dateien mit Ursprungsdaten zu versehen.
Check. Kontext und Kontrolle
Damit medialer Content überhaupt als KI-generiertes Deepfake in Verdacht gerät, braucht es Kontextwissen und eine sensibilisierte Wahrnehmung. Starke Emotionen können ein Warnsignal sein: «Ein Krokodil in der Limmat?!» Aufschluss kann eine Kontextprüfung geben: Wer teilt den Inhalt? Wer hat ihn ursprünglich kreiert? Gibt es dasselbe Bild oder dieselbe Szene in verlässlichen Quellen?
Wer von einem Deepfake betroffen ist, sollte in die Offensive gehen und im Rahmen des Reputationsmanagements sofort sein Umfeld beziehungsweise die Öffentlichkeit über die Falschmeldung informieren. Insbesondere für polarisierende Unternehmen, Organisationen oder Menschen des öffentlichen Lebens kann es sinnvoll sein, einen Monitoring-Service zu beauftragen, der das Internet und die Social Media nach gefälschten Inhalten durchsucht. Je nach Inhalt ist eine polizeiliche Meldung oder die Konsultation eines Anwalts ratsam.

Safe. Kommunikation des Vertrauens
Mehr denn je wird Kommunikation zur Vertrauensarbeit. Deshalb ist Reputationsmanagement, das ein Unternehmen oder eine Institution nachhaltig als vertrauenswürdig positioniert, ein unverzichtbarer Bestandteil im Kommunikationsauftrag. Transparenz, Dialog, digitale Herkunftsnachweise und der reflektierende Umgang mit Medien werden zu neuen Standards. Wer ihnen nicht folgt, macht sich verdächtig. Wie sehr Nutzer bereits heute sensibilisiert sind, zeigen Communities, in denen die Diskussion um Echtheit auf der Tagesordnung steht. «I’m sick of AI», ist ein häufiger Kommentar, wenn Menschen spüren, dass ihr Vertrauen missbraucht wird. Und so werden KI-Fehler und Quellenverweise meist so schnell geteilt wie ein Deepfake selbst.