Horizont Newsletter

Dein Gesicht gehört nicht dir

"Das Verschwimmen von Haaren und Hintergrund sowie eine durchgehende Zahnreihe oder einfach verwaschene Kanten und Strukturen bei Kleidung und Hintergründen könnten auf ein Deepfake hinweisen."
© Prostock-Studio / Stock.Adobe.com

Deepfakes sind die Fake News der Zukunft: Politikern werden in Filmclips Worte in den Mund gelegt, jeder kann unfreiwillig als Pornostar inszeniert werden. Und das von zu Hause aus. Aber trotz allem birgt die Technik auch – lebensrettende – Chancen.

Dieser Artikel erschien zuerst in update #2/2019, dem Digitalmagazin des HORIZONT. Noch kein Abo? Hier klicken!

Ein paar wenige Videosequenzen können ausreichen, um die Politlandschaft kräftig zu erschüttern; das sogenannte „Ibiza-Gate“ in Österreich ist wohl das beste Beispiel dafür. Im Mai veröffentlichten die Süddeutsche Zeitung und der Spiegel Aufnahmen vom mittlerweile zurückgetretenen Vizekanzler Heinz-Christian Strache und seinem FPÖ-Parteifreund Johann Gudenus im Gespräch mit einer vermeintlichen russischen Millionärsnichte über eine korrupt anmutende Zusammenarbeit. Die SZ und der Spiegel versicherten, dass das eigentlich knapp sieben Stunden lange Video von mehreren Experten auf seine Echtheit geprüft wurde, obwohl Strache und Gudenus eigentlich zweifellos auf den Aufnahmen identifiziert werden können, zumindest für das bloße Auge. Denn auch ­Videomaterial kann mittlerweile perfekt manipuliert werden – wenngleich das hier nicht der Fall war: Deepfake heißt die Technik, die es ­ermöglicht, ­Gesichter täuschend echt auf bestehenden Filmsequenzen zu implementieren, inklusive Mimik und Mundbewegung. Dafür braucht es nicht einmal besonders viel grafisches Know-how, denn mit einer kostenlosen App kann eigentlich jeder so ein Deepfake-Video erstellen. 

KI und Deep Learning sind der Schlüssel zum Ganzen: „Deep­fakes basieren auf sogenannten Generative Adversarial Networks, kurz GAN genannt“, erklärt Clemens Wasner, CEO von enliteAI, einem Wiener Full-Service-Anbieter für künstliche Intelligenz. GANs bestehen aus künstlichen neuronalen Netzen, die in einem Lernprozess „gegeneinander“ arbeiten und damit in der Lage sind, vollkommen neuen Output zu ­generieren. Wasner veranschaulicht den Prozess mit einem Beispiel: „Der Geldfälscher – der sogenannte Generator – versucht, möglichst realitätsgetreue Banknoten zu erstellen. Die Bank, der Diskriminator, bewertet die Ergebnisse des Fälschers und gibt diesem Feedback, ob die Banknoten ­realitätsgetreu genug sind. Mit GANs ist es über Hunderttausende Iterationen hinweg möglich, das neuronale Netz so gut zu trainieren, dass es ­täuschend ähnliche Banknoten ausgibt.“

Der Do-it-yourself-Deepfake

Eines der bekanntesten Deepfakes ist ein Video des ehemaligen US-Präsidenten Barack Obama. Donald Trump sei ein Volldepp, schimpft Obama in dem Clip. Was die Macher damit zeigen wollten: So könnte die neue Generation der Fake News aussehen. Und mit der ­FakeApp, die kostenlos im Internet heruntergeladen werden kann, und einigen Gigabyte Speicherplatz ist es ein Leichtes, Deepfakes selbst zu erstellen – gegebenenfalls mit qualitativen Einbußen. Anleitungen dazu gibt es zahlreiche auf YouTube. Die App analysiert Bildmaterial von zwei verschiedenen Personen, ein Deep-Learning-Algorithmus lernt dabei, welche Bildsequenzen, insbesondere Mimik und Mundbewegungen, auszutauschen beziehungsweise zu überschneiden sind. Nimmt man also ein Video von sich selbst auf, kann man die gesprochenen Worte nahezu jeder Person in den Mund legen, von der man genügend grafisches Material besitzt – wie ­beispielsweise von Politikern. 

Wasner schätzt die Gefahren für politische Prozesse und Desinformationskampagnen als „extrem hoch“ ein: „Ich glaube ­jedoch nicht, dass es sich nur um ein Problem technologischer Natur handelt“, meint der Experte. Das Problem liege viel eher in der mangelnden Medienkompetenz, was leider ein globales Problem sei: „Die größte Gefahr bei Deepfakes sehe ich nicht im Aufstellen von absurden Behauptungen, wie bei der US-Wahl, sondern vielmehr bei nuancierten Veränderungen, die ins­geheim den Betroffenen zugetraut werden. Beispiele hierfür wären ausgestreckte Arme von gewissen Parteien oder scheinbar desinteressierte Gesichter von Politikern, die sich ihren Wählern stellen.“

Aber auch für Privatpersonen können die gefälschten Videos gefährlich werden, und die müssen dafür noch nicht mal gut sein: Deepfakes werden immer häufiger als „Revenge Porn“ kreiert. Heißt: Das Gesicht einer Person wird in pornografische Szenen eingefügt und anschließend veröffentlicht, um sich an der Person „zu rächen“. Auch viele weibliche Models und Schauspielerinnen fielen solchen Deepfakes schon zum Opfer. 

Deepfakes zwischen Cybermobbing und DSGVO 

Gefälschte Videos von anderen Personen zu erstellen ist natürlich auf jede erdenkliche Art und Weise bedenklich oder sogar illegal. Ein bestimmtes Gesetz dagegen gibt es allerdings noch nicht. Aber das braucht es eigentlich auch gar nicht, meint zumindest Alexandra Thurner von der Kanzlei Korn Rechtsanwälte OG. Sollte ein Deepfake angezeigt werden, werde er unter den jeweiligen strafrechtlichen Delikten erfasst, darunter ­können auch Cybermobbing oder Rufschädigung fallen. „Eine Person, die zum Beispiel bei vermeintlichen ­sexuellen Handlungen gezeigt wird – also ein Opfer von Fake Porn oder Revenge Porn –, könnte neben der Löschung des Videos etwa eine Entschädigung wegen Verletzung des höchstpersönlichen Lebensbereichs vom jeweiligen Medieninhaber begehren. Darunter fällt beispielsweise auch jemand, der ein solches Video auf seinem Facebook-Profil veröffentlicht“, erklärt die Rechtsanwältin. Aber auch der Urheber des verfremdeten Originals könne Ansprüche geltend machen. Und: „Neben den bereits genannten Auswirkungen können Deepfake-Videos als unzulässige Datenverarbeitung und Datenveröffentlichung auch gegen das Datenschutzrecht – insbesondere gegen die DSGVO – verstoßen“, ergänzt Thurner.

Die Juristin zeigt mögliche Konsequenzen, die ein authentisch wirkendes Deepfake nach sich ziehen kann, noch drastischer auf: „Werden zum Beispiel politisch exponierten Personen fälschlich Äußerungen zugeschrieben, die sie niemals getätigt haben, die jedoch aufgrund ihres Inhalts höchst brisant oder kontrovers sind, kann dies einerseits für die Reputation der Betroffenen verheerend sein, darüber hinaus aber auch eine politische Dimension bis hin zu Spannungen in außenpolitischen Beziehungen entwickeln oder marktwirtschaftliche Auswirkungen wie einen Börsenkurs nach sich ziehen.“ Laut Thurner würde da auch die EU-Urheberrechtsreform nicht viel helfen: „Dass eine solche Deepfake-Technik – wenn sie frei verfügbar und verwendbar ist – eventuell auch missbräuchlich verwendet wird, lässt sich kaum verhindern. Dadurch, dass solche ­Videos täuschend echt wirken, dürfte es jedenfalls schwierig sein, diese technisch zu erkennen, weshalb allfällige Upload-Filter oder Ähnliches das Problem vermutlich nicht lösen könnten.“

Kampf der KIs

Zumindest Amateurvideos – wie jene, die die FakeApp erstellen würde – ließen sich dennoch anhand kleiner Merkmale als gefälscht ausmachen: Asymmetrien – vor allem bei Ohren und Augen – seien nicht immer auf einem realistischen Niveau ausgeprägt, erläutert Wasner von enliteAI. „Auch das Verschwimmen von Haaren und Hintergrund sowie eine durchgehende Zahnreihe oder einfach verwaschene Kanten und Strukturen bei Kleidung und Hintergründen könnten auf ein Deepfake hinweisen.“ Digitale Watermarkings würden also auch bei Videoclips eine immer größere Rolle spielen. 
Der größte Feind des Deepfake ist jedoch die KI und das Deep Learning selbst, sagt Sepp Hochreiter, Leiter des Instituts für Machine Learning an der Johannes Kepler Universität Linz. Er spricht von einem Convolutional Neural Network, das bei zahlreichen KIs Anwendung findet und eben besonders in der Verarbeitung von Bild- oder Audiomaterial. „Normalerweise kann man wieder genau die gleiche Technik einsetzen, die dann klassifiziert: Ist es fake, ist es nicht fake? Es kommt nur noch darauf an, wie groß der Datensatz des Deepfake ist, wie qualitativ hochwertig die Daten sind und welchen Computer ich habe, um mächtiger zu sein als die Fake-produzierende KI und diese so identifizieren zu können.“ Wie das Beispiel der FakeApp schon gezeigt hat: Die Währung des Deepfake ist nicht die Technik, sondern die Daten. „Wenn die Fake-produzierende KI perfekt ist, ist sie genauso gut wie die Wirklichkeit und nahezu nicht mehr davon unterscheidbar. In der Praxis ist das aber ­selten Fall. Es gibt immer noch ganz, ganz kleine Hinweise, und wenn ich genügend Daten habe, dann kann ich diese ­Hinweise erkennen“, erklärt der Professor.

Abseits der Hinweise, die eine „gegnerische KI“ liefern kann, gibt es laut Hochreiter noch eine andere, etwas einfachere Möglichkeit, eine Fälschung ausfindig zu machen. „Fakes erkennen heißt nicht nur, dass Video selbst anzuschauen, sondern auch herauszufinden, wo das Video herkommt und wie sich das verbreitet hat.“ Er erklärt: „Wenn ein Video zum ersten Mal vom Spiegel oder von der Süddeutschen Zeitung verbreitet wird, dann hat es denen wahrscheinlich jemand zugespielt. Aber wenn man das jetzt zu irgendeiner ­dubiosen oder ausländischen Website zurückverfolgt, wo man nicht weiß, wie es dorthin gekommen ist, dann kann das schon auf eine Fälschung hindeuten.“

Synthetische Gesichter, die Leben retten können

Trotz allem birgt ein professionelles Deepfake auch große Chancen in anderen Bereichen. In der Kreativbranche würden Deepfakes beziehungsweise GANs „ein neues goldenes Zeitalter einläuten“, meint Wasner, „da sie auf relativ unkomplizierte und vor allem schnelle Weise die Erzeugung von fotorealistischen Bildern und ­Videos ermöglichen.“ Er erläutert: „Fotoshootings für Mode­kataloge werden beispielsweise automatisierbar, da es nur noch notwendig ist, die Models in ein paar Posen zu fotografieren, und man im Nachgang diese in neue Posen bringen kann. ­Dabei kann man ihnen sogar andere Kleidungsstücke anziehen; wir steuern hier also auf synthetische Models zu.“ Zudem besteht die Möglichkeit der Anonymisierung: „Sehr oft gibt es heute die Einschränkung, dass man unbeteiligte Personen ­unkenntlich machen muss, mit Blurring oder Rausschneiden. Mit GANs ist es aber möglich, die Gesichter der Personen durch synthetische zu ersetzen und so – unter Wahrung der ­Privatsphäre – realitätsgetreue Szenen zu filmen und zu ­fotografieren.“

Und letztendlich könnten Deepfakes, wenn richtig eingesetzt, sogar Leben retten: Im Bereich des autonomen Fahrens seien die gefälschten Videos nämlich maßgebend für die Sicherheitstechnik, erklärt Hochreiter. „Bei Testfahrten von selbstfahrenden Autos haben Hersteller normalerweise keine Situation, in der das Auto scharfe Bremsungen oder Lenkungen machen muss. Das heißt, wir haben gar keine Beispiele für die selbstfahrenden Autos, wie sie reagieren müssen, wenn sie ein Kind wahrnehmen. Und als Fahrer würde ich jetzt nicht absichtlich auf ein Kind zufahren, um dem Auto zu zeigen, dass es jetzt zu bremsen hat.“ Die Lösung liege daher in einem möglichst realitätsnahen Deepfake, denn die künstliche Intelligenz kann schnell intelligent genug werden, um Simulationen als solche zu erkennen. „Mädchen im roten Kleid, alles klar, Simulation, ich bleibe stehen“, gibt der Machine-Learning-Experte den Verarbeitungsprozess des selbstfahrenden Autos wieder. „Und wenn es die Simulation schon als Simulation erkennt, weiß es dann, dass gleich sowieso etwas Gefährliches passiert. Das heißt, um sicherzustellen, dass die Autos auch in der echten Welt stehen bleiben und nicht nur bei einer Simulation, darf die Simulation nicht mehr von der echten Welt unterscheidbar sein. Und das ist genau das, wo sich Deepfake als Chance herausstellt. Da will ich es aber nicht Fake nennen, sondern Simulation.“

0 Kommentare

Keine Kommentare gefunden!

Neuen Kommentar schreiben

* Pflichtfelder
Netiquette auf HORIZONT online