Falsche Tatsachen schaffen, die Realität verbiegen, „al­ter­na­ti­ve Fakten“ erzeugen: Im Internet sind Fakes nichts Neues. Egal ob es um ma­ni­pu­lier­te Bilder, an­geb­li­che Neu­ig­kei­ten oder erfundene In­for­ma­tio­nen geht, das World Wide Web ist voll davon – und so wird es immer schwie­ri­ger, zwischen Realität und Fiktion zu un­ter­schei­den. Nun haben Fäl­schun­gen ein neues Level erreicht: Deepfakes.

Deepfakes sind zuerst im Dezember 2017 auf Reddit auf­ge­taucht. Ein Nutzer hatte es geschafft, die Gesichter von Pro­mi­nen­ten in Por­no­fil­men un­ter­zu­brin­gen – und das er­schre­ckend glaubhaft. Für kurze Zeit erlebte das Erstellen von an­geb­li­chen Promi-Pornos einen wahren Boom. In­zwi­schen sind solche ge­fälsch­ten Videos sowohl auf Reddit als auch auf anderen Platt­for­men wie Twitter oder Discord verboten, doch das kann die Ver­brei­tung von Deepfakes kaum noch ein­schrän­ken. Was macht Deepfakes so besonders?

Deepfakes – was ist das?

In der Regel werden so­ge­nann­te Fakes mit sehr viel Arbeit und Fach­wis­sen erstellt. Das muss nicht einmal einen zwie­lich­ti­gen Hin­ter­grund haben. Auch in Hollywood-Filmen ist es nicht un­ge­wöhn­lich, Gesichter aus­zu­tau­schen. Dafür setzt man aber nor­ma­ler­wei­se auf Experten in den Bereichen Schnitt­tech­nik und CGI. Deepfakes erstellt aber der Computer selbst, ohne de­tail­lier­te An­pas­sun­gen durch Men­schen­hand.

Man nennt sie „Deepfakes“, weil sie auf dem so­ge­nann­ten Deep Learning basieren, einer Form des Machine Learning. Für den Austausch von Ge­sich­tern oder Ge­gen­stän­den sind bei Deepfakes Al­go­rith­men notwendig. Damit Deep Learning funk­tio­niert, werden die Al­go­rith­men mit sehr, sehr vielen Bild- oder Vi­deo­da­ten gefüttert. Je mehr Material man von einer Person hat, umso besser sollte das Ergebnis werden.

Tipp

Besonders gut eignen sich auch Videos als Trai­nings­ma­te­ri­al. So kommt man schnell auf tausende Ein­zel­f­rames aus vielen ver­schie­de­nen Blick­rich­tun­gen. Videos zeigen die Gesichter auch in na­tür­li­che­ren Po­si­tio­nen, als es normale Fotos tun, die oftmals nur ein lä­cheln­des Gesicht von vorn zeigen.

Bereits 300 Bilder mit dem Gesicht der aus­er­ko­re­nen Person (bes­ten­falls aus allen möglichen Per­spek­ti­ven) sollten al­ler­dings als Trai­nings­da­ten reichen, um ein an­nehm­ba­res Ergebnis zu erhalten. Im Deepfakes-Code steckt ein neu­ro­na­les Netz, ein so­ge­nann­ter Au­toen­co­der: Das Netz wird darauf trainiert, Daten zu kom­pri­mie­ren, um sie dann wieder zu de­kom­pri­mie­ren. Der Au­toen­co­der versucht bei der De­kom­pri­mie­rung ein Ergebnis zu erreichen, das möglichst nah am Original ist. Um dies zu schaffen, lernt das Netz beim Kom­pri­mie­rungs­vor­gang ent­schei­den­de Daten von un­wich­ti­gen zu un­ter­schei­den.

Füttert man den Al­go­rith­mus mit Bildern von Hunden, lernt das künst­li­che neuronale Netz, nur den Hund zu fo­kus­sie­ren und Hin­ter­grün­de (Noise) zu igno­rie­ren. Aus den Daten kann der Au­toen­co­der schließ­lich selbst einen Hund erstellen. Auf diese Weise funk­tio­niert auch der Tausch von Ge­sich­tern bei Deepfakes: Das neuronale Netz lernt, wie das Gesicht der Person aussieht, und kann dieses dann selbst­stän­dig erzeugen – auch wenn das Gesicht in Bewegung ist und sich z. B. der Mund bewegt.

Um Gesichter effektiv aus­zu­tau­schen, müssen zwei Köpfe erkannt werden: das Gesicht, das im Ori­gi­nal­ma­te­ri­al auftaucht, und jenes, mit dem man den Tausch durch­füh­ren möchte. Dafür setzt man einen Eingang (den Encoder) und zwei Ausgänge (die Decoder) an. Der Encoder ana­ly­siert jegliches Material, während die beiden Decoder jeweils einen un­ter­schied­li­chen Output ge­ne­rie­ren: Gesicht A oder Gesicht B.

Im Endeffekt funk­tio­niert es dann so, dass der Al­go­rith­mus nicht Gesicht A in das Video einfügt, sondern Gesicht B, das dort ei­gent­lich gar nicht hingehört. Dies offenbart auch den Un­ter­schied zu den bereits bekannten Fakes, die sich nur auf Bilder re­du­zie­ren: Dort schneidet man das Gesicht aus einem Bild aus, re­tu­schiert oder passt es viel­leicht an und fügt es in ein anderes Bild ein. Bei Deepfakes wird aber nicht Bild­ma­te­ri­al in ein anderes Bild hin­ein­ko­piert, sondern neues Material erstellt. Nur so kann auch die Mimik passend zu der des Ori­gi­nal­ge­sichts ausfallen.

Dies erklärt auch die Fehler, die bei Deepfakes auftreten: Besonders bei un­ty­pi­schen Be­we­gun­gen geraten die neu­ro­na­len Netze an ihre Grenzen. Wenn es nicht genügend Material aus der ent­spre­chen­den Per­spek­ti­ve gibt, wirkt der Frame ver­schwom­men. Der Al­go­rith­mus versucht, aus dem wenigen Aus­gangs­ma­te­ri­al ein Bild zu ge­ne­rie­ren, muss aber scheitern und kann nur auf Details ver­zich­ten.

Die Ge­schich­te der Deepfakes: Von Reddit in die Welt

Ihren Ursprung haben die Deepfakes auf Reddit. Die Website ist dafür bekannt, in den Un­ter­fo­ren (den so­ge­nann­ten Subred­dits) auch kuriosen Themen eine Heimat zu bieten. Der Redditor (so werden Nutzer im Kosmos von Reddit genannt) mit dem Namen „deepfakes“ hat im Dezember 2017 ein solches Subreddit erstellt und dort por­no­gra­fi­sche Videos mit Pro­mi­nen­ten ver­öf­fent­licht. Dafür hat der anonyme Nutzer den be­schrie­be­nen Al­go­rith­mus gebaut, der wiederum auf anderen Tech­no­lo­gien beruht, etwa den Open-Source-Bi­blio­the­ken Keras und Googles Ten­sor­Flow.

Binnen kürzester Zeit zählte das Subreddit 15.000 Anhänger. In­zwi­schen hat Reddit dem Forum einen Riegel vor­ge­scho­ben und genau wie andere Un­ter­neh­men (u. a. die Plattform für por­no­gra­fi­sche Videos Pornhub) das Ver­brei­ten von Fake-Pornos verboten. Doch das kann den Siegeszug der Deepfakes kaum noch aufhalten: Der Code, den deepfakes ent­wi­ckelt hat, ist Open Source und steht somit jedermann zur Verfügung. Auf GitHub lassen sich gleich mehrere Re­po­si­to­ries finden, in denen Ent­wick­ler an den Al­go­rith­men arbeiten. So ist auch eine Deepfakes-App ent­stan­den, genannt FakeApp.

Mit dem Programm können alle Menschen, die ein wenig Com­pu­ter­fach­kennt­nis besitzen, Face-Swaps durch­füh­ren. Um Deepfakes per App zu erstellen, ist ansonsten nur eine möglichst leis­tungs­star­ke Gra­fik­kar­te von Nvidia nötig. Das Programm nutzt für die Be­rech­nun­gen den Gra­fik­pro­zes­sor (GPU). Abseits der FakeApp können Deepfakes auch mit der CPU eines Computers erstellt werden, dies dauert aber für ge­wöhn­lich sehr viel länger.

Die Netz­ge­mein­de hat in­zwi­schen weitere Ver­wen­dungs­zwe­cke abseits von Pornos für den Face-Swap auf Basis von Machine Learning gefunden: Wie man es vom Internet kennt, wird die Technik zu einem sehr großen Teil dazu benutzt, lustigen Unsinn zu kreieren. Besonders beliebt ist es bei­spiels­wei­se, Schau­spie­ler in Filme zu bringen, in denen sie nie mit­ge­spielt haben. So haben Nutzer in einem kurzen Clip aus der Ver­fil­mung des „Herrn der Ringe“ jeden Schau­spie­ler durch Nicholas Cage ersetzt oder Sharon Stone in ihrer be­rüch­tig­ten Szene aus „Basic Instinct“ mit Steve Buscemi aus­ge­tauscht.

Aus­wir­kun­gen auf die Ge­sell­schaft

Solche Späße sind eher harmlos. Doch die neuen einfachen Mög­lich­kei­ten der Vi­deo­ma­ni­pu­la­ti­on stellen die Ge­sell­schaft gleich vor mehrere Her­aus­for­de­run­gen: Zum einen geht es um eine Frage der Legalität. Die pro­mi­nen­ten Frauen, die nun in Por­no­vi­de­os auf­tau­chen, haben zu keinem Zeitpunkt ihre Zu­stim­mung dazu gegeben. Abgesehen davon, dass dies moralisch mehr als frag­wür­dig ist, greifen solche Deepfakes u. U. massiv das Per­sön­lich­keits­recht an. Die Videos können mitunter ruf­schä­di­gend sein.

Fakt

Derzeit entstehen Deepfakes vor allem mit den Antlitzen von Pro­mi­nen­ten. Das liegt u. a. daran, dass von Be­rühmt­hei­ten sehr viel Bild­ma­te­ri­al im World Wide Web zu finden ist. Doch auch normale Menschen stellen mehr und mehr Bilder von sich ins Internet und riskieren so, Opfer von Deepfakes zu werden.

Vom in­di­vi­du­el­len Schaden abgesehen, können Deepfakes auch ge­sell­schaft­li­che Ver­än­de­run­gen her­auf­be­schwö­ren. In den letzten Jahren kam bereits das Problem der so­ge­nann­ten Fake-News auf. Es wird zunehmend schwie­ri­ger, echte Tatsachen von falschen Be­haup­tun­gen zu un­ter­schei­den. Bisher galten Vi­deo­be­wei­se als sicheres Indiz für die Rich­tig­keit einer Aussage – durch Deepfakes ist auch dies nicht mehr gegeben. Mit relativ wenig Aufwand kann man nun täuschend echte Ma­ni­pu­la­tio­nen an­fer­ti­gen – und das eben nicht nur zum Zweck der Un­ter­hal­tung.

Fäl­schun­gen sind und waren schon immer wichtige Pro­pa­gan­da­mit­tel. Mit Deepfakes ist es möglich, Politik emp­find­lich zu be­ein­flus­sen. Während ein Video, bei dem das Gesicht von Angela Merkel durch das von Donald Trump ersetzt wird, noch un­wich­ti­ger Quatsch ist, könnten Politiker auch in Si­tua­tio­nen gebracht werden, in denen sie niemals waren. Da man durch Machine Learning sogar die Stimme eines Menschen relativ glaub­wür­dig nach­stel­len kann, werden Deepfakes in Zukunft immer echter wirken. Es ist davon aus­zu­ge­hen, dass solche Fäl­schun­gen zwangs­läu­fig Wahl­kämp­fe und in­ter­na­tio­na­le Be­zie­hun­gen be­ein­flus­sen werden.

Für unsere Ge­sell­schaft bedeutet dies, dass wir den Medien, ins­be­son­de­re den In­ter­net­me­di­en, weitaus weniger vertrauen dürfen. Schon jetzt eignen sich Menschen einen gesunden Zweifel an, wenn es um an­geb­li­che Neu­ig­kei­ten geht. Doch immer noch glauben zu viele Menschen Be­haup­tun­gen, die in sozialen Medien ver­brei­tet werden, aber jeglicher Fak­ten­ba­sis entbehren. In Zukunft wird man nicht einmal mehr dem glauben können, was man mit eigenen Augen gesehen hat.

Doch die Ent­wick­lun­gen rund um Deepfakes sind nicht nur de­struk­tiv oder albern. Deep Learning kann die Kreation von visuellen Effekten re­vo­lu­tio­nie­ren. Derzeit ist es noch ver­gleichs­wei­se aufwendig, die Gesichter von Schau­spie­lern auf die Körper von anderen Personen zu montieren. Man hat z. B. für den „Star Wars“-Film „Rogue One“ mit visuellen Effekten eine junge Prin­zes­sin Leia kreiert, obwohl die Schau­spie­le­rin Carrie Fisher zum Zeitpunkt, als der Film erschien, bereits 60 Jahre alt war. Ein In­ter­net­nut­zer hat mithilfe von Deepfakes ein ähnliches Ergebnis erzielt – laut Ei­gen­aus­sa­ge innerhalb einer halben Stunde und mit einem ge­wöhn­li­chen PC. Deepfakes haben also die Wirkkraft, visuelle Effekte in Un­ter­hal­tungs­me­di­en nach­hal­tig schneller und günstiger zu machen.

Man spe­ku­liert auch, dass Deepfakes und die Ein­fach­heit, die mit den neu­ar­ti­gen Fäl­schun­gen ein­her­geht, dazu führen könnte, Zu­schau­ern eine Wahl zu geben: Wer in der Zukunft einen Film schaut, hat viel­leicht die Wahl, welcher Star den Haupt­cha­rak­ter spielen soll. Ein Klick vor Beginn des Films sollte genügen. Ähnliches ist für die Wer­be­bran­che denkbar. Demnächst stehen Pro­mi­nen­te nicht mehr selbst für Wurst­wa­ren, De­si­gner­klei­der oder Spi­ri­tuo­sen vor der Kamera, sondern verkaufen nur eine Lizenz für ihr Gesicht. Zudem hätten Nutzer die Mög­lich­keit, das begehrte T-Shirt im On­line­shop auf den Schultern des Lieb­lings­stars zu sehen.

Fazit

Machine Learning bietet weit­rei­chen­de Chancen für die Zukunft unserer Ge­sell­schaft. Schon jetzt arbeitet z.B. Google beim Ka­te­go­ri­sie­ren von Bildern oder auch beim Ent­wi­ckeln von selbst­steu­ern­den Autos mit künst­li­chen neu­ro­na­len Netzen und Deep Learning. Deepfakes zeigen nun eine der möglichen Schat­ten­sei­ten der Tech­no­lo­gie. Denn natürlich können die Ent­wick­lun­gen auch de­struk­tiv ein­ge­setzt werden. Es ist an der Ge­sell­schaft, Lösungen für solche Probleme zu finden und die wahren Chancen von Machine Learning und auch den Deepfakes zu nutzen.

Zum Hauptmenü