Neue Software erkennt Deepfakes in Echtzeit
Archivmeldung vom 16.05.2019
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 16.05.2019 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Thorsten SchmittForscher an der University of Albany haben eine Software entwickelt, die Deepfake-Videos identifiziert. Sie kann anhand von kleinen Details erkennen, ob ein Video echt oder gefälscht ist. Bei Deepfakes handelt es sich um computergenerierte Inhalte, die aus bestehendem Material bestehen. So können realistische Aufnahmen von bekannten Personen gefälscht werden, in denen sie Dinge sagen und tun, die sie nie gesagt oder getan haben.
"Deepfakes lassen sich teilweise mit neuronalen Netzwerken erkennen. Diese Tools verwenden das Prinzip des Deep Learning, sie werden anhand von Bildern trainiert. Die Technologie beruht auf der Annahme, dass Bilder aus Deepfakes bereits früher in einem anderen Zusammenhang veröffentlicht wurden. Neuronale Netzwerke können nach ähnlichen Bildern suchen", sagt Udo Urban vom Deutschen Forschungszentrum für Künstliche Intelligenz im Gespräch mit pressetext. Wenn das Netzwerk solche Elemente in einem anderen Kontext findet, bestehe die Wahrscheinlichkeit, dass es sich um eine Fälschung handelt.
Fakes blinzeln zu wenig
Laut Forschungsleiter Siwei Lyu braucht es nur 500 Bilder oder zehn Sekunden Videomaterial, um einen realistisch aussehenden Deepfake zu erstellen. Deswegen kann von jedem Menschen, der Fotos in sozialen Netzwerken gepostet hat, ein Deepfake gemacht werden. Im Auftrag der Defense Advanced Research Projects Agency (DARPA) hat das Forschungsteam der University of Albany an einer Software gearbeitet, die Deepfakes erkennt. Ein Faktor, an dem man Fälschungen identifiziert, ist Lyu zufolge, ob die Person in dem Video selten blinzelt. Es gebe oft nicht genug Bilder von den Betroffenen, auf denen ihre Augen geschlossen sind. Deswegen wird ein Deepfake die Person meistens mit geöffneten Augen zeigen.
Die Software achtet auch auf unnatürliche Gesichts- oder Kopfbewegungen. Ein weiterer Faktor ist der Verlust von kleinen Details im Gesicht. So sieht die Haut oft zu weich aus und Haaren fehlen Details. Die Zähne sehen oft wie ein einzelner weißer Block aus denn einer Reihe einzelner Zähne. Anhand der von den Forschern entwickelten Tools will die DARPA Filter entwickeln, die Deepfakes aus dem Internet bannen. Sie könnten sonst zum Zweck von Propaganda und Manipulation von Wahlen verwendet werden.
Laut Urban können auch andere Elemente wie Farbe, Kontrast oder Textur bei der Suche nach ähnlichen Bildern genutzt werden. "Grundsätzlich kann man Faktoren wie das fehlende Blinzeln mit bloßem Auge erkennen. Das hängt aber von der Länge des Videos ab. Oft sind sie zu kurz, um auf solche Details achten zu können. Wenn ein neuronales Netz richtig trainiert wurde, kann es Fälschungen deutlich besser erkennen als Menschen", so Urban.
Menschen kennen Deepfakes
Der Öffentlichkeit sind Deepfakes schon länger ein Begriff. Besondere Aufmerksamkeit erregte ein Video des US-Komikers und Filmemachers Jordan Peele, in dem er Barack Obama politisch unkorrekte Sätze in den Mund legte. Es gibt auch bereits gefakte Social Media-Influencer, deren Accounts Millionen von Followern haben, wie beispielsweise das digitale "It-Girl" Lil Miquela. In China verwendet die Nachrichtenagentur "Xinhua" seit 2018 digitale Nachrichtensprecher, die wie echte Menschen aussehen. Laut Lyu werden die Menschen in Zukunft gegenüber Deepfakes desensibilisiert werden. Er bezweifelt deswegen, dass sie eine ernsthafte Gefahr darstellen.
Quelle: www.pressetext.com/Georg Haas