one4two produziert Deepfake-Videos: „Die Möglichkeiten sind enorm”
Die Deepfake-Technologie, mit der Gesichter und Stimmen täuschend echt manipuliert werden können, bietet besonders für die Unterhaltungsbranche enormes Potenzial – sorgt aber auch für Skepsis. Als eine von wenigen Produktionsfirmen bietet das Regensburger Unternehmen one4two die Umsetzung von Deepfake-Videos an. Geschäftsführer Timo Lauber und 2D/3D-Motion-Artist Markus Redlich haben mit Kabarettist Chris Boettcher die Deepfake-Comedy „Dieses Jahr 2020” produziert. Im Interview sprechen sie über technische Möglichkeiten und ethische Verantwortung.
Deepfakes als kreatives Format – welche neuen Möglichkeiten gibt es durch die Technologie?
Timo: Die Möglichkeiten sind enorm. Komplette Spielshows im Fernsehen ließen sich bestimmt realisieren. Für satirische und kabarettistische Formate finde ich die Technologie gut. Die Inhalte müssen aber klar als Deepfake gekennzeichnet sein.
Welche Gefahren seht ihr?
Markus Redlich: Diese Technologie hat das Potenzial, Demokratien zu stürzen. Da hinken auch Politik und Gesetzgebung hinter der Entwicklung hinterher. Für Comedy ist es cool. Bei allen anderen Einsatzmöglichkeiten kommt man schnell mit ethischen Problemen und dem Urheberrecht in Konflikt.
Timo: Auf einem kleinen Smartphone Display gibt es zum Beispiel kaum eine Chance, ein gefälschtes Video zu erkennen.
Wie erstellt ihr eure Deepfake Videos?
Timo: Faceswap-Apps mit Filtern, die man sich über das Gesicht legen kann, gibt es seit fast zehn Jahren. Das sieht auf Smartphone-Displays schon sehr ordentlich aus. Was wir für Chris Boettcher gemacht haben, ist aber eine andere Technologie.
Markus: Wir mussten das Ausgangs- und das Zielmaterial komplett neu berechnen. Dazu haben wir die KI mit tausenden hochaufgelösten Bildern, etwa von Jogi Löw oder Angela Merkel, gefüttert. Wenn es um Gesichtskonturen, Mimik, Brillen und Haare geht, müssen die Übergänge und Details perfekt passen. Das haben wir der KI zum Teil mit viel Handarbeit beigebracht. Kleinste Ungenauigkeiten merken die Zuschauer sofort. Vor allem, wenn der Film auch auf großen Bildschirmen und Fernsehern laufen soll.
Insgesamt hat uns der Deepfake zwei Wochen mehr Arbeit gekostet. Vieles funktioniert nur über Ausprobieren und von Echtzeitfähigkeit in HD ist die Technologie noch Jahre entfernt.
Wo setzt ihr künstliche Intelligenz noch in eurem Produktionsprozess ein?
Markus: Überall dort, wo es uns mühevolle Handarbeit erleichtert. Sie ist mittlerweile Teil der meisten Programme. Wie etwa bei Photoshop, wo man mit einem Klick Himmel und Lichtstimmungen tauschen kann.
Noch mehr über ethische Verantwortung im Umgang mit künstlicher Intelligenz und Best Cases aus der bayerischen Medienbranche erfährst Du in unserem KI-Report.





