Cookies

Die Deutsche Messe verwendet Cookies, um die Website bestmöglich an die Bedürfnisse unserer Besucher anpassen zu können. Wenn Sie auf der Seite weitersurfen stimmen Sie der Cookie-Nutzung zu. Infos zum Datenschutz

OK
Research & Innovation

Für alle, die eine dicke Lippe riskieren

Die Fortschritte durch Künstliche Intelligenz zeigen sich in immer mehr Bereichen. Das Max-Planck-Institut für Informatik hat mit "Deep Video Portraits" jetzt eine Technik vorgestellt, die unter anderem dabei helfen soll, die Lippensynchronität nachvertonter fremdsprachiger Filme zu perfektionieren.

29.08.2018
MPI_Deep_Video_Portraits
MPI Deep Video Portraits

Das 1990 gegründete Max-Planck-Institut für Informatik (MPII) in Saarbrücken widmet sich der Spitzenforschung im Bereich Informatik mit dem Schwerpunkt auf Algorithmen und deren Anwendung im weiteren Sinne. Zu den jüngst vorgestellten Projekten gehört der Einsatz Künstlicher Intelligenz (KI), um bei Filmaufnahmen den Gesichtsausdruck von Schauspielern leichter und besser an eine synchronisierte Fassung anpassen zu können. Dahinter steht unter anderem das Ziel, der Filmindustrie Zeit und somit Kosten zu sparen. Darüber hinaus kann die Software auch zur Korrektur von Blick- und Kopfhaltung in Videokonferenzen verwendet werden und neue Möglichkeiten in der Video-Postproduktion und im Bereich visuelle Effekte eröffnen.

Erstmals vorgestellt wurde die von einem internationalen Team unter Leitung des MPII entwickelte Technik jetzt auf der Konferenz SIGGRAPH 2018 im kanadischen Vancouver. Weitere beteiligte Institutionen am Projekt "Deep Video Portraits" sind die University of Bath, das Unternehmen Technicolor, die TU München und die Stanford University. Im Unterschied zu früheren Methoden, die sich nur auf die Bewegungen des Gesichtsinneren konzentrieren, ist "Deep Video Portraits" in der Lage, das gesamte Gesicht einschließlich Augen, Augenbrauen und Kopfposition in Videos zu animieren, wobei die aus der Computergrafik bekannten Steuerelemente verwendet werden. „"Deep Video Portraits" kann sogar einen plausiblen statischen Videohintergrund synthetisieren, wenn der Kopf bewegt wird. Hyeongwoo Kim vom MPII dazu: "Wir arbeiten mit modellbasierten 3D-Gesichtsaufnahmen, um die detaillierten Bewegungen der Augenbrauen, des Mundes, der Nase und der Kopfposition des Synchronsprechers in einem Video aufzuzeichnen. Das System überträgt diese Bewegungen auf den Ziel-Akteur im Film, um die Lippen und Gesichtsbewegungen exakt mit dem neuen Ton zu synchronisieren."

Video

Max-Planck-Institut für Informatik (D-66123 Saarbrücken)
Website: www.mpi-inf.mpg.de