Der Mann hinter den Disney-Gesichtern

Wenn der Schurke Thanos in „Avengers: Infinity War“ seinen fiesen Blick aufsetzt oder die Feen bei „Maleficent“ gute Miene zum bösen Spiel machen, dann ist IT-Forscher und Computergrafik-Experte Bickel dafür verantwortlich. Mit seinem „Medusa Facial Capture System“ hat er die Welt der Animationsfilme revolutioniert. Die Technik gehört zu den Motion-Capture-Verfahren und erlaubt eine besonders realitätsnahe und detailreiche digitale Nachbildung von Gesichtern.
WANN & WO: Im Jahr 2019 hast du mit dem Medusa Performance Capture System den „Technical Achievement Award“ bei den Tech-Oscars abgestaubt. Wie fühlt es sich an, eine solche Ehre zu erhalten?
Bernd Bickel: Eine Auszeichnung von der Academy zu bekommen ist schon etwas Außergewöhnliches – in der Filmindustrie ist es schlussendlich die höchste Auszeichnung an sich. Ich selbst habe das eigentlich erst so richtig bei meinem Aufenthalt in Los Angeles realisiert, wo sich die Filmindustrie seit fast 100 Jahren um die Academy Awards dreht.
WANN & WO: Deine Arbeit war ursprünglich nicht für die Filmbranche bestimmt. Kannst du uns etwas über deinen beruflichen Werdegang verraten und darüber, wie du mithilfe des Medusa-Systems den Comic-HeldInnen Leben einhauchst?
Bernd Bickel: Ich habe mich bereits während meiner Masterarbeit und meines Doktorats an der ETH Zürich mit der Modellierung von Gesichtern beschäftigt, allerdings ursprünglich, um Operationen im Bereich Kiefer- und Gesichtschirurgie zu planen und zu simulieren. Dabei haben wir erkannt, dass wir ein besseres und genaueres System zur digitalen Erfassung von Gesichtern benötigen und sich hinter dieser Anwendung einige spannende, grundlegende Forschungsfragen verbergen. Zu diesem Zeitpunkt hat sich auch bereits abgezeichnet, dass dies eine Schlüsseltechnologie für die Animation von möglichst realitätsnahen Gesichtern in Filmen ist. Es hat dann jedoch noch einige Jahre an Forschungs- und Entwicklungsarbeit benötigt, bis wir ein einsatzfertiges System präsentieren konnten. Das Medusa-System kann feinste Bewegungen des menschlichen Gesichts aufzeichnen und diese in eine hochaufgelöste, animierte Oberfläche, bestehend aus hunderttausenden Punkten, umrechnen. Das erlaubt es, realistische animierte Filmfiguren zu erstellen und diesen Leben einzuhauchen. Das besondere an unserem System ist, dass SchauspielerInnen dazu keine Markierungen im Gesicht oder spezielles Make-Up tragen müssen.
WANN & WO: Was sind aus deiner Sicht die größten Herausforderungen, mit denen ComputergrafikerInnen heute konfrontiert sind – auch in Hinblick auf die neuesten Entwicklungen rund um das Thema Künstliche Intelligenz?
Bernd Bickel: Die letzten Jahre in der Computergrafik waren geprägt davon, Methoden zu entwickeln, die es erlauben, Modelle und Inhalte zu erstellen, die möglichst realitätsnah aussehen und vielleicht sogar nicht mehr von einem echten Foto oder Video unterschieden werden können. Mittels künstlicher Intelligenz ist es nun möglich, mit nur wenigen Klicks ein fotorealistisches Bild oder ein Deep-Fake-Video zu erstellen. Eine interessante Forschungsfrage ist, wie wir zukünftig diese künstlichen Bilder erkennen können.
WANN & WO: Wie stehst du Bedenken hinsichtlich der ethischen und sozialen Auswirkungen von technologischen Fortschritten gegenüber, Stichwort „Deep-Fakes“ im Video-bereich? Wie können wir sicherstellen, dass unsere Arbeit einen positiven Einfluss hat und keine unerwünschten Folgen mit sich bringt?
Bernd Bickel: Künstliche Intelligenz bringt riesige Chancen, unser Leben zu verbessern. Ich bin mir sicher, dass wir dank KI zum Beispiel im medizinischen Bereich ein längeres und gesünderes Leben haben werden. Allerdings gibt es auch eine Schattenseite: Wir haben in den letzten Jahren bereits deutlich die möglichen Auswirkungen von Falschnachrichten gesehen. In der Zukunft wird es immer einfacher werden, täuschend echte Texte, Stimmen und Videos zu generieren. Es ist wichtig, dieses Problem auf mehreren Ebenen zu adressieren. Dazu gehört, dass mittels KI generierte Inhalte klar gekennzeichnet werden und die Forschung zur Erkennung von Deep- Fakes intensiviert wird.
WANN & WO: Wie sieht deiner
Meinung nach die Zukunft der Computergrafik aus und welche Fortschritte sind in den nächsten Jahren zu erwarten?
Bernd Bickel: Ich glaube, dass die echte Welt und die virtuelle Realität immer weiter miteinander
verschmelzen werden. Angetrieben von KI werden wir mit virtuellen Avataren interagieren und diese
verwenden, um Hilfestellungen im echten Leben zu bekommen. Dank neuer Augmented-Reality-Datenbrillen werden wir dabei sowohl die echte als auch die virtuelle Welt gleichzeitig sehen und beide gleichzeitig nutzen.
WANN & WO: Welche Ratschläge würdest du jungen Menschen geben, die sich ebenfalls für eine Karriere in der Computergrafik oder verwandten Bereichen interessieren?
Bernd Bickel: Fortschritte auf der technischen Seite der Computergrafik sind eng mit der Informatik verbunden. Ich würde empfehlen, eine möglichst allgemeine und fundierte Ausbildung zu verfolgen, um algorithmisches Denken zu erlernen – vereinfacht gesagt, wie man Probleme in kleinere Einheiten zerlegt und diese strukturiert löst. Danach stehen einem viele Türen in der Computergrafik und auch in anderen Bereichen offen, da diese Werkzeuge unabhängig von kurzfristigen Trends immer gebraucht werden.


Die britische Schauspielerin Imelda Staunton postiert für die Medusa-Kameras.

Mike Seymour von Fxguide wird von Medusa gescannt. Die Beleuchtung besteht aus LED-Streifen und das Kamera-Rig umfasst insgesamt acht Kameras.

Zur Person: Bernd Bickel
Alter, Wohnort: 40 Jahre, Zürich
Familienstand: Lebensgemeinschaft mit Martina Plagg, zwei Kinder (4 Jahre, 9 Monate)
Berufliches: IT-Forscher am ISTA Klosterneuburg, interessiert sich für Computergrafik und ihre Überschneidungen mit Robotik, Computer Vision, maschinellem Lernen, Materialwissenschaft und digitaler Fertigung, ab 2024 Professor für Computational Design an der ETH Zürich

