Digital Life
Der digitale Schauspieler: Projekt Ira
An der University of South California entsteht gerade der nächste Schritt im Bereich der digitalen Schauspielerei. In Zusammenarbeit mit dem Videospielhersteller Activision ermöglicht das Projekt „Digital Ira“ ein fotorealistisches Abbild – in Echtzeit manipulierbar.
Erinnerst Du Dich an diese wirklich hölzernen Figuren in „Der Polarexpress“ oder die gruselige Gesichtsverjüngung von Patrick Stewart als Professor X in „X-Men Origins: Wolverine“? Egal wie tief Du in einem Film steckst, solche Bilder machen die Magie kaputt. Dass es auch besser geht, zeigt der Film „Avatar“. Die Figureneffekte entstanden in Kooperation mit Chief Visual Officer Paul Debevec an der University of South California (USC). Er ist auch der Papa von Digital Emily und Digital Ira.
Bild: Activision
Emily & Ira – Zwei Generationen Mimik
Beim Motion Capturing, der digitalen Bewegungserfassung, werden alle Bewegungen eines Modells, meist Schauspieler, auf einen digitalen Doppelgänger übertragen. Bekanntester Vertreter dieser Art ist Andy Serkis. Er übernahm die ikonische Rolle des Gollum in der „Herr der Ringe“-Filmtrilogie und verhalf der Romanverfilmung damit zum Kultstatus.
Die meisten Emotionen spielen sich im Gesicht ab. Es gibt Bereiche in Deinem Gehirn, die nur daran arbeiten, die Mimik und Gestik anderer Menschen zu interpretieren. Das ist übrigens auch die ideale Ausrede in der Vorlesung: „Keiner meiner Bereiche im Gehirn hat verstanden, was Sie von mir wollen, aber ich sehe, dass Sie das ärgert.“
Digital Emily lieferte bereits 2009 eine glaubhafte Performance in puncto Gesichtsausdruck ab. Dafür wurde vom Original, der Schauspielerin Emily O’Brien, eine breite Palette an Gesichtsausdrücken eingescannt. Digital Emily wurde dann über das Original-Gesicht gelegt. Sieh Dir im folgenden Video an, wie fantastisch das aussieht:
Der Haken an der Sache war, dass es damals ca. 30 Minuten dauerte, bis auch nur ein einzelnes Bild gerendert, also für das Video aufbereitet war. (Zum Vergleich: Eine Sekunde Film hat in der Regel zwischen 24 und 30 Bilder pro Sekunde.) Das änderte sich 2012 mit dem Nachfolgeprojekt Digital Ira. Für dieses Projekt implementierte das Team an der USC Digital Ira in einer Videospiel-Software. Infolgedessen schaffte man es nun, fotorealistische Gesichtsanimation mit 30 Bildern pro Sekunde, also Echtzeit, zu erzeugen. Digital Ira basiert seinerseits auf dem Mitarbeiter Ari Shapiro. Als er sein digitales Abbild plötzlich auf einem Bildschirm sah und die Möglichkeiten erahnte, schlug er einen Dreher im Namen vor - „…um ein bisschen Distanz zu erzeugen.“
Und hier darfst Du bewundern, wie angeregt Digital Ira über Frozen Yoghurt redet:
Wird der ‚echte’ Schauspieler ersetzt?
Im Interview mit Vices Blog „The Creators Projekt“ betont Projektleiter Paul Debevec, dass er nicht denkt, dass der reale Schauspieler in naher Zukunft von rein digitalen Doppelgängern abgelöst wird.
„Jede digitale Figur, die Du bisher in einem Film oder Videospiel gesehen hast und deren Verhalten und Gefühle Du für echt hältst, hältst Du für echt, weil es ein echter Schauspieler war, der ursprünglich die Rollte gespielt hat.“
Bild: USC Institute for Creative Technologies
Neue Games wie das im August dieses Jahres erscheinende Horrorvideospiel „Until Dawn“ erwecken all ihre Figuren mittels Motion Capturing zu digitalem Leben. Dieses neue Videospielerlebnis kann noch intensiver und mitreißender sein, weil es uns etablierte Hollywoodstars in fotorealistischer Qualität bietet und wir mit ihnen die Handlung erleben.
Was hältst Du von Digital Ira? Wo siehst Du neue Möglichkeiten in der Anwendung? Wir freuen uns auf Deine Kommentare.
Header-Bild: USC Institute for Creative Technologies