Facebook Reality Labs: Forschungseinblicke in die Arbeit an lebensechten Avataren

Die Faceboook Reality Labs haben eine neue einjährige Blog-Serie gestartet, in welcher sie schrittweise Einblicke in die Forschungsarbeit der AR- und VR-Entwicklungsabteilen geben. Der erste Blog-Eintrag beschäftigt sich mit den lebensechten Avataren des Teams in Pittsburgh. Darin wird die Codec-Avatar-Technologie vorgeführt, welche Echtzeitgespräche dank lebensechter Alter Egos in virtuellen Gefilden ermöglichen soll.

Facebook Reality Labs – Lebensechte Avatare für AR und VR

Die Codec-Avatar-Technologie soll zukünftig innerhalb von sozialen VR-Umgebungen Grenzen überwinden. Dank lebensechten Avataren wird die Kommunikation im virtuellen Raum in Echtzeit ermöglicht, wodurch kein Unterschied mehr zwischen Gespräch von Angesicht zu Angesicht gegenüber digitalem Treffen entstehen soll. Möglich macht dies eine 3D-Capture-Technologie in Kombination mit KI-Systemen. Um diese Zukunftstechnologie umzusetzen, arbeitet das Pittsburgh-Team der Facebook Reality Labs an der Fortentwicklung der zukunftsträchtigen Repräsentation in der VR.

So schreiben die Verantwortlichen im eigenen Blog:

Codec-Avatare sind heute noch ein aktives Forschungsprojekt, aber es könnte die Art und Weise, wie wir uns morgen über VR-Headsets und AR-Brillen verbinden, radikal verändern. Es geht nicht nur um hochmoderne Grafiken oder weiterentwickeltes Motion-Tracking. Es geht darum, die Interaktion mit anderen Menschen in der virtuellen Realität so natürlich und mühelos erscheinen zu lassen, so als würde die Person direkt vor dir stehen. Die größte Herausforderung besteht darin, authentische Interaktionen in künstlichen Umgebungen zu erzeugen.

Auch ein soziales Präsenzgefühl muss dabei zum Tragen kommen, um eine realistische Kommunikation zu gewährleisten. Um dieses erfolgreich umzusetzen, setzt das Team auf zwei Tests zur Erfüllung der Kriterien. Beim sogenannten “Ego-Test” muss die jeweilige Person in der Selbstwahrnehmung mit seinem digitalen Ebenbild zufrieden sein, um sich damit zu identifizieren. Im zweiten Schritt, dem “Mutter-Test”, muss das Alter Ego derartig realistisch sein, sodass selbst die Mutter der Person mit dem Avatar komfortabel, authentisch und uneingeschränkt kommunizieren würde, genauso wie im echten Leben. Die Fremdwahrnehmung des Avatars muss also ebenso überzeugen. Das Vorbild für soziale Kommunikation innerhalb der VR ist nach wie vor das sogenannte “Holodeck” bekannt aus der Sci-Fi-Serie Star Trek.

Die Codec-Avatare sollen diesem Ziel einen gewaltigen Schritt näherkommen, um das vorgelegte Ziel langfristig zu erreichen:

Das wahre Potenzial von Augmented Reality und Virtual Reality ist, dass es uns Zeit mit wem auch immer wir wollen verbringen lässt und sinnvolle Beziehungen aufbauen kann, unabhängig davon, wo Menschen leben.

Dafür müssen selbst die kleinsten Mikrobewegungen und Mimiken, die einen Menschen ausmachen erfasst werden. Der Schlüssel zur realistischen Umsetzung liegt in der Erfassung von jeglichen physischen Details und Eigenarten der Individuen.

Um dies zu ermöglichen, setzt das Forschungsteam derzeit auf komplexe Aufnahmestudios mit zahlreichen Kameras, Mikrofonen und weiterer Hardware zum En- und Decodieren. Während eines der Studios alleine für die Aufnahmen der Gesichter genutzt wird (siehe Titelbild), ist das Zweite für Körperaufnahmen zuständig.

Facebook-Reality-Labs-Codec-Avatar-social-VR-lifelike

Image courtesy: Facebook Reality Labs

Dabei werden dreidimensionale Profile der jeweiligen Personen erstellt, die enorme Datenmengen erzeugen. Pro Kamera werden 1 GB pro Sekunde aufgezeichnet, um die zahlreichen subtilen Bewegungen der Testpersonen zu erfassen. Die aufgezeichneten Daten sollen KI-Systemen dabei helfen, zukünftig leichter und schneller zu arbeiten. Langfristig sollen jedoch auch tragbare VR-Brillen imstande sein, die realistischen Avatare aufzunehmen und zu erzeugen.

Die Technologie ist bei Weitem noch nicht ausgereift und benötigt laut Verantwortlichen noch mehrere Jahre, bis sie für den Endkonsumentenmarkt geeignet ist. Dennoch arbeitet das Facebook-Team derzeit kontinuierlich an einer möglichen Umsetzung.

Neben den technischen Herausforderungen stehen zudem auch ethische Komplikationen, wie beispielsweise die Nutzung für Deepfakes zur Diskussion. Um ein derartiges Ausnutzen der Technologie zu verhindern, werden derzeit Diskussionen über Sicherheitssysteme durch Authentifizierung für die lebensechten Avatare geführt. Dadurch würden die digitalen Alter Egos personalisiert und wären nur von den tatsächlichen Besitzern nutzbar.

(Quellen: Facebook Reality Labs | Oculus)

Der Beitrag Facebook Reality Labs: Forschungseinblicke in die Arbeit an lebensechten Avataren zuerst gesehen auf VR∙Nerds. VR·Nerds am Werk!

Oculus: Beta-Update für expressive Avatare erscheint in Kürze

Auf der Oculus Connect 5 kündigte Oculus die Überarbeitung des Avatar-Systems an und versprach realistische und expressive Avatare für die Home-Umgebung und VR-Erfahrungen. Nun soll das versprochene Feature in Form eines Beta-Updates in naher Zukunft veröffentlicht werden. Das Update sorgt für eine menschlichere Mimik dank einer Simulation von Augenbewegungen sowie einer Überarbeitung der Lippensynchronisation.

Oculus – Beta-Update für expressive Avatare erscheint in Kürze

Die virtuelle Oculus-Umgebung wird menschlicher. Zumindest die Avatare, denn ein neues Beta-Update verspricht eine Überarbeitung der digitalen Ebenbilder für mehr Realismus und Ausdrucksstärke.

So erhalten die Alter Egos erstmals echte Augen anstelle von Sehhilfen und dazugehörige Augenbewegungen. Die bisherigen Sonnenbrillen, VR-Brillen oder futuristischen Objekte im Gesicht werden nun durch Augäpfel mit Pupillen ersetzt. Dabei basieren die dazugehörigen Blicke und Bewegungen auf menschlichem Verhalten, wodurch eine realistischere Simulation erzeugt werden soll. Mit Mikrosakkaden und ballistischen Blickwechseln verfolgen die virtuellen Alter Egos zukünftig nicht nur ihren Gegenüber, sondern auch Objekte im Raum. Den VR-Devs wird in der Nutzung freigestellt, welche Objekte zukünftig verfolgt werden sollen.

Oculus-expressive-avatar

Image courtesy: Oculus | via: UploadVR

Auch die Lippensynchronisierung erhält eine Komplettüberarbeitung. Entsprechend orientiert sich der Mund beim Sprechen zukünftig nicht mehr an der Lautstärke, sondern setzt auf eine maschinelle Lerntechnologie zur Umsetzung der Worte. Dadurch soll ebenso wie bei den Augen ein menschenähnliches Sprechverhalten simuliert werden. Um dies überzeugend umzusetzen, kommen zudem Mikrogesichtsexpressionen sowie individuelle Muskelbewegungen in der Mimik zur Geltung.

Die neuen Optionen werden ebenso im Editor angepasst. Die Nutzer erhalten die neuen Möglichkeiten ihre Lippenform, Augen, Augenbrauen sowie Wimpern nach eigenem Belieben anzupassen.

Das neue Beta-Update steht zunächst nur für VR-Entwickler zur Verfügung. Die Veröffentlichung für Rift-Nutzer soll zu einem späteren Zeitpunkt erscheinen.

(Quellen: Upload VR | Oculus Forum | Video: UploadVR YouTube)

Der Beitrag Oculus: Beta-Update für expressive Avatare erscheint in Kürze zuerst gesehen auf VR∙Nerds. VR·Nerds am Werk!

Artie: AR-Start-up zur Entwicklung von KI-gestützten Avataren

Armando Kirwin und Ryan Horrigan gründeten kürzlich das neue AR-Start-up Artie zur Entwicklung von KI-gestützten Avataren für AR-Apps.

Artie – AR-Start-up zur Entwicklung von KI-gestützten Avataren für die Augmented Reality

Die AR offenbart zahlreiche Anwendungsfelder und Möglichkeiten zur Revolutionierung dieser und wird von vielen als das Medium der Zukunft angesehen. Die beiden Veteranen in immersivem Storytelling, Armando Kirwin (vorher Producer bei Milk VR und VRSE.Works) und Ryan Horrigan (ehemaliger chief content officer bei Felix & Paul), gründeten nun ein neues Start-up, um durch die der Fortentwicklung von Avataren sowohl in AR wie auch in VR neue Standards zu erreichen.

Derzeit wirken die digitalen Alter Egos noch teilweise recht starr, auch wenn diverse Projekte bereits an der Weiterentwicklung von Mimik und Gestik arbeiten. Dank KI sollen sich die virtuellen Ebenbilder zukünftig deutlich lebensechter anfühlen, wie Horrigan in einem Interview mit Variety beschreiben:

VR und AR sind die ersten Medien, in denen man Teil der Geschichte sein kann. Aber man kann nicht mit Charakteren reden. Du kannst keine menschlichen Interaktionen mit ihnen haben. Wir dachten, das sei ein großes Problem.”

Deshalb entwickeln sie die Wonderfriend Engine, mit der es Entwicklern zukünftig möglich sein wird, interaktive Avatare für mobile AR-Erfahrungen bereitzustellen. Dabei sollen diese Objekte erkennen, Sprache unter natürlichen Aspekten verarbeiten und reproduzieren sowie darauf aufbauend, lebensechte Interaktionen bereitstellen. Die Software ist mit derzeitigen Echtzeitrenderverfahren wie Unity oder Unreal kompatibel.

Die neue Software soll innerhalb der nächsten Monate bereits über 30 verschiedene Emotionen erkennen und verarbeiten können. Diese Gefühle werden über die Analyse der Gesichtsmimik wahrgenommen. Zusätzlich ist sie derzeit bereits zur Unterscheidung von 80 verschiedenen Objekten in der Lage.

Artie-KI-AR

Mit Arties deep-learning Insights- und Analyse-Plattform können Entwickler zukünftig die Interaktion mit ihren Avataren in Echtzeit überwachen. Die Plattform erfasst sowohl das Nutzerverhalten, um neuronale Netzwerke zu steuern, wie auch die Leistung eines Avatars, im Laufe der Zeit automatisch zu trainieren und sich zu verbessern. Dadurch wird nachfolgenden Benutzern eine unterhaltsamere und realistischere Interaktion ermöglicht.”

Das Start-up erhält finanzielle Förderung durch diverse Unterstützer. Dazu zählen unter anderem Venture Reality Fund, WndrCo. und YouTube-Gründer Chad Hurley.

(Quellen: Road to VR | Variety | Video: Artie Vimeo)

Der Beitrag Artie: AR-Start-up zur Entwicklung von KI-gestützten Avataren zuerst gesehen auf VR∙Nerds. VR·Nerds am Werk!

Oculus Rift Beta-Update 1.30 und Crossplattform-Support für Avatar-System veröffentlicht

Oculus rollte gestern das neue Oculus Rift Beta-Update 1.30 aus, welche zahlreiche Verbesserungen mit sich bringt. So gibt es Optimierungen für Oculus Dash, Oculus Home sowie für die Oculus-Desktop-App. Außerdem stellt Oculus mit Release des SDKs 1.28 sein Avatar-System nun per Crossplattform-Support auch Entwickler/innen für andere VR-Plattformen zur Verfügung.

Oculus Rift Beta-Update 1.30 – Verbesserungen für Oculus Dash, Oculus Home und Oculus-Desktop-App

Oculus veröffentlichte das neue Update 1.30 für Oculus Rift auf dem Public Test Channel und verbessert mit zahlreichen Optimierungen die Nutzererfahrung der Anwender/innen.

OCULUS-Rift-Virtual-Reality-Headset

So werden einige neue Design-Updates für Oculus Dash implementiert, welche nicht nur optisch ansprechender wirken, sondern zudem die Navigation sowie das Management innerhalb der Menüs verbessern.

Neben der verbesserten Übersichtlichkeit gibt es nun den Reiter “Experimente”. Dieser ermöglicht die Nutzung neuer Features und kommenden Neuerungen. Dazu zählt beispielsweise das Anlegen einer virtuellen Armbanduhr an eurem linken Handgelenk, die euch in verschiedenen virtuellen Umgebungen die Zeit anzeigt.

Zudem wird eine viel gewünschte Änderung umgesetzt: Das Oculus-Menü öffnet sich nun nur noch beim längerem Gedrückthalten der Taste und kann dadurch nicht mehr versehentlich erscheinen.

Auch Oculus Home wird optimiert. Entsprechend gibt es eine neue sommerliche Einrichtung mit zehn tropischen Einrichtungsgegenständen, um die heißen Tage auch virtuell zu unterstreichen. Auf technischer Seite wird das Streamen von Desktop-Inhalten verbessert, indem nun mehr Grafikkarten die Funktion unterstützen. Zudem werden die Tutorials angepasst.

In der Oculus-Desktop-App ist es nun möglich, Apps aus unbekannten Quellen einfacher zu installieren. Wenn diese nicht direkt nach dem Import nicht erkannt werden, können sie nun per Hand in die Software-Bibliothek eingefügt werden.

Die gesamten Patch Notes finden sich hier.

Das neue Update 1.30 ist für alle Besitzer/innen einer Oculus Rift verfügbar, die am Beta-Programm teilnehmen.

Oculus – Crossplattform-Support für Oculus-Avatar-System veröffentlicht

Neben dem neuen Update gibt Oculus zudem mit dem Release des SDKs 1.28 sein Avatar-System für Devs frei. Dadurch können zukünftig Entwickler/innen von VR-Erfahrungen für HTC Vive oder Windows-VR-Brillen auf die Oculus-Avatare zugreifen und in ihre VR-Werke integrieren.

Derzeit stellt Oculus insgesamt 12 verschiedene Default-Avatare zur Verfügung. Zusätzliche Modelle sollen laut Angaben der Verantwortlichen in naher Zukunft folgen.

Weitere Informationen über die Bereitstellung des Avatar-Systems finden sich hier.

(Quellen: Oculus Blog: Oculus Rift 1.30 | Oculus Blog: Oculus-Avatare)

Der Beitrag Oculus Rift Beta-Update 1.30 und Crossplattform-Support für Avatar-System veröffentlicht zuerst gesehen auf VR∙Nerds. VR·Nerds am Werk!

Facebook F8: Oculus präsentiert fotorealistische Avatare

In der zweiten Keynote auf der F8 präsentierte Facebooks CTO Mike Schroepfer interessante Fortschritte in der Darstellung virtueller Avatare in der sozialen VR-Erfahrung Facebook Spaces. So arbeitet das Unternehmen derzeit an einer Möglichkeit, um ein fotorealistisches Ebenbild des eigenen Gesichts in die VR zu übertragen und diesem mit Mimik und Gestik Leben einzuhauchen.

Oculus – Neue VR-Technologien sollen zukünftig fotorealistische Ebenbilder in die VR übertragen

Oculus arbeitet stetig an der Weiterentwicklung der VR-Technologie, um das Medium eines Tages zu einem wichtigen Hauptkommunikationskanal zu befördern. Dadurch wäre es möglich, ohne große Kosten und Aufwand direkt mit anderen Personen in Kontakt zu treten. Sei es für privates Vergnügen oder zu Arbeitszwecken, die Möglichkeiten wären nahezu unbegrenzt.

Diesem Unterfangen könnte Oculus bereits einen großen Schritt näherkommen, denn in der zweiten Keynote auf der F8 präsentierte der technische Leiter Mike Schroepfer Einblicke in die derzeitige Arbeit des Unternehmens. In der Präsentation stellte er die Entwicklung der Avatare in Facebook Spaces vor, die sich im Laufe der Zeit von einem blauen menschenähnlichen Kopfgerüst zu comichaften Ebenbildern entwickelten.

Der nächste Evolutionsschritt liegt im fotorealistischen Übertrag des eigenen Gesichts sowie der dazugehörigen Mimik und den passenden Lippenbewegungen in die VR. In einem Video stellt er die Früchte der Arbeit vor, durch die eine neue Technologie entstand, welche es zwei Mitarbeitern von Oculus mit einer Oculus Rift erlaubt, durch fotorealistische digitalisierte Abbilder in Echtzeit miteinander zu sprechen. Sowohl die Mundbewegungen wie auch das Zwinkern mit den Augen wirken dabei sehr realistisch.

Wie Oculus diesen Übertrag bewerkstelligt, wann die neue VR-Technologie in Einsatz tritt sowie die nötigen Hardware-Voraussetzungen, ließ der Redner noch offen. Dennoch wirkt die Präsentation schon beeindruckend und wir können gespannt sein, welche weiteren Fortschritte uns in der Entwicklung der VR auch zukünftig erwarten.

Die komplette Keynote befindet sich hier.

(Quellen: Upload VR | Facebook Day 2 Keynote | Video: VR Focus Youtube)

Der Beitrag Facebook F8: Oculus präsentiert fotorealistische Avatare zuerst gesehen auf VR∙Nerds. VR·Nerds am Werk!

MWC 2018: Digitale Tänzerin Zena setzt neue Maßstäbe für AI-Avatare

Das VR-Studio Reality Reflection stellte in Kooperation mit dem Studio 3Lateral auf dem Mobile World Congress 2018 ihre digitale Tänzerin Zena vor, die dank weiterentwickelten Technologien im Bereich des fotorealistischen Renderings, 3D-Scannings und Bildkompression neue Maßstäbe in der Darstellung realitätsgetreuer Avatare setzen will. Die Präsentation von Dancing Zena zeigt rhythmische Tanzbewegungen des AI-Avatars zur Musik einer K-Pop-Band in 90 FPS.

Zena als Vorbild für kommende VR-Avatare

Eine Kooperation zwischen Reality Reflection und 3Lateral sorgte mit Dancing Zena für eine beeindruckende Vorstellung auf dem MWC 2018 in Barcelona. Der digitale AI-Avatar tanzte auf der Fachmesse zur Musik einer K-Pop-Band und überzeugte mit nahezu realistischen Animationen.

Zena weist detaillierte Gesichtsausdrücke, eine feine Darstellung der menschlichen Haut sowie glaubhafte und flüssige Bewegungen im Rhythmus der Musik auf. Zudem ist die virtuelle Tänzerin dank Eye-Tracking in der Lage, Blickkontakt mit dem Gegenüber aufzunehmen, wodurch sich das immersive Erlebnis steigern lässt.

Zur Darstellung von Zena verwendete Reality Reflection ihre eigene 3D-Scanning-Technologie, um über 80 verschiedene Gesichtsausdrücke und 300 unterschiedliche Bewegungen aufzunehmen und vom VR-Avatar in 90 FPS umsetzen zu lassen. Die auf Charaktererstellung spezialisierten Experten von 3Lateral (unter anderem bekannt für ihre Arbeit an Horizon: Zero Dawn und Batman: Arkham VR) waren dabei für das Modelling und die natürlichen Bewegungen der Tänzerin zuständig. Die Präsentation von Dancing Zena basiert auf der Unreal Engine.

Das Ziel der gemeinsamen Arbeit ist es, das sogenannte Uncanny Valley (eine Akzeptanzlücke von Zuschauern gegenüber künstlichen Figuren) trotz realistischer AI-Avatare zu überwinden. Das hätte massive Auswirkungen auf die Darstellung von VR-Avataren sowie auf die CGI-Technologie.

Die derzeitige Vorstellung von Zena zeigt, wie sich die VR-Technologie zukünftig weiterentwickeln kann. Wir sind gespannt, welche weiteren Fortschritte die Kooperation zukünftig präsentiert.

(Quellen: VR Focus | Video: Reality Reflection Youtube)




Der Beitrag MWC 2018: Digitale Tänzerin Zena setzt neue Maßstäbe für AI-Avatare zuerst gesehen auf VR∙Nerds. VR·Nerds am Werk!