Unreal Engine 4.18 mit nativer ARKit- und ARCore-Unterstützung

Für Entwickler steht das Update 4.18 der Unreal Engine von Epic Games zur Verfügung. Die wichtigste Neuerung für AR-Entwickler ist die native Unterstützung der Augmented-Reality-Lösungen ARKit von Apple und ARCore von Google. Insgesamt fast 100 Verbesserungen soll die Spiele-Entwicklungsumgebung mit dem Update erhalten.

Unreal Engine 4.18 mit fast einhundert Neuerungen

Bisher gab es in der Spiele-Entwicklungsumgebung Unreal Engine nur einen experimentellen Support der Augmented-Reality-Lösungen von Apple und Google, die jetzt erschienene Version 4.18 unterstützt hingegen ARKit und ARCore nativ. Besonders umfangreich fällt dabei der neue ARKit-Support aus. Die Änderungen zur experimentellen Unterstützung in der Version 4.17 seien so signifikant, dass Entwickler AR-Projekte auf die neue Version updaten müssten, um sie dort bearbeiten zu können.

Allerdings gibt es auch noch einige Baustellen, wie Jeff Wilson von Epic Games in seinem umfangreichen Blogbeitrag zum Update schreibt: Beispielsweise unterstützt die Unreal Engine derzeit lediglich die horizontale Ausrichtung des iOS-Devices.

Neben den AR-Updates hält die neue Version etliche neue weitere Funktionen bereit, genau 98 sollen es sein. Dazu gehören zum Beispiel volumetrische Lightmaps und vorberechnete Nebel-Simulationen. Etliches hat sich zudem im Skeletal Mesh Editor getan, in dem man virtuelle Kleidung entwerfen und anpassen kann. Neben vielen anderen Erweiterungen und Überarbeitungen hat Epic Games die Malwerkzeuge mächtiger gestaltet. Mit ihnen können Entwickler jetzt direkt auf dem Mesh der Kleidung zeichnen. Wem der Blog-Beitrag noch nicht umfangreich genug ist, findet weitere detaillierte Informationen im Forum zur Unreal Engine.

(Quelle: Blog zur Unreal Engine)

Der Beitrag Unreal Engine 4.18 mit nativer ARKit- und ARCore-Unterstützung zuerst gesehen auf VR∙Nerds. VR·Nerds am Werk!

Behind the Scenes at The VR Society’s VR On The Lot Conference

Oculus may have dominated the news this week thanks to its fourth annual Oculus Connect 4 (OC4) event, but that’s not to say it was the only one happening this week. Taking a broader look at the virtual reality (VR) and augmented reality (AR) industries is The VR Society’s second staging of VR On The Lot, which began yesterday and ends today. 

VRFocus being the dedicated team to cover all immersive technology that it is decided to venture to VR On The Lot as OC4 had closed, venturing round to see the latest tech on offer on the show floor and to checkout some of the sessions taking place.

To take a sneak peek at what was going on check out the recap video below, then come back later to see what VRFocus  uncovered.

Epic Games Begin Roll out of Unreal Engine 4.18 Preview 1

Continuing its regular roll outs of updates for Unreal Engine 4, Epic Games has now made the first preview available for version 4.18, which includes support for iOS 11 and augmented reality (AR).

When Apple unveiled ARKit back in June Epic Games added early access support through a GitHub download link, with Unreal Engine 4.18 Preview 1 that support is now featured directly in the videogame engine rather than externally. This also goes for Google’s ARCore which had a similar early access release before proper integration.

ARCore Tinman

Detailing the update on the Unreal Engine forum, the studio states: “We’ve released the first portion of our unification of the base functionality between Apple’s ARKit and Google’s ARCore developer preview. We’ll continue to grow and mature these APIs, but in the beginning, passthrough cameras and camera control and synching have been unified, and are built on top of our new shared XR engine layer.”

The Unified XR Engine Layer is the second major inclusion for 4.18 Preview 1. “We’ve created a shared XR layer in the engine to support VR and AR Systems so that all existing system plugins now build upon the default camera implementation for both Camera Components and camera passthrough view,” explains the studio. “This not only makes behavior more consistent between VR and AR platforms, but should help simplify hardware developers adding support for their platforms to UE4.

As with any preview release Epic Games always notes that: “Developers should not convert their projects for active development on preview releases,” as these releases aren’t fully quality tested like the final version.

AR has certainly had a boost with the roll out of ARKit and ARCore, especially with iOS 11 recently launching so that consumers can start playing the latest AR titles on their iPhones and iPads. Unreal Engine rival Unity announced full support yesterday for Apple’s operating system, so expect plenty more content to be arriving in the months to come.

VRFocus will continue its coverage of Unreal Engine, reporting back with the latest updates.

Epic Games Talk VR At Austin Game Conference

More than 100 guest speakers will be addressing the audience at the Austin Game Conference, speaking on various aspects of the videogame industry. One of the featured speakers will be representatives from Epic Games, creators of Unreal Engine, one of the most popular engines for creating virtual reality (VR) experiences.

Joe Kreiner of Epic Games will be participating in the panel ‘How Best to Work With A Publisher’, which is due to take place on 21st September at 4:30pm. Also on the panel will be VP of Publishing at Aspyr Media Elizabeth Howard, Gordon Walton of Craft Entertainment, Jared Yaeger of FoxNext Games and Steve Escalalnte of Versus Evil.

“Austin is an important hub for the gaming industry and Epic is proud to support the Austin Game Conference yet again in 2017,” said Kreiner. “By sharing our collective wisdom and war stories, this panel will deliver important takeaways on establishing proper expectations for publishing partnerships while exploring what can go wrong with publisher deals and how to minimize those risks.”

Epic Games logo

For attendees who are interested in Epic Games’ VR and AR projects, Partnership Manager for VR and AR Chance Ivey will also be in attendance at the Epic Games booth along with Community Manager Amanda Bott and Unreal Engine Developer Relations Tech Artist Zak Parrish who will be offering live demonstrations and discussions.

The Austin Game Conference will take place on 21st-22nd September at the Austin Convention Centre. Further information can be found on the official website.

VRFocus will continue to report on VR-related events.

Unreal Engine 4.17 Brings Improvements For VR

The latest version of the popular Unreal Engine is bringing in several improvements aimed at developers of virtual reality (VR) titles. Most of the changes are concerned with the different camera types and perspectives.

The first improvement to be introduced in Unreal Engine 4.17 for VR developers is the Spectator Screen Support for Oculus Rift, HTC Vive and PlayStation VR. The spectator screen is what would be regarded as the ‘normal’ output device for non-VR titles, usually a monitor or TV. The spectator screen function means that when one player is using the head mounted display (HMD) other people can watch or interact with what is going on using the TV or monitor.

The new update allows any texture, including render targets or UI elements to be sent to the spectator screen in addition to, or instead of, the view displayed in the headset.

PC and PlayStation VR platforms will support this function, mobile will largely not.

Unreal Engine 4 VR Editor

Another camera-related improvement is the VR Mode Camera Previews. In this, selecting a camera in a scene, or a character that acts as a camera viewpoint, will give the developer an in-world preview of what that camera can see. This view can be pinned similarly to the desktop camera preview.

A number of ‘quality of life’ minor improvements have also been included, such as an option to allow developers to disable the auto-minimise feature on the Play-in-Editor when using VR Preview.

Full information on the changes and improvements to Unreal Engine 4.17 can be found in the official patch notes.

VRFocus will continue to report on developments and improvements in VR tools and technology.

Octosense: Echtzeit-Shading für AR soll Konsolengrafik auf Smartphones ermöglichen

Googles Tango und vor allem Apples ARKit dürften Augmented Reality auf dem Smartphone die nächste Zeit vorantreiben. Allerdings sind die grafischen Möglichkeiten auf der mobilen Hardware beschränkt. Hier sollen Entwicklungen von Octosense sichtbare Verbesserungen bringen. Die Firma verspricht, durch ihr entwickeltes Echtzeit-Shading AR-Inhalte in einer Qualität darstellen zu können, wie man sie in der aktuellen Konsolen-Generation findet.

Octosense verspricht superbe AR-Grafikqualität auf Smartphones

Deve Ouazanan, der CEO von Octosense, spricht von einem erstaunlichen Fortschritt, den sein Team im AR-Bereich gemacht habe. Man sei auf dem Weg, den ersten realistischen digitalen persönlichen Assistenten zu entwickeln und er spricht von der nächsten Generation der Mixed Reality, die man derzeit in der Mache habe.

Einen wichtigen Schritt zum realistischeren AR-System auf mobiler Hardware hat laut VRFocus das Unternehmen mit seinem Echtzeit-Shading-Produkt unternommen. Das jetzt erhältliche System soll es erlauben, auf bestehender Smartphone-Hardware realistisch aussehende AR- und MR-Inhalte in Echtzeit darzustellen. Der Detailreichtum soll sogar an Grafiken von Desktop-PCs und aktuellen Konsolen heranreichen. Dabei soll die Lösung von Octosense bei 3D-Augmented-Reality-Inhalten weniger Rechenleistung als heute typische 3D-Grafik auf Smartphones benötigen.

Tracking-Lösung mit nur einer Kamera

Eine zweite Technologie von Octosense ist ein Tracking-System, das ohne Marker auskommt. Zudem benötigt die Lösung nicht unbedingt eine zweite Kamera für die Tiefeninformationen, sondern soll auch mit einer einzelnen üblichen Smartphone-Kamera gute Ergebnisse liefern. Das Tracking kann die Bewegung des Smartphones sowie passende Bereiche erkennen. Somit lassen sich Objekte festpinnen und die Software kann die Illusion erwecken, dass AR-Inhalte dynamisch auf die Umwelt reagieren. Neu ist das allerdings nicht, Apples ARKit beherrscht den gleichen Trick. Ob die Lösung von Octosense noch eine Schippe auf ARKit drauflegen kann, muss derzeit offen bleiben.

Das System ist kompatibel mit Windows, Android und iOS, außerdem unterstützt Octosense die Entwicklerplattformen Unity und die Unreal Engine. Einen Preis für die Lösung nennt das Unternehmen auf seiner Webseite nicht.

(Quelle: VRFocus)

Werbung für Virtual Reality Hygiene

Der Beitrag Octosense: Echtzeit-Shading für AR soll Konsolengrafik auf Smartphones ermöglichen zuerst gesehen auf VR∙Nerds. VR·Nerds am Werk!

Unreal Engine 4.17 Adds VR Spectator Screen, ARKit Support

Unreal Engine 4.17 Adds VR Spectator Screen, ARKit Support

Epic Games’ Unreal Engine 4.17 update is here, and it’s got some great new features for VR and AR lovers.

Our personal favorite addition is the Spectator Screen for PC VR apps, which reminds us a little of the social screen feature seen on PlayStation VR. It allows people watching others play in VR to see not only what the VR user sees on a 2D display, but also interact within an experience where appropriate. Check it out in action in this video for Ghost Paint.

Sticking with VR, there are new VR mode camera previews. Put a virtual camera in place and bring up a screen to showcase what it captures, then move it around the world. A host of other VR fixes are also added in the update.

Perhaps more importantly, the update also adds experimental support for Apple’s new ARKit, the AR platform set to be introduced in the upcoming release of iOS11. Unreal Engine was powering the Wingnut AR demo we saw during ARKit’s reveal earlier this year, but now all Unreal developers can get to grips with it. We’re looking forward to seeing what developers do with the platform.

Update der Unreal Engine: Apples ARKit und Spectator für PC-Brillen

Epic Games hat die Spiele-Entwicklungsumgebung Unreal Engine in der Version 4.17 freigegeben. Sie enthält zahlreiche Neuerungen und Überarbeitungen. Beispielsweise unterstützt die Engine nun direkt Apples ARKit. Der Spectator Screen für PSVR, Oculus Rift und HTC Vive ermöglicht es, gleichzeitig Spieler in VR und am TV oder Monitor zu beschäftigen. Zudem spendiert Epic Games seiner Entwicklungsumgebung die VR Mode Camera Previews.

Unreal Engine mit ARKit-Suport und Spectator Screen

Apples ARKit begeistert die Entwickler: Ab Veröffentlichung von iOS 11 im Herbst sollen je nach Schätzung rund 300 Millionen Anwender auf einen Schlag mit ihren iPhones und iPads die mit dem Tool entwickelten Augmented-Reality-Apps nutzen können. Bereits auf Apples Pressekonferenz konnte man eine beeindruckende Demo von Wingnut AR begutachten. Kopf des AR-Start-ups ist der Regisseur Peter Jackson, der nach Erfolgen mit schrägen Horrorfilmen einem breiten Publikum durch die Verfilmung von Der Herr der Ringe bekannt wurde. Der Code von Wingnuts AR hat es denn auch ermöglicht, das Plug-in für die Unreal Engine zu entwickeln.

The Spectator Screen: Multiplayer in und außerhalb VR

Neuigkeiten gibt es auch für Spieleentwickler für die PSVR, HTC Vive und Oculus Rift. Der Spectator Screen ermöglicht es, bei Multiplayer-Sessions VR-Headsets und normale Monitore oder TVs zu mischen. Die PlayStation VR (PSVR ) beherrschte das schon zu Beginn, die Unreal Engine unterstützt aber ebenfalls den Modus für die Sony-Konsole. Dabei können zusätzliche Spieler auf dem Monitor entweder nur zuschauen oder selbst aktiv werden. Umgekehrt lässt sich das Headset ausschalten und die Erfahrung nur auf 2D ausgeben.

Die dritte große VR-Neuerung im Bunde sind die VR Mode Camera Previews. Dabei können Entwickler eine Kamera in einer Szene auswählen und in der Vorschau die Welt durch die Augen der Kamera sehen. Das funktioniert auch beispielsweise mit Objekten oder Charakteren, die eine Kamera enthalten. Die Vorschau lässt sich festpinnen und durch die Umgebung bewegen.

Eine ausführliche und reich bebilderte Beschreibung des Updates 4.17 liefert Eric Games in seinem Forum. Die Engine lässt sich auf der Seite des Herstellers herunterladen, für die nicht-kommerzielle Nutzung sowie kleinere Projekte fallen keine Kosten an.

(Quelle: VRFocus)

Der Beitrag Update der Unreal Engine: Apples ARKit und Spectator für PC-Brillen zuerst gesehen auf VR∙Nerds. VR·Nerds am Werk!

Epic Games’ Unreal Engine 4.17 Update Adds Experimental ARKit Support

During Apple’s Worldwide Developers Conference (WWDC) in San Jose, California a couple of months ago the company announced its first proper foray into augmented reality (AR) by unveiling ARKit. A demo was shown on stage that utilised Epic Games’ Unreal Engine 4, which was then followed by the studio announcing downloadable support for developers through GitHub. Now Epic Games has released its next iteration of its videogame development software, Unreal Engine 4.17, which now features experimental support for ARKit built in, as well as several virtual reality (VR) improvements.

That on stage demo – if you didn’t see it – was conducted and created by Wingnut AR, a studio founded by acclaimed director Peter Jackson, the man behind The Lord of the Rings. And it’s with Wingnut AR’s help that the ARKit plugin has been possible, all based on the code work by the team. As an experimental build, it allows developers to play around with the new feature set before official support arrives from Apple in iOS 11 later this year.

Wingnut AR 1

On the VR front Epic Games has added Spectator Screen support to the Oculus Rift and HTC Vive, whilst improving on the existing support for PlayStation VR.

“The Spectator Screen is the ‘normal’ output device connected to a VR device, usually a TV or a computer monitor. While one player uses the HMD, other people can observe or interact with the experience,” notes the Unreal Blog. “You can now draw any texture, including render targets or UI, to the Spectator Screen in addition to – or instead of – a view of what is being displayed in VR.”

PlayStation VR users have been able to use their TV screen as a means of local multiplayer since launch, with VR titles like The Playroom VR. Now developers working on Oculus Rift or HTC Vive titles should be able to do something similar, opening up more local gameplay possibilities.

The other big VR addition for studios is VR Mode Camera Previews. Now if a developer selects a camera in a scene, or an Actor that contains a camera like a character, they will get an in-world preview of what that camera sees. This preview can then be pinned and moved around the environment.

Head to the Unreal Engine blog for the entire changelog – which as always is massive. As ever, VRFocus will continue its coverage of Epic Games and Unreal Engine 4, reporting back with the latest updates.

SSR: Neue Rendertechnik von Oculus beschleunigt Performance

Mit der neuen Rendertechnik Stereo Shading Reprojection (SSR) will Oculus die Performance um bis zu 20 Prozent steigern und damit Grafikkarten deutlich entlasten. Laut Entwickler lässt sich die Technik leicht in Entwicklungsumgebungen wie Unity integrieren, aber auch der Einsatz mit der Unreal Engine soll nicht allzu schwierig sein.

SSR von Oculus: Bis 20 Prozent GPU-Entlastung

Neben sich steigender Hardware-Power kommt für VR auch den Rendertechniken eine entscheidende Bedeutung zu. Mit ihnen es ist möglich, die Auflösung zu steigern und einen realistischeren Bildeindruck zu schaffen. Die neue Stereo Shading Reprojection (SSR) genannte Technik greift besonders bei Szenen mit vielen Pixel-Shadern und kann bei GPU-Berechnungen bis zu 20 Prozent an Rechenzeiten einsparen. Der Trick: SSR nutzt aus, dass es trotz leicht unterschiedlicher Perspektive Gemeinsamkeiten zwischen den Bildern für das rechte und linke Auge gibt. Die Technik versucht nun, diese gemeinsamen Pixel in das Bild für das andere Auge zu übertragen, ohne dass alles von Grund auf neu berechnet werden muss. Unterschiedliche Pixel maskiert SSR aus.

SSR Stereo Shading Reprojection

Oculus hatte dabei gleich mehrere Herausforderungen zu meistern: Der Tiefeneindruck darf sich nicht vom normalen Rendering unterscheiden. Außerdem muss die Technik Pixel erkennen, die das eine Auge nicht sehen kann, aber das andere. Für reflektierende und glänzende Oberflächen, die stark blickwinkelabhängig sind, ist eine Back-up-Lösung erforderlich. Außerdem sollen in den Bildern keine auffallend sichtbaren Artefakte entstehen. Weiterhin sieht die Aufgabenliste der Entwickler vor, dass sich die Rendertechnik einfach in eigene Projekte integrieren lässt und gut zu traditionellen Engines passt. Am Schluss steht die Möglichkeit, das Stereo Shading Reprojection einfach dynamisch ein- und ausschalten zu können, je nachdem, ob die Technik etwas nutzt.

Wie das gelungen ist und ob sich SSR sinnvoll einsetzen lässt, kann man schon bald testen: Demnächst will Oculus den Beispiel-Code für Stereo Shading Reprojection für die Spiele-Entwicklungsumgebung Unity veröffentlichen. Noch mehr Details zu dem Thema verraten die Entwickler auf dem Oculus-Blog.

(Quelle: RoadToVR)

Der Beitrag SSR: Neue Rendertechnik von Oculus beschleunigt Performance zuerst gesehen auf VR∙Nerds. VR·Nerds am Werk!