Digital Life
Depth API: Google macht Augmented-Reality-Technologie öffentlich
Googles Creative Lab hat eine Schnittstelle (API) veröffentlicht, mit der Programmierende realistischere Augmented-Reality-Anwendungen entwickeln können. Die Google Depth API erkennt Räume, die eine Smartphone-Kamera einfängt. AR-Objekte können dann in diesen Räumen platziert werden und mit realen Gegenständen interagieren.
Ab sofort kannst Du auf Deinem Android-Smartphone die neuesten Entwicklungen aus der AR-Technologie testen. Arcore, Googles Entwicklerplattform für erweiterte Realitäten, hat die Depth API veröffentlicht. Damit können Apps und Anwendungen programmiert werden, bei denen digitale und materielle Realitäten besser miteinander verschmelzen. So kannst Du es mit dieser Technologie beispielsweise in Deinem Zimmer schneien lassen, wobei der Schnee auf Deinen Möbeln liegen bleibt. Oder Du legst einen Texturenfilter über Deine Einrichtung. Auch AR-Games, die die Umgebung miteinbeziehen, werden damit realistischer.
Kollisionen und Okklusionen mit der Depth API
Dir ist bei bisherigen AR-Apps, wie etwa Pokémon Go, sicher schon aufgefallen, dass digitale Objekte und Figuren auf Deinem Smartphone-Display zwar vor dem realen Hintergrund erscheinen, aber nicht richtig „festgewachsen“ sind. Die virtuellen Gegenstände scheinen eher in der Luft zu schweben, als echte Bestandteile der Umwelt zu sein.
Das soll jetzt mit der neuen Software Depth API der Vergangenheit angehören. Mit Hilfe unterstützter Smartphone-Kameras kann diese Software sogenannte Depth Maps aus der gefilmten Umgebung erzeugen. Depth Maps machen Entfernungen und Tiefen in dreidimensionalen Räumen sichtbar. Dafür bekommen einzelne Punkte im Raum bestimmte Farbtöne zugewiesen, es entstehen „dreidimensionale Pixel“. Die durch Kamerabilder aus unterschiedlichen Perspektiven zusammengefügte Raumkarte wird als Grundmodell für die AR-App genutzt.
Das Ergebnis dieser Depth API ist, dass virtuelle Objekte nun fest im Raum stehen und von echten Gegenständen verdeckt werden (Occlusion). Bewegen sich die Objekte, können sie mit den echten Begrenzungen und Hindernissen aneinanderprallen (Collision), als wären sie tatsächlich im Raum. In einem Testvideo kann man eine computergenerierte Katze sehen, die verschwindet, sobald sich ein Einrichtungsgegenstand ins Sichtfeld schiebt.
Lass die Augmented Dominos fallen
Eine App, mit der Du Googles-AR-Fortschritte im Bereich Depth API testen kannst, ist Lines of Play für Android. Hier stellst Du digitale Dominosteine in Deiner Umgebung auf, bildest daraus Ketten und stößt diese dann der Reihe nach um. Steht einem Stein etwas im Weg, bleibt er an diesem Hindernis hängen. Bei einem ersten kurzen Test in der Redaktion haben die Features Occlusion und Collision leider nicht ganz wie beworben funktioniert, deshalb sind wir auf Deine Ergebnisse gespannt! Der Quellcode der App ist auf Github frei einsehbar, so dass Programmierende die Technologie weiterentwickeln können.
Eine weitere App, mit der Du praktische Einblicke in die Fortschritte der AR-Technologien bekommst, ist Arcore Elements. Hiermit kannst Du eine virtuelle Plattform auf eine reale Oberfläche Deiner Wahl stellen und verschiedene AR-Funktionen ausprobieren. So kannst Du beispielsweise testen, wie sich die virtuellen Objekte verändern, wenn Du das Licht im Zimmer änderst. Oder Du probierst aus, wie sich Gegenstände verschiedener Gewichtsklassen per Touchsteuerung in der Augmented Reality bewegen lassen.
Was sind Deine Erfahrungen mit Smartphone AR? Wie funktionieren die Google-Depth-API-Apps bei Dir? Schreib uns Deine Erfahrungen in die Kommentare!