© iStock

Depth API: Google macht Augmented-Reality-Technologie öffentlich

Googles Cre­ative Lab hat eine Schnittstelle (API) veröf­fentlicht, mit der Pro­gram­mierende real­is­tis­chere Aug­ment­ed-Real­i­ty-Anwen­dun­gen entwick­eln kön­nen. Die Google Depth API erken­nt Räume, die eine Smart­phone-Kam­era ein­fängt. AR-Objek­te kön­nen dann in diesen Räu­men platziert wer­den und mit realen Gegen­stän­den inter­agieren.

Ab sofort kannst Du auf Deinem Android-Smart­phone die neuesten Entwick­lun­gen aus der AR-Tech­nolo­gie testen. Arcore, Googles Entwick­ler­plat­tform für erweit­erte Real­itäten, hat die Depth API veröf­fentlicht. Damit kön­nen Apps und Anwen­dun­gen pro­gram­miert wer­den, bei denen dig­i­tale und materielle Real­itäten bess­er miteinan­der ver­schmelzen. So kannst Du es mit dieser Tech­nolo­gie beispiel­sweise in Deinem Zim­mer schneien lassen, wobei der Schnee auf Deinen Möbeln liegen bleibt. Oder Du legst einen Tex­turen­fil­ter über Deine Ein­rich­tung. Auch AR-Games, die die Umge­bung mitein­beziehen, wer­den damit real­is­tis­ch­er.

Kollisionen und Okklusionen mit der Depth API

Dir ist bei bish­eri­gen AR-Apps, wie etwa Poké­mon Go, sich­er schon aufge­fall­en, dass dig­i­tale Objek­te und Fig­uren auf Deinem Smart­phone-Dis­play zwar vor dem realen Hin­ter­grund erscheinen, aber nicht richtig „fest­gewach­sen“ sind. Die virtuellen Gegen­stände scheinen eher in der Luft zu schweben, als echte Bestandteile der Umwelt zu sein.

Das soll jet­zt mit der neuen Soft­ware Depth API der Ver­gan­gen­heit ange­hören. Mit Hil­fe unter­stützter Smart­phone-Kam­eras kann diese Soft­ware soge­nan­nte Depth Maps aus der gefilmten Umge­bung erzeu­gen. Depth Maps machen Ent­fer­nun­gen und Tiefen in drei­di­men­sion­alen Räu­men sicht­bar. Dafür bekom­men einzelne Punk­te im Raum bes­timmte Farbtöne zugewiesen, es entste­hen „drei­di­men­sion­ale Pix­el“. Die durch Kam­er­abilder aus unter­schiedlichen Per­spek­tiv­en zusam­menge­fügte Raumkarte wird als Grund­mod­ell für die AR-App genutzt.

GigaCube

Das Ergeb­nis dieser Depth API ist, dass virtuelle Objek­te nun fest im Raum ste­hen und von echt­en Gegen­stän­den verdeckt wer­den (Occlu­sion). Bewe­gen sich die Objek­te, kön­nen sie mit den echt­en Begren­zun­gen und Hin­dernissen aneinan­der­prallen (Col­li­sion), als wären sie tat­säch­lich im Raum. In einem Testvideo kann man eine com­put­er­gener­ierte Katze sehen, die ver­schwindet, sobald sich ein Ein­rich­tungs­ge­gen­stand ins Sicht­feld schiebt.

Lass die Augmented Dominos fallen

Eine App, mit der Du Googles-AR-Fortschritte im Bere­ich Depth API testen kannst, ist Lines of Play für Android. Hier stellst Du dig­i­tale Domi­nos­teine in Dein­er Umge­bung auf, bildest daraus Ket­ten und stößt diese dann der Rei­he nach um. Ste­ht einem Stein etwas im Weg, bleibt er an diesem Hin­der­nis hän­gen. Bei einem ersten kurzen Test in der Redak­tion haben die Fea­tures Occlu­sion und Col­li­sion lei­der nicht ganz wie bewor­ben funk­tion­iert, deshalb sind wir auf Deine Ergeb­nisse ges­pan­nt! Der Quell­code der App ist auf Github frei ein­se­hbar, so dass Pro­gram­mierende die Tech­nolo­gie weit­er­en­twick­eln kön­nen.

Eine weit­ere App, mit der Du prak­tis­che Ein­blicke in die Fortschritte der AR-Tech­nolo­gien bekommst, ist Arcore Ele­ments. Hier­mit kannst Du eine virtuelle Plat­tform auf eine reale Ober­fläche Dein­er Wahl stellen und ver­schiedene AR-Funk­tio­nen aus­pro­bieren. So kannst Du beispiel­sweise testen, wie sich die virtuellen Objek­te verän­dern, wenn Du das Licht im Zim­mer änder­st. Oder Du pro­bierst aus, wie sich Gegen­stände ver­schieden­er Gewicht­sklassen per Touch­s­teuerung in der Aug­ment­ed Real­i­ty bewe­gen lassen.

Was sind Deine Erfahrun­gen mit Smart­phone AR? Wie funk­tion­ieren die Google-Depth-API-Apps bei Dir? Schreib uns Deine Erfahrun­gen in die Kom­mentare!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Dich auch interessieren