Frau-bedient-auf-Smartwatch
Eine Frau wirft eine Flasche in den smarten Mülleimer Trashbot
Das Cockpit eines Teslas
:

Project Soli: Googles Mini-Radar für die nächste Generation der Gestensteuerung

Wie wäre das? Du drehst die Musik über einen unsicht­baren Regler lauter, schal­test das Licht mit ein­er leicht­en Hand­nei­gung aus und hörst Sprach­nachricht­en mit einem Fin­ger­schnips ab? Das klingt für Dich nach Hokus­pokus à la Har­ry Pot­ter? Beim Project Soli hat Google eine Radar-Tech­nolo­gie entwick­elt, die diese „magis­che“ Gesten­s­teuerung möglich macht.

Mehr als drei Jahre ist es her, dass Google bei sein­er Entwick­lerkon­ferenz I/O 2015 eine neue Nah­feld-Radartech­nolo­gie ankündigte. Beim Project Soli tüftelte die Forschungsabteilung ATAP (Advanced-Tech­nol­o­gy-and-Projects-Divi­sion) an ein­er berührungs- und laut­losen Eingabe­meth­ode für smarte Geräte. Jet­zt gab die US-Behörde FCC (Fed­er­al Com­mu­ni­ca­tions Com­mis­sion) grünes Licht für die Inno­va­tion, mit der Google die Gesten­s­teuerung auf ein neues Lev­el heben kön­nte.

Bitte akzeptieren Sie die Nutzung von Drittanbieter-Einbindungen mit einem Klick auf den folgenden Button:

Project Soli: Googles Fingerzeig in die Zukunft

Stell Dir einen unsicht­baren Knopf vor, den Du drückst, indem Du Deinen Dau­men und Zeigefin­ger aneinan­der tippst. Oder wie wäre es mit einem virtuellen Schiebere­gler, den Du mit ein­er schweben­den Hand in der Luft nach oben oder unten ziehst? Genau das ist die Idee beim Project Soli. Das Konzept ermöglicht die Inter­ak­tion mit Geräten ohne das übliche Tip­pen, Klick­en und Wis­chen. Statt auf Kam­eras wie bei der Kinect-Steuerung von Microsoft set­zt Google bei der Gesten­erken­nung allerd­ings auf eine energieef­fiziente Radar-Tech­nolo­gie.

Gesten als virtuelle Eingabe-Tools: So funktioniert’s

Das ATAP-Team hat einen Sen­sor entwick­elt, der über ein Mini-Radar den Bewe­gun­gen Dein­er Hand fol­gt und aus­ge­führte Gesten erken­nt. Dafür sendet der Sen­sor in einem bes­timmten Bere­ich elek­tro­mag­netis­che Wellen aus und analysiert, wie Objek­te inner­halb dieses Are­als das Sig­nal streuen und reflek­tieren. Daraus erken­nt die Soft­ware spez­i­fis­che Eigen­schaften wie die Größe, Form, Ent­fer­nung und Geschwindigkeit des Objek­ts. So ver­fol­gt und erken­nt der Soli-Sen­sor dynamis­che Gesten, kann feine Unter­schiede Dein­er Fin­ger- und Hand­be­we­gun­gen wahrnehmen und in Eingabebe­fehle über­set­zen.

Bis zu 1000 Mbit/s für Dein Zuhause im Vodafone Kabel-Glasfasernetz

Energieeffizient und flexibel: Mini-Radar mit großem Potenzial

Zukun­ftsweisend ist das Project Soli vor allem, weil Google diese kom­plexe Radar-Tech­nolo­gie auf die Größe eines Cent-Stück­es geschrumpft hat. Das gesamte Sys­tem ist auf einen winzi­gen Chip kom­prim­iert, was zum einen den Energie­ver­brauch reduziert, zum anderen die möglichen Ein­satzbere­iche erhe­blich aus­dehnt. So kön­nte die Tech­nolo­gie nicht nur in Smart­phones oder Spielkon­solen ver­baut wer­den, son­dern auch in sehr kleinen IoT-Geräten ohne Dis­play – beispiel­sweise in Fit­nesstrack­ern, Laut­sprech­ern oder smarten Mode-Acces­soires.

Wie das ausse­hen kann, demon­stri­erte unter anderem LG auf der Google I/O 2016 mit dem Pro­to­typen ein­er Smart­watch, der die Project-Soli-Sen­soren bere­its inte­gri­erte. Das Video von The Verge gibt einen kleinen Vorgeschmack.

Bitte akzeptieren Sie die Nutzung von Drittanbieter-Einbindungen mit einem Klick auf den folgenden Button:

FCC-Freigabe: Project Soli könnte bald in Serie gehen

Dass die offizielle Ein­führung dieser Tech­nolo­gie trotz­dem auf sich warten ließ, lag an der fehlen­den Genehmi­gung der FCC-Behörde. Da die Soli-Sen­soren beson­ders hohe Fre­quenzbän­der nutzen, um die Genauigkeit der Gesten­erken­nung und damit der Eingaben zu verbessern, gab es Bedenken hin­sichtlich der Stärke der vorhan­de­nen Strahlung. Nun hat Google nachjustiert und eine Son­der­genehmi­gung erhal­ten – unter anderem, weil das öffentliche Inter­esse an der Tech­nolo­gie beson­ders groß sei. Damit ste­ht dem Ziel, die Mini-Radare auch außer­halb der Labore einzuset­zen, nichts mehr im Weg – was aber noch nicht heißen muss, dass die Project-Soli-Sen­soren schon in Googles näch­stes Pix­el-Flag­gschiff Einzug hal­ten wer­den.

Project Jaquard macht’s vor: I/O-Innovationen erobern den Markt

Wie schnell es mit der Mark­treife ein­er ATAP-Entwick­lung tat­säch­lich gehen kann, zeigte das Project Jaquard, das Google eben­falls bei sein­er I/O 2015 vorstellte. Hier entwick­elte das ATAP-Team einen leit­fähi­gen High­tech-Faden, der die Gerätes­teuerung über tex­tile Ober­flächen ermöglicht. Das mark­treife Ergeb­nis ist die Levi’s Com­muter Jacke, über dessen Ärmel Du Dein Smart­phone bedi­enen kannst, ohne es in die Hand zu nehmen.

Bitte akzeptieren Sie die Nutzung von Drittanbieter-Einbindungen mit einem Klick auf den folgenden Button:

Egal, ob Du kün­ftig mit Gesten virtuelle Eingaben simulierst oder Du Dein Out­fit als Steuerzen­trale nutzt: Google wird offen­bar nicht müde, was die Entwick­lung inno­v­a­tiv­er Eingabe- und Steuerung­stech­nolo­gien ange­ht. Wir dür­fen ges­pan­nt sein, was das ATAP-Team in Zukun­ft austüftelt.

Spiel­erei oder eine Idee mit Zukun­ft? Schreib uns, was Du von Googles Project Soli hältst und welche Geräte Du gerne per Fin­gerzeig steuern kön­nen würdest.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Dich auch interessieren