Project Soli: Googles Mini-Radar für die nächste Generation der Gestensteuerung

:

Project Soli: Googles Mini-Radar für die nächste Generation der Gestensteuerung

Wie wäre das? Du drehst die Musik über einen unsichtbaren Regler lauter, schaltest das Licht mit einer leichten Handneigung aus und hörst Sprachnachrichten mit einem Fingerschnips ab? Das klingt für Dich nach Hokuspokus à la Harry Potter? Beim Project Soli hat Google eine Radar-Technologie entwickelt, die diese „magische“ Gestensteuerung möglich macht.

Mehr als drei Jahre ist es her, dass Google bei seiner Entwicklerkonferenz I/O 2015 eine neue Nahfeld-Radartechnologie ankündigte. Beim Project Soli tüftelte die Forschungsabteilung ATAP (Advanced-Technology-and-Projects-Division) an einer berührungs- und lautlosen Eingabemethode für smarte Geräte. Jetzt gab die US-Behörde FCC (Federal Communications Commission) grünes Licht für die Innovation, mit der Google die Gestensteuerung auf ein neues Level heben könnte.

Project Soli: Googles Fingerzeig in die Zukunft

Stell Dir einen unsichtbaren Knopf vor, den Du drückst, indem Du Deinen Daumen und Zeigefinger aneinander tippst. Oder wie wäre es mit einem virtuellen Schieberegler, den Du mit einer schwebenden Hand in der Luft nach oben oder unten ziehst? Genau das ist die Idee beim Project Soli. Das Konzept ermöglicht die Interaktion mit Geräten ohne das übliche Tippen, Klicken und Wischen. Statt auf Kameras wie bei der Kinect-Steuerung von Microsoft setzt Google bei der Gestenerkennung allerdings auf eine energieeffiziente Radar-Technologie.

Gesten als virtuelle Eingabe-Tools: So funktioniert’s

Das ATAP-Team hat einen Sensor entwickelt, der über ein Mini-Radar den Bewegungen Deiner Hand folgt und ausgeführte Gesten erkennt. Dafür sendet der Sensor in einem bestimmten Bereich elektromagnetische Wellen aus und analysiert, wie Objekte innerhalb dieses Areals das Signal streuen und reflektieren. Daraus erkennt die Software spezifische Eigenschaften wie die Größe, Form, Entfernung und Geschwindigkeit des Objekts. So verfolgt und erkennt der Soli-Sensor dynamische Gesten, kann feine Unterschiede Deiner Finger- und Handbewegungen wahrnehmen und in Eingabebefehle übersetzen.

Energieeffizient und flexibel: Mini-Radar mit großem Potenzial

Zukunftsweisend ist das Project Soli vor allem, weil Google diese komplexe Radar-Technologie auf die Größe eines Cent-Stückes geschrumpft hat. Das gesamte System ist auf einen winzigen Chip komprimiert, was zum einen den Energieverbrauch reduziert, zum anderen die möglichen Einsatzbereiche erheblich ausdehnt. So könnte die Technologie nicht nur in Smartphones oder Spielkonsolen verbaut werden, sondern auch in sehr kleinen IoT-Geräten ohne Display – beispielsweise in Fitnesstrackern, Lautsprechern oder smarten Mode-Accessoires.

Wie das aussehen kann, demonstrierte unter anderem LG auf der Google I/O 2016 mit dem Prototypen einer Smartwatch, der die Project-Soli-Sensoren bereits integrierte. Das Video von The Verge gibt einen kleinen Vorgeschmack.

FCC-Freigabe: Project Soli könnte bald in Serie gehen

Dass die offizielle Einführung dieser Technologie trotzdem auf sich warten ließ, lag an der fehlenden Genehmigung der FCC-Behörde. Da die Soli-Sensoren besonders hohe Frequenzbänder nutzen, um die Genauigkeit der Gestenerkennung und damit der Eingaben zu verbessern, gab es Bedenken hinsichtlich der Stärke der vorhandenen Strahlung. Nun hat Google nachjustiert und eine Sondergenehmigung erhalten – unter anderem, weil das öffentliche Interesse an der Technologie besonders groß sei. Damit steht dem Ziel, die Mini-Radare auch außerhalb der Labore einzusetzen, nichts mehr im Weg – was aber noch nicht heißen muss, dass die Project-Soli-Sensoren schon in Googles nächstes Pixel-Flaggschiff Einzug halten werden.

Project Jaquard macht’s vor: I/O-Innovationen erobern den Markt

Wie schnell es mit der Marktreife einer ATAP-Entwicklung tatsächlich gehen kann, zeigte das Project Jaquard, das Google ebenfalls bei seiner I/O 2015 vorstellte. Hier entwickelte das ATAP-Team einen leitfähigen Hightech-Faden, der die Gerätesteuerung über textile Oberflächen ermöglicht. Das marktreife Ergebnis ist die Levi’s Commuter Jacke, über dessen Ärmel Du Dein Smartphone bedienen kannst, ohne es in die Hand zu nehmen.

Egal, ob Du künftig mit Gesten virtuelle Eingaben simulierst oder Du Dein Outfit als Steuerzentrale nutzt: Google wird offenbar nicht müde, was die Entwicklung innovativer Eingabe- und Steuerungstechnologien angeht. Wir dürfen gespannt sein, was das ATAP-Team in Zukunft austüftelt.

Spielerei oder eine Idee mit Zukunft? Schreib uns, was Du von Googles Project Soli hältst und welche Geräte Du gerne per Fingerzeig steuern können würdest.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Dich auch interessieren