Junge Frau schaut auf ihr iPhone.
Hand mit Galaxy Watch4 hält Skateboard
:

Smarte Wahrsager: Diese Technik weiß, was Du willst

Dein Navi ken­nt Dein Ziel, bevor Du es ein­gib­st, Com­put­er spüren, ob Du gestresst bist, und Acces­soires schick­en Dir eine Nachricht, wenn Du eine Pause brauchst. Es gibt Geräte, die Dich schein­bar bess­er ken­nen als Du Dich selb­st. Ob mit­denk­ende Fahras­sis­ten­ten oder ein­fühlsame Gad­gets – diese Tech­nik weiß, wie Du tickst. 

Abgefahren: Google Maps weiß, wo es langgeht

Map of future conceptKaum jeman­den bringt Google Maps nicht des Öfteren auf den richti­gen Weg. Neuerd­ings ist der Kar­ten­di­enst dabei auch noch beson­ders zuvork­om­mend: Kaum startest Du die App, hat Google Maps in der aktuellen Ver­sion 9.19 schon die passende Route parat, denn im „Dri­ving Mode“ kann das Pro­gramm Dein Reiseziel vorherse­hen. Über zuvor eingegebene Suchan­fra­gen hat sich die App Deine Gewohn­heit­en gemerkt und zeigt automa­tisch aktuelle Verkehrsin­for­ma­tio­nen sowie die voraus­sichtliche Ankun­ft­szeit an. Doch Google ist mit dieser Idee aus­nahm­sweise mal nicht der Erste.

Fahrassistent lädt Dich zum Essen ein

Am Mass­a­chu­setts Insti­tute of Tech­nol­o­gy (MIT) sind Tüftler beson­ders fleißig, wenn es um vor­rauschauende Tech­nik im Straßen­verkehr geht. Zusam­men mit Audi entwick­el­ten sie das Fahras­sis­ten­zsys­tem Affec­tive Intel­li­gent Dri­ving Assis­tance (AIDA), das nicht nur Deine Route und rel­e­vante Verkehrsnews anzeigt, son­dern auch Ziele, von denen Du selb­st noch gar nichts weißt. 3D-Grafiken liefern unen­twegt Infor­ma­tio­nen zu Zwis­chen­stopps, die Dir gefall­en kön­nten. Ist Dein Stamm­restau­rant in der Nähe, präsen­tiert der smarte Beifahrer unaufge­fordert das Tages­menü. Liegt Dein Friseur auf dem Weg, wer­den Dir die Öff­nungszeit­en angezeigt. Eigentlich musst Du mit diesem Assis­ten­ten an nichts mehr sel­ber denken.

Eat

Ein anderes Pro­jekt des MIT legt den Fokus auf die Verkehrssicher­heit. Beim Nav­i­ga­tion­ssys­tem AutoE­mo­tive ist das Lenkrad mit Berührungssen­soren und ein­er Kam­era aus­ges­tat­tet. Darüber erken­nt es Deinen Gemüt­szu­s­tand und reagiert entsprechend: Bei erhöhtem Stress spielt das Auto entspan­nende Musik und reg­uliert die Kli­maan­lage. Wenn Du richtig in Rage bist, soll sich sog­ar die Lack­ierung Deines Fahrzeugs ändern, um andere Verkehrsteil­nehmer zu war­nen.

Calm down: Dieses Accessoire macht Dich glücklich

Auch außer­halb des Straßen­verkehrs gibt es tech­nis­che Assis­ten­ten, die merken, wie es Dir geht. Im Fit­ness- und Gesund­heits­bere­ich helfen Mini­com­put­er mit hochsen­si­blen Sen­soren längst dabei, Deinen Train­ings­plan zu opti­mieren. Und nun unter­stützen sie Dich auch dabei, glück­lich zu sein. Ver­steckt in Dein­er Klei­dung misst der Mini-Sen­sor Spire Kör­per­w­erte wie Blut­druck, Puls und die Leit­fähigkeit der Haut. Das Gerät ermit­telt daraus, wie es Dir geht, und sagt, was Du als näch­stes brauchst. Bist Du zum Beispiel gestresst, erin­nert Dich der „Stim­mungs-Coach“ per Vibra­tion oder SMS daran, dass Du mal tief dur­chat­men und eine Pause machen soll­test.

Schlecht geschlafen? Sprachassistent weiß, wann Du eine Pause brauchst

Empathis­che Com­put­er, die Deine Emo­tio­nen deuten und entsprechend Lösun­gen anbi­eten, laufen unter dem Forschungs­bere­ich Affec­tive Com­put­ing zusam­men. Diese mit­denk­enden Tech­nolo­gien kön­nen auch am Arbeit­splatz einen großen Zugewinn brin­gen. So haben Wis­senschaftler des Tech­nolo­gie-Zen­trums der Uni­ver­sitäten Bre­men und Pas­sau ein sprachges­teuertes Assis­ten­zsys­tem entwick­elt, das auf Gefüh­le und Ver­fas­sung des Anwen­ders reagiert. Beim Pro­jekt mit dem eingängi­gen Namen „Emo­tion­ssen­si­tives Assis­ten­zsys­tem zur Unter­stützung von Men­schen mit Ein­schränkun­gen“ (Emo­tAsS) erken­nt der Com­put­er Stress oder Müdigkeit und schlägt entsprechend ein­fachere Arbeit­stätigkeit­en oder Pausen vor. All das leit­et das Sys­tem aus Dein­er Wort­wahl, Laut­stärke und Stimm­lage ab.

Sleeping Businesswoman

„Wahrsager“-Software: Emotionsanalyse per Knopfdruck

Neben der Sprache liefern auch Bilder wichtige Infor­ma­tio­nen beim Affec­tive Com­put­ing. „Geschulte“ Pro­gramme kön­nen aus Videoauf­nah­men an nur einem gesproch­enen Satz Dein Alter, Geschlecht und Charak­tereigen­schaften erken­nen, beispiel­sweise ob Du extro­vertiert, glück­lich oder neu­ro­tisch bist – oder ob Du die Wahrheit sagst. So haben Forsch­er der Uni­ver­si­ty Michi­gan eine Soft­ware entwick­elt, die anhand von Videoaufze­ich­nun­gen erken­nt, ob jemand lügt. Dafür analysiert das Pro­gramm Mimik, Gestik sowie den Sprach­duk­tus. In ersten Ver­suchen lag die Tre­ff­sicher­heit der „Wahrsager“-Software sog­ar höher als die Beurteilungs­gabe men­schlich­er Proban­den.

Empathis­che Com­put­er wer­den Dich in Zukun­ft wohl immer bess­er ver­ste­hen und auf Dich einge­hen. So kön­nten Siri und Google Now eines Tages anhand Dein­er Spracheingabe „Was mache ich heute Abend?“ wis­sen, ob sie Dir eine Sit­com im TV oder doch lieber eine Technopar­ty vorschla­gen. Wofür Du Dich let­z­tendlich entschei­dest, bleibt natür­lich Dir über­lassen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Dich auch interessieren