Eine Frau wirft eine Flasche in den smarten Mülleimer Trashbot
Das Cockpit eines Teslas

Affective Computing – Wenn Smartphones Deine Gefühle verstehen

Wenn es um die Trends der Zukun­ft, ins­beson­dere im Bere­ich Mobile Devices, geht, führt kein Weg an Affec­tive Com­put­ing vor­bei. Schon heute sor­gen Tech­nolo­gien wie eine intel­li­gente Sprach­s­teuerung dafür, dass Du Dein Smart­phone noch beque­mer bedi­enen kannst. Wear­ables wie Fit­nes­sarm­bän­der helfen Dir, Deine Bewe­gung zu opti­mieren. Doch das ist erst der Anfang. Wagst Du mit uns einen kleinen Aus­blick in die Zukun­ft?

Über viele Jahre hin­weg warst Du es als Nutzer gewohnt, Deinen Com­put­er und später auch Dein Smart­phone oder Tablet durch Eingaben über eine Tas­tatur oder einen Touch­screen zu bedi­enen. Laut ein­er Studie von Gart­ner aus dem Jahr 2014 nutzt jedoch bere­its knapp ein Vier­tel der befragten Per­so­n­en Sprachas­sis­ten­ten wie Apples Siri oder Google Now. Ver­schiedene Unternehmen beschäfti­gen sich inten­siv mit den näch­sten Schrit­ten. Beyond Ver­bal etwa hat sein Augen­merk auf die Stim­m­analyse gelegt. Hier­bei sollen die Geräte durch die Into­na­tion der Stimme Rückschlüsse auf die Emo­tio­nen des Anwen­ders schließen und darauf entsprechend reagieren. Let­z­tendlich geht es beim Affec­tive Com­put­ing also darum, Emo­tio­nen und Gemüt­sla­gen des Nutzers zu erken­nen und darauf einzuge­hen. Eine völ­lig neuar­tige Kom­mu­nika­tion­sebene zwis­chen Com­put­er und Benutzer kön­nte bald schon All­t­ag sein.

affective_Computing_istock_lachen_klein

Möglichkeiten der Emotionsanalyse

Ein wichtiges Werkzeug im Bere­ich Affec­tive Com­put­ing ist zweifel­los die bere­its ange­sproch­ene Spracheingabe. So wäre es zukün­ftig beispiel­sweis denkbar, dass Dein Smart­phone erken­nt, ob Du ger­ade fröh­lich, trau­rig oder wütend bist. So kön­nte eine Inter­ak­tion auf ein­er emo­tionalen Ebene mit dem Gerät tat­säch­lich möglich wer­den. Kaum zu glauben, welche Möglichkeit­en sich dadurch für diverse Apps und Wear­ables ergeben wür­den. Vielle­icht kannst Du eines Tages mit dem ein­fachen Kom­man­do „Musik abspie­len“ dafür sor­gen, dass eine entsprechende App einen genau zu Dein­er momen­ta­nen Laune passenden Song auswählt und abspielt?

Einiges ist denkbar. Eine weit­ere wichtige Säule der Emo­tion­s­analyse ist die Bil­d­analyse. Ein Aus­lösen der Kam­era nach der Wahrnehmung eines Lächelns durch den entsprechen­den Sen­sor ist da noch ein eher unspek­takuläres Beispiel. Hochempfind­liche Sen­soren haben in einem anderen Test bere­its unter Beweis gestellt, wie sie an Bord eines Wear­ables anhand von Pulsmes­sung und der Analyse gal­vanis­ch­er Hautreak­tio­nen Angaben zum Stresslev­el des Proban­den machen kön­nen.

Affective Computing – ein Segen für aktive Menschen

Geht es um den Nutzen von Affec­tive Com­put­ing im pri­vat­en Bere­ich, dann kannst Du Dich als sportlich aktiv­er Men­sch ganz beson­ders freuen. Denn es ist davon auszuge­hen, dass die Wear­ables der Zukun­ft noch wesentlich umfan­gre­ichere Analy­se­funk­tio­nen mit an Bord haben wer­den. Immer mehr Sen­soren, die immer mehr kön­nen – der Opti­mierung Deines indi­vidu­ellen Train­ings wer­den kaum noch Gren­zen geset­zt sein.

Mit Wear­ables ver­bun­dene Fit­ness-Apps sind heute schon erstaunlich aus­gereift. Zukün­ftig wer­den sie dank Affec­tive Com­put­ing allerd­ings noch mehr span­nende Infor­ma­tio­nen über ihren Nutzer liefern, die dann beispiel­sweise auch dabei helfen kön­nen, maßgeschnei­derte Diät­pro­gramme zu erstellen. Auch ältere Men­schen kön­nen durch solche Analy­semöglichkeit­en prof­i­tieren, um länger fit zu bleiben.

Einsatzgebiete im Business-Bereich

In vie­len Unternehmen­szen­tralen hat man längst die Möglichkeit­en erkan­nt, die das Affec­tive Com­put­ing mit sich bringt. So kön­nten entsprechende Tech­nolo­gien dabei helfen, die Arbeitssicher­heit zu erhöhen. Vorstell­bar wären etwa Wear­ables, die die Müdigkeit eines Maschi­nenbe­di­eners oder auch LKW-Fahrers erken­nen und diesen durch das Aus­lösen eines Alarms vor fol­gen­schw­eren Unfällen bewahren.

Im Bere­ich Pro­dukt-Mar­ket­ing entste­hen für Unternehmen neue Möglichkeit­en, um die Bedürfnisse der Ziel­gruppe noch bess­er ken­nen­zuler­nen. Jaguar Land Rover erprobte dies bere­its im Rah­men von Wim­ble­don 2015, als der Puls aller mit einem Fit­nes­sarm­band oder ein­er Smart­watch aus­ges­tat­teten Besuch­er anonym gemessen und entsprechend analysiert wurde. Darüber hin­aus schafft Affec­tive Com­put­ing auch vol­lkom­men neue Per­spek­tiv­en, wenn es um das Coach­ing von Mitar­beit­ern geht. Die Emo­tion­s­analyse als Bestandteil von Train­ingsmod­ulen liefert wertvolle Erken­nt­nisse, was etwa hin­sichtlich Kom­mu­nika­tion­sstrate­gien noch opti­miert wer­den kann.

Neuartige Fahrerassistenzsysteme und Smart-Home-Lösungen

Am Steuer Deines Autos kön­ntest Du schon bald eben­falls von den Errun­gen­schaften des Affec­tive Com­put­ings prof­i­tieren. So hat das Mass­a­chu­setts Insti­tute of Tech­nol­o­gy (MIT) zusam­men mit dem Auto­mo­bilkonz­ern Audi ein intel­li­gentes Fahras­sis­ten­zsys­tem namens „Affec­tive Intel­li­gent Dri­ving Assis­tance“ (kurz: Aida) entwick­elt. Dieses soll Deine Gefüh­le als Fahrer analysieren und am Ende so auf sie reagieren, dass Dein Fahrerleb­nis so angenehm und sich­er wie möglich gestal­tet wird. Ein weit­er­er Anwen­dungs­bere­ich des Affec­tive Com­put­ing ist der Bere­ich Smart Home.

Durch Stimm- oder Gesicht­serken­nung wird Dein Kör­p­er gewis­ser­maßen zur Fern­s­teuerung für diverse mit dem Inter­net ver­bun­dene Haushalts­geräte oder Funk­tio­nen. Eine Heizung, die automa­tisch aufge­dreht wird, wenn Du zu frieren beginnst? Vielle­icht sind solche und ähn­liche Inno­va­tio­nen in eini­gen Jahren Wirk­lichkeit in nahezu jedem Haushalt.

Was hältst Du von Affec­tive Com­put­ing? Schreib es uns in die Kom­mentare.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Dich auch interessieren