Project Euphonia: Spracherkennung für Menschen mit Beeinträchtigungen

Project Euphonia: Spracherkennung für Menschen mit Beeinträchtigungen

Digitale Sprachassistenten lesen Dir fast jeden Wunsch von den Lippen ab. Doch nur dann, wenn Du wirklich deutlich sprichst. Menschen mit Sprach-Beeinträchtigungen haben es weiterhin schwer, wenn sie die Helfer verwenden möchten. Google hat jetzt mit Project Euphonia einen ersten Schritt gemacht, um Spracherkennung auch für Menschen mit Sprach-Beeinträchtigungen zugänglich zu machen.

In Zukunft soll Googles Sprachassistent auch korrekt auf Kommandos reagieren, die ihm Menschen mit Sprach-Beeinträchtigungen geben. Denn mit Project Euphonia lernt die künstliche Intelligenz (KI), die Sprache sowie Mimik und Gestik noch besser zu verstehen.

Neue Kommunikationsmöglichkeiten für Menschen mit Sprach-Beeinträchtigungen

Stell Dir einen Alltag vor, in dem Du Dich nicht richtig verständigen kannst. Du beherrschst die Sprache perfekt, doch Dein Mund bringt einfach nicht die korrekten Laute hervor. Viele Menschen, die zum Beispiel einen Schlaganfall hatten, an multipler Sklerose (MS), ALS (Amyotrophe Lateralsklerose) oder Parkinson leiden, müssen mit solch einer Beeinträchtigung leben. Mit Project Euphonia verfolgt Google das Ziel, diesen Menschen im wahrsten Sinne des Wortes eine Stimme zu geben. Sie zu verstehen und Kommunikation selbst dann noch reibungslos möglich zu machen, wenn sie gar keine Worte formen können.

So lernt die KI, Menschen zu verstehen

Bisher fehlte der Lernstoff, um künstlichen Intelligenzen beizubringen, Menschen mit sprachlichen Beeinträchtigungen zu verstehen. Also Kommandos von Menschen mit Sprach-Beeinträchtigungen. Denn mit jedem korrekt ausgesprochenen Sprachbefehl im Normalbetrieb lernt der Sprachassistent ja wieder ein Stückchen dazu und funktioniert dadurch mit der Zeit immer zuverlässiger. Genauso läuft es auch bei Project Euphonia. Denn hier füttern Menschen mit Sprach-Beeinträchtigungen die künstliche Intelligenz. Dazu arbeitet Google mit dem ALS Therapy Development Institute und der ALS Residence Initiative zusammen, um möglichst viele Freiwillige vor Mikrofon und Kamera zu bekommen. So entsteht ein großer Pool an Befehlen, die die KI versteht und ausführen kann. Worte, Summen in verschiedenen Tonlagen und selbst Veränderungen der Mimik reichen dann aus, um sich verständigen zu können.

Kommunizieren durch Gesichtsausdrücke

Anstatt mit den Augen auf einer virtuellen Tastatur einzelne Buchstaben anzuschauen, die dann allmählich zu Worten und ganzen Sätzen zusammengesetzt werden, kann die KI von Project Euphonia auch unterschiedliche Gesichtsausdrücke erkennen und verarbeiten. So sollen Patienten mit komplettem Sprachverlust schnell und vor allem intuitiv kommunizieren können. Entweder mit den Menschen um sie herum oder aber auch mit vernetzten Geräten zuhause. Selbstständig das Licht und den Fernseher einschalten, die Heizung regeln oder die Rollläden bedienen. Technisch ist das alles möglich, jetzt liegt es nur noch an den Lernfortschritten der künstlichen Intelligenzen. Aber die sind ja bekanntlich wissbegierig, brauchen keinen Schlaf und büffeln akribisch. Sprachassistenten könnten dann in Zukunft womöglich noch mehr Menschen verstehen und ihnen im Alltag weiterhelfen. Dafür setzt sich auch der Verband junger Menschen mit Hörbehinderung e.V. ein, der jetzt den ersten Gebärdensprachassistenten vorgestellt. Mehr zu dem Projekt liest Du hier.

Wie ist Dein Eindruck von Project Euphonia? Hinterlasse uns Deine Gedanken Buchstabe für Buchstabe als Kommentar.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Dich auch interessieren