Mann trägt Galaxy Watch 4 am Arm.
Mann trägt einen blauen Fitnesstracker am Handgelenk.
:

Deep Learning for Robots – Wenn Roboter das Lernen lernen

Robot­er, die in der Lage sind, selb­st­ständig Fähigkeit­en zu erler­nen und diese stetig weit­erzuen­twick­eln? Was nach einem Sci­ence-Fic­tion-Streifen à la Ter­mi­na­tor, Matrix oder iRo­bot klingt, lassen Forsch­er in den Google Labs derzeit Real­ität wer­den. Mit einem Grei­farm-Exper­i­ment zeigt der IT-Konz­ern Google, wozu kün­stliche Intel­li­genz bere­its heute in der Lage ist, und lässt erah­nen, was für Möglichkeit­en sie zukün­ftig eröff­nen kann.

Das Duell Men­sch gegen Mas­chine ken­nt man für gewöhn­lich nur aus dem Kino. Doch IT-Gigant Google beweist derzeit mit dem Com­put­er­pro­gramm Alpha­Go, wie die erste Soft­ware einen pro­fes­sionellen Spiel­er im chi­ne­sis­chen Brettspiel Go besiegt – und zwar keinen Gerin­geren als den kore­anis­chen Spitzen­spiel­er Lee Sedol. Im großen Go-Duell erleb­st Du, was kün­stliche Intel­li­genz, kurz KI, schon heute alles kann. Abseits des großen Medi­en­rum­mels treibt Google die Forschung auf dem Gebi­et der kün­stlichen Intel­li­genz weit­er voran.

Do it yourself

Unter dem Namen Deep Learn­ing for Robots stellte Google in seinem Research Blog ver­gan­gene Woche die Ergeb­nisse eines weit­eren KI-Pro­jek­tes vor. Es geht um 14 robo­tis­che Grei­farme, deren Auf­gabe es ist, aus den vor ihnen platzierten Box­en ver­schiedene Gegen­stände aufzunehmen. Was erst­mal nicht beson­ders spek­takulär klingt, ist jedoch ein großer Schritt in der Robotik. Denn wie der Name schon sagt, sind die Robot­er nicht ein­fach für diese Auf­gabe pro­gram­miert, son­dern brin­gen sich die Bewe­gungsabläufe Schritt für Schritt sel­ber bei. Mit dem Lern­prozess eines Kleinkindes entwick­eln sie selb­st­ständig eine Hand-Auge-Koor­di­na­tion, die es ihnen erlaubt, die For­men und Ent­fer­nun­gen der ver­schiede­nen Gegen­stände zu erken­nen und in ihre Bewe­gungsmuster mit einzubeziehen.

red apple in a robot arm

Learning by Doing

Bis die Robot­er­arme erste angepasste Ver­hal­tens­muster entwick­el­ten, mussten sich die Google-Forsch­er allerd­ings mehrere Tage gedulden. Ganz nach dem Mot­to „Tri­al and Error“ braucht­en die Robot­er etwa 800.000 Ver­suche, bis sie erste Reak­tio­nen zeigten und die anvisierten Gegen­stände präzis­er ans­teuerten als zuvor. Doch damit nicht genug: Etliche Ver­suche später waren sie bere­its in der Lage dazu, im Wege ste­hende Objek­te bei­seite zu schieben und den Gegen­stand vor der Auf­nahme in die dafür per­fek­te Aus­rich­tung zu brin­gen. Möglich machen das Kam­eras, die den Robot­ern als Augen dienen. Jede Erfahrung wird dabei mit der ganzen Gruppe geteilt, um den Lern­prozess zu beschle­u­ni­gen und das neu­ronale Netz, das Gehirn des Exper­i­ments, mit Wis­sen zu füt­tern.

Die Zukunft ist jetzt

Neu­ronale Net­ze, im Fach­jar­gon auch Con­vo­lu­tion­al Neur­al Net­works (CNN) genan­nt, wer­den nach dem Vor­bild des men­schlichen Gehirns entwick­elt. Sie helfen den Robot­ern, ihre gesam­melten Erfahrun­gen einzuord­nen und sich im Erfol­gs­fall einzuprä­gen. Auf diese Weise ler­nen die Robot­er­arme, ihre Bewe­gun­gen bess­er zu koor­dinieren und die Fehlerquote sinkt Schritt für Schritt. Die Erken­nt­nisse dieses Exper­i­mentes kön­nen beson­ders für die mod­erne Medi­zin einen Riesen­fortschritt bedeuten. Die Entwick­lung von soge­nan­nten High-End-Prothe­sen kann Betrof­fe­nen die Bewäl­ti­gung von alltäglichen Hand­grif­f­en in Zukun­ft erhe­blich erle­ichtern. Neben der Robotik kommt diese Tech­nik vor allem im Bere­ich der autonom fahren­den Autos und Drohnen zum Ein­satz.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Dich auch interessieren