Die zügige Einführung von KI-Richtlinien in Europa soll eine neue Technologiekrise vermeiden

Digitale Vorreiter

Digitale Vorreiter

Datum 09.05.2019
Lesezeit 3 Min.

Die zügige Einführung von KI-Richtlinien in Europa soll eine neue Technologiekrise vermeiden

Von Ivana KottasováCNN Business

 

(CNN Business) Der Bereich Social Media erlebt aktuell eine Vertrauenskrise. In Europa soll dafür gesorgt werden, dass dies beim Thema künstlicher Intelligenz nicht ebenfalls geschieht. Die Europäische Kommission hat im April 2019 Ethikleitlinien vorgestellt, die die Entwicklung von KI-Systemen mitprägen sollen, bevor diese Technologie in der Gesellschaft breit verankert ist.

In der Vergangenheit konnten Aufsichtsbehörden vielfach mit neu entstehenden Technologien nicht Schritt halten, was unerwartete, negative Konsequenzen hatte. Das aktuelle EU-Maßnahmenpaket soll helfen, dem künftig vorzubeugen. Die Wichtigkeit einer solchen Vorgehensweise wurde mit den in Großbritannien neu vorgeschlagenen Regelungen zusammen hervorgehoben. Diesen zufolge würden Internetunternehmen die rechtliche Verantwortung für das Entfernen schädlicher Inhalte von ihren Plattformen tragen.

„Das ist in etwa, als wenn man das Fundament legt, bevor man ein Haus baut – jetzt ist somit der richtige Zeitpunkt, das zu tun“, erklärt Liam Benham, Vizepräsident für Aufsichtsrechtsfragen in Europa bei IBM . Das Unternehmen war an der Formulierung der KI-Leitlinien beteiligt.

Die Europäische Union hat global eine leitende Rolle in Bezug auf das Aufsichtsrecht in der Tech-Branche übernommen. Im vergangenen Jahr trat bereits ein weitreichendes Datenschutzgesetz in Kraft. Zudem werden große Technologiekonzerne im Hinblick auf wettbewerbswidriges Verhalten und unbezahlte Steuern von der EU zur Rechenschaft gezogen. Das Thema KI wird weithin mit Faszination und Enthusiasmus gesehen. Dem entgegen stehen Warnhinweise auf potenziellen Missbrauch. Somit ist diese Technologie der jüngste Gegenstand aufsichtsrechtlicher Maßnahmen der Europäer. Das Thema ist durchaus kein einfaches.

Beispielsweise hat Google in der letzten Woche sein neu eingesetztes Ethikgremium für künstliche Intelligenz aufgelöst. Hintergrund war die Tatsache, dass eine Vielzahl von Mitarbeitern die Abberufung des Präsidenten eines konservativen Thinktanks aus der Gruppe gefordert hatten. Die Europäische Kommission hat sieben Grundsätze formuliert, die die Entwicklung von KI und den Aufbau von Vertrauen fördern sollen. Die Leitlinien sind an sich nicht verbindlich, könnten aber in den kommenden Jahren als Grundlage für weitergehende Maßnahmen dienen.

 

Transparenz als wesentlicher Faktor für KI-Akzeptanz

Laut Marija Gabriel, der EU-Kommissarin für Digitale Wirtschaft und Gesellschaft, müssen Unternehmen, die KI-Systeme einsetzen, der Öffentlichkeit gegenüber transparent sein:

„Die Menschen müssen entsprechend informiert werden, wenn sie mit einem Algorithmus und nicht mit einer natürlichen Person interagieren“, so Gabriel. „Eine aufgrund eines Algorithmus getroffene Entscheidung muss nachvollziehbar und gerechtfertigt sein.“

Falls beispielsweise ein Versicherungsanbieter eine Forderung aufgrund eines Algorithmus ablehnt, hat er sicherzustellen, dass der Kunde weiß, wie und warum diese Entscheidung getroffen wurde. Zudem muss ein Mensch in der Lage sein, einzugreifen und die Entscheidung rückgängig zu machen. Laut der Europäischen Kommission müssen künftige KI-Systeme über ihren gesamten Lebenszyklus hinweg sicher und zuverlässig sein. Weiterhin soll der Datenschutz Priorität haben. Nutzer müssen zu jeder Zeit die Kontrolle über ihre eigenen Daten haben. Die Leitlinien übertragen die Verantwortung direkt auf diejenigen, die KI-Systeme entwickeln, um- und einsetzen.

„Wenn ein Unternehmen ein KI-System in Betrieb nimmt, dann trägt dieses Unternehmen auch die Verantwortung dafür: Besonders wichtig ist das beispielsweise, falls es zu einem Unfall kommt“, erklärt Gabriel.

 

Keine Diskriminierung durch KI

Weiterhin müssen Unternehmen laut Gabriel dafür sorgen, dass ihre KI-Systeme gerecht arbeiten. Beispielsweise würde, so erklärt sie, ein beim Einstellungsprozess angewandter Algorithmus, der aufgrund von Daten eines Unternehmens erstellt wurde, das nur Männer beschäftigt, höchstwahrscheinlich Bewerberinnen ablehnen.

„Wenn die eingegebenen Daten bereits von Voreingenommenheit zeugen, kann das ein Problem sein“, so Gabriel.

Laut der gemeinnützigen Gruppe AlgorithmWatch ist das Einführen von Leitlinien zwar an sich positiv zu werten, aber der in Europa verfolgte Ansatz erscheint dennoch problematisch.

Weiterführende Links

Lesen Sie außerdem bei uns, welche Auswirkungen fahrerlose Mobilität auf die Versicherungs- und Haftungsfrage hat.

Weiterhin stellen wir europäische Kleinstädte vor, die eine Vorreiterrolle beim Thema Smart City einnehmen.

 

„Den Leitlinien liegt die Idee von ‚vertrauenswürdiger KI‘ zugrunde. Das Problem ist, dass dies kein gut ausdefinierter Begriff ist“, erklärt Matthias Spielkamp, Mitgründer der Gruppe. „Wer soll vertrauen, und wem soll vertraut werden?“, fügt er hinzu. Weiterhin, so erklärt er, sei noch nicht klar, wie die Beaufsichtigung künftig gehandhabt werden soll.

Thomas Metzinger, Philosoph und Professor an der Universität Mainz, half beim Entwurf der Leitlinien. Er bemängelt jedoch, dass die Nutzung von KI zur Entwicklung von Waffen darin nicht verboten wird. Andere sorgen sich um die Auswirkungen der Leitlinien auf Innovationen.

„Unsere Sorge ist, dass die Detailliertheit dieser Leitlinien vielen Unternehmen, insbesondere kleinen und mittelständischen Unternehmen, die Umsetzung erschweren wird“, so Antony Walker, Stellvertretender CEO der TechUK, eines Branchenverbands.

Die Europäische Union wird jetzt versuchen, diese und noch weitere Fragen im Rahmen eines Pilotprogramms mit Big-Tech-Unternehmen gemeinsam zu klären.

 

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Facebook Twitter WhatsApp LinkedIn Xing E-Mail