Googles KI-Prinzipien als Vorbild? Künstliche Intelligenz und die Ethik

Digitale Vorreiter

Digitale Vorreiter

Datum 19.03.2019
Lesezeit 6 Min.

Googles KI-Prinzipien als Vorbild? Künstliche Intelligenz und die Ethik

Im Spätsommer 2018 hat Google seine Prinzipien für den Umgang mit und den Zielen von künstlicher Intelligenz veröffentlicht. Gerade beim Thema autonomes Fahren und bei der Bild- und Spracherkennung gibt es neben Ethikfragen auch rechtliche Aspekte, die besondere Aufmerksamkeit verdienen.

Das Thema künstliche Intelligenz und Maschinenlernen wirft eine Menge Fragen auf. Was genau soll eine Maschine dürfen und was nicht? Darf sie beispielsweise Rechtsgeschäfte tätigen? Und wer haftet, wenn mit einem selbstfahrenden Auto ein Unfall passiert? Google hat kürzlich Vorschläge dazu gemacht, wo die Grenzen künstlicher Intelligenz liegen und welche Ziele überhaupt mit maschinellem Lernen verfolgt werden sollten. Primäre Ziele sollten laut Google im Nutzen für die Gesellschaft liegen und nicht nur in monetären Vorteilen. Doch reichen die von Google formulierten Vorschläge aus, um den Umgang mit künstlicher Intelligenz sinnvoll zu regulieren?

 

Maschinen im Wandel: Von Robotern zu Alltagsbegleitern

Bereits seit vielen Jahrzehnten begleiten uns Maschinen in unserem Alltag und übernehmen vor allem beschwerliche, sich wiederholende und gefährliche Tätigkeiten. Bis vor kurzem waren Maschinen in ihren Fähigkeiten beschränkt und konnten nur genau das ausführen, was ihnen vorher „einprogrammiert” wurde.

Dank mechanischer Weiterentwicklungen und gefördert durch das sogenannte maschinelle Lernen können Maschinen immer mehr Aufgaben übernehmen. Mittlerweile können Roboter selbständig ihre Umwelt erkennen, Türen öffnen und über Hindernisse springen. In gefährlichen Umgebungen – beispielsweise bei Bränden – können solche „intelligenten” Maschinen wertvolle Dienste leisten. Mit Big-Data-Analyseverfahren wiederum lassen sich beliebige Bilder und Videos auf Muster scannen, was beispielsweise die Personenerkennung automatisiert und vereinfacht. Solche Anwendungen können bei der Kriminalitätsbekämpfung hilfreich sein.

In Zukunft könnten also noch mehr Tätigkeiten durch Maschinen und Roboter ausgeführt werden, die bislang Menschen vorbehalten waren – man denke nur an selbstfahrende Autos dank 5G-Vernetzung, Paketdrohnen oder eine weitgehend automatisierte Landwirtschaft. Die Unterstützung durch Maschinen und Roboter im Alltag hat viele positive Seiten. So könnten Senioren durch selbstfahrende Autos deutlich länger mobil bleiben. Kritiker dagegen befürchten, dass Arbeitsplätze verloren gehen könnten und die Grenzen zwischen menschlicher und maschineller Intelligenz zu stark verschwimmen.

Genug Gründe für die weltweit führende Suchmaschine Google, sich mit Ethikfragen auseinanderzusetzen. Das Unternehmen hinterfragt dabei auch die eigene Pionierarbeit selbstkritisch: Immerhin entwickelt das Schwesterunternehmen Waymo autonome Autos und in den sogenannten „X Labs”, der Forschungsabteilung des Google-Mutterkonzerns Alphabet, gibt es ebenfalls verschiedene KI-Projekte.

 

Der Google-Ansatz zum Thema künstliche Intelligenz

Aus dem US-amerikanischen Unternehmen Google hat sich seit der Gründung weit mehr entwickelt als „nur” eine mächtige Suchmaschine. Inzwischen vereint der Mutterkonzern Alphabet neben Google auch eine Reihe anderer Unternehmen, die sich mit künstlicher Intelligenz, dem Maschinenlernen und dem Internet der Dinge befassen. So gibt es beispielsweise ein Projekt, bei dem Schüler versuchen, durch vernetzte Sensoren Waldbrände vorherzusagen – das Vorhersagemodell hierzu basiert zum großen Teil auf künstlicher Intelligenz.

In einem Blogbeitrag veröffentlichte der Google-CEO Sundar Pichai eine ausführliche Stellungnahme zu Googles Haltung. Der Beitrag erschien Mitte 2018 auf dem offiziellen Blog des Unternehmens. Googles sieben Prinzipien zum Umgang mit künstlicher Intelligenz lauten sinngemäß:

  1. Nutzen für die Gesellschaft: Fortschritte im KI-Bereich sollen stets zum Vorteil der Menschen gereichen. Diese müssen mögliche Nachteile deutlich überwiegen.
  2. Vermeidung von Vorurteilen: Google ist bestrebt, KI so zu gestalten, dass Menschen nicht ungerecht behandelt werden – insbesondere, was ihre ethnische Herkunft, Geschlecht, Religion oder ihre Überzeugungen angeht.
  3. Sicherheit geht vor: Potenziell gefährliche KI-Anwendungen werden in geschützten Umgebungen getestet und in der Einführung sorgfältig überwacht. Hierzu orientiert sich das Unternehmen an „Best Practice”-Standards der KI-Sicherheitsforschung.
  4. Menschliche Kontrolle: Die entwickelten KI-Technologien sollen von Menschen in ausreichendem Umfang steuerbar bleiben. Außerdem soll es jederzeit die Möglichkeit für Feedback, passende Erläuterungen und Einsprüche durch Betroffene geben.
  5. Schutz der Privatsphäre: Der Umgang mit Daten soll transparent bleiben. Hierzu wird es entsprechende Statements und Richtlinien sowie die Möglichkeit des Widerspruchs vor der Nutzung geben.
  6. Hohe wissenschaftliche Standards: Google arbeitet mit namhaften Interessenvertretern aus Wissenschaft und interdisziplinären Bereichen zusammen. Außerdem werden Schulungsunterlagen sowie Forschungsergebnisse und Herangehensweisen veröffentlicht, mit denen auch andere Menschen in die Lage versetzt werden, nützliche KI-Anwendungen zu entwickeln.
  7. Sorgfältige Einsatzabwägung: Für viele KI-Anwendungen wird es mehrere denkbare Anwendungsbereiche geben. Hier soll sorgfältig abgewägt werden, ob ein bestimmtes Projekt überhaupt skalierbar ist, genügend Alleinstellungsmerkmale aufweist und ob es sich nicht zu schädlichen Zwecken einsetzen lässt.

Google gibt an, dass es künstliche Intelligenz in erster Linie verwenden will, um seine Produkte nützlicher und effizienter zu gestalten. Dies soll wiederum nur dann geschehen, wenn der Einsatz künstlicher Intelligenz einen echten Mehrwert verspricht. Das Unternehmen spricht sich klar gegen eine Nutzung von KI-Technologie für schädliche Zwecke aus. Der Einsatz von KI soll in den folgenden Fällen abgelehnt und verhindert werden:

  1. Potenziell schädliche Technologien, bei denen der Nutzen nicht klar überwiegt
  2. Waffen oder andere Technologien, die Menschen verletzen könnten oder dazu beitragen
  3. Überwachungstechnologie abseits internationaler Normen
  4. Technologie, die im Widerspruch zu internationalem Recht oder den Menschenrechten steht

 

Die Ethikfrage: Ist KI nur ein weiterer, logischer Entwicklungsschritt für die Menschheit?

Der Konzern um Google ist sicher eine der großen treibenden Kräfte, die sich mit der Entwicklung von künstlicher Intelligenz und ihrer Anwendung befasst. Es erscheint auf jeden Fall begrüßenswert, dass sich das Unternehmen seiner Verantwortung bewusst ist. Dennoch stellt sich die Frage, inwieweit diese allgemein gehaltenen Prinzipien von Google in der Praxis eingehalten werden können. Selbst, wenn sich der Suchmaschinenriese mit Ethikfragen zur künstlichen Intelligenz befasst, ist nicht gesagt, wie sich andere Unternehmen dazu verhalten: Der schädliche Einsatz von KI-basierter Technologie kann im Prinzip nicht gänzlich ausgeschlossen werden.

Allerdings war das im Grunde bei vielen neu eingeführten Technologien so: Atomkraft, Computer oder Satellitentechnik – fast immer sind sowohl zivile wie auch militärische und somit potenziell auch schädliche Zwecke ableitbar. Es kommt also auch bei Anwendungen künstlicher Intelligenz auf eine sinnvolle Gesetzgebung und einen verantwortlichen Umgang des Einzelnen mit den möglichen Risiken an. Dazu ist unter anderem eine frühe Aufklärung und intensive Auseinandersetzung mit Ethikfragen rund um künstliche Intelligenz wichtig – eine große Herausforderung für den gesamten Bildungs- und Wissenschaftssektor.

An anderer Stelle beleuchten wir ausführlich, wie künstliche Intelligenz die Menschheit bei der Bewältigung globaler Herausforderungen unterstützen kann. Sir Nigel Shadbolt von der University of Oxford hat sich außerdem von anthropologischer Seite intensiv mit dem Thema auseinandergesetzt und ein Buch mit dem Thema „The Digital Ape: how to live (in peace) with smart machines“ veröffentlicht.

 

Video: YouTube / Fraunhofer FOKUS

 

Zusammenfassung

  • Je leistungsfähiger künstliche Intelligenz wird, umso mehr Ethikfragen wirft sie auf.
  • Hierzu hat Google sieben Prinzipien vorgestellt, wie das Unternehmen mit KI-Technologie umgehen will.
  • Google will nur Anwendungen entwickeln, bei denen der Nutzen klar überwiegt.
  • Die letztliche Kontrolle über das, was künstliche Intelligenz darf und was nicht, muss beim Menschen liegen.
  • Bei der Verbreitung von KI handelt es sich möglicherweise nur um einen weiteren, logischen Schritt in der technologischen Entwicklung der Menschheit.
  • Die entsprechende Gesetzgebung muss allerdings mit entwickelt werden und entsprechende Auflagen vorsehen.

 

Wie stehen Sie zu den Möglichkeiten, die die künstliche Intelligenz und Big-Data-Auswertungen im geschäftlichen Bereich eröffnen? Nutzen Sie bereits KI-Anwendungen in der Cloud? Wir freuen uns über Ihren Kommentar.

 

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Facebook Twitter WhatsApp LinkedIn Xing E-Mail