Künstliche Intelligenz: Unsere Zukunft oder der drohende Ruin?

Ein Mann hält die Hand eines bionischen Roboters.

Ein Mann hält die Hand eines bionischen Roboters.

Hannover. Darf man einen Menschen töten, um fünf zu retten? Der Weichenstellerfall (Trolley-Problem) ist ein bekanntes moralisches Gedankenexperiment. Früher ging es dabei oft um eine Straßenbahn, die unaufhaltsam auf eine Gruppe von fünf Personen zurast. Der arme Weichensteller muss sich nun entscheiden: Tut er nichts und lässt die fünf Menschen sterben, oder lenkt er die Bahn auf eine Strecke um, auf der sie nur eine Person tötet?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Heute scheint das Problem aktueller denn je. Dabei geht es aber nicht mehr um Straßenbahnen und Weichensteller, sondern um selbstfahrende Autos. In Zeiten, in denen Maschinen immer häufiger selbstständig Entscheidungen fällen, scheint es eine wichtige Frage zu geben: Sollte ein selbstfahrendes Auto im Ernstfall einen Fußgänger überfahren, um das Leben der Insassen zu retten? Eine relevante Frage, sollte man meinen. Aber Meredith Whittaker hat nicht viel für sie übrig. Sie ist KI-Expertin, ehemalige Google-Mitarbeiterin und Gründerin des AI Now Institute, das sich mit den sozialen Auswirkungen von künstlicher Intelligenz (KI) befasst. Als solche kritisiert Whittaker: Das Weichenstellerproblem reduziert extrem komplexe Probleme auf eine simple Entweder-oder-Frage. Hilfreich ist das nicht, vor allem aber lenkt es von den eigentlichen Pro­blemen ab.

Künstliche Intelligenz: In unserem Alltag längst keine Seltenheit mehr

Der Milliardär Elon Musk hat Angst vor der KI-Apokalypse. Vor einer künstlichen Intelligenz, die so mächtig wird, dass sie die Menschheit versklavt. Es ist eine ferne, unwahrscheinliche Zukunft. Aber auch von einer Welt, in der Autos selbstständig durch die Straßen steuern, sind wir im Jahr 2019 noch weit entfernt. Die Frage, wie Algorithmen ihre Entscheidungen treffen, stellt sich dagegen schon heute.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Denn die Algorithmen um uns herum beeinflussen schon längst unser Leben. Algorithmen sind, so beschreibt es die Mathematikerin Hannah Fry, ebenso Teil der modernen Infrastruktur wie Brücken, Gebäude und Fabriken. Sie arbeiten in Krankenhäusern, auf Polizeiwachen oder in Supermärkten. Sie helfen bei der Suche nach passenden Bewerbern oder bei der Bewertung von Kreditanträgen. Dabei können die künstlichen Intelligenzen – so nennt man vereinfacht gesagt, einen Algorithmus, der selbstständig lernt – einen tollen Job machen. Sie können Filme empfehlen, Hautkrebszellen erkennen und Hasspostings auf Facebook löschen.

Wenn Daten verzerrt werden: Die Schattenseite der Technologie

Das Problem ist nur: KI ist eine Technologie, die man ebenso einsetzen kann, um automatische Waffensysteme zu bauen, die selbst die Entscheidung treffen, ob sie einen Menschen töten. Oder um, wie es etwa in China schon praktiziert wird, Menschen anhand verschiedener Merkmale zu bewerten. Problematisch wird es auch, wenn Algorithmen Vorurteile reproduzieren und unfaire Entscheidungen treffen. Menschen tendieren dazu, die Empfehlungen eines Algorithmus für neutral zu halten. Tatsächlich aber hängt viel davon ab, mit welchen Daten er trainiert wird. „Enthalten die Daten eine Verzerrung, kann die KI menschliche Vorurteile indirekt weitergeben“, erklärt Philosophieprofessor Thomas Metzinger von der Universität Mainz. Dann bevorzugt ein Algorithmus zum Beispiel männliche Bewerber oder empfiehlt Afroamerikaner seltener für eine Entlassung auf Kaution.

Das zu verhindern ist gar nicht so einfach. Ein Algorithmus denkt nicht wie ein Mensch, mit der Nachvollziehbarkeit ist es oft schwierig. „Selbst die Entwickler können sehr oft nicht erklären, wie genau es zu einer Entscheidung gekommen ist“, sagt Metzinger. Und oft wollen die Unternehmen das auch gar nicht.

Nur mit vielen Daten werden schlaue Algorithmen geschaffen

„Die KI, die derzeit unser Leben und unsere Institutionen berührt, ist eine Unternehmenstechnologie“, sagt Whittaker in einem Vortrag auf der Falling Walls Conference in Berlin. Um schlaue Algorithmen zu erschaffen, braucht man viel Rechenleistung und viele Daten, mit denen man sie trainieren kann. Nur eine Handvoll Unternehmen, darunter Amazon, Microsoft und Google, verfügten über diese Voraussetzungen, sagt Whittaker. Dazu kommen Staaten wie China. Sie alle sind nicht gerade für ihre Transparenz bekannt.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Experten haben Verbesserungsvorschläge für den Einsatz künstlicher Intelligenz

Dabei gibt es Ideen, wie man es besser machen könnte. Vorstellbar ist zum Beispiel, dass man den Einsatz von KI in bestimmten Bereichen einfach verbietet. „28 Länder haben etwa die Entwicklung tödlicher autonomer Waffensysteme verboten“, sagt Metzinger. „Deutschland gehört nicht dazu.“ Man könne auch regeln, dass eine KI in bestimmten Situationen nicht ohne Prüfung durch einen Menschen Entscheidungen treffen darf. Und um sicherzustellen, dass eine KI keine – zumindest offensichtlichen – Vorurteile reproduziert, könnte man sie vor ihrer Anwendung durch Ethiker, Datenschutzexperten oder Juristen überprüfen.

KI-Technologie: Hemmen strengere Regeln Innovationen?

An Vorschlägen mangelt es also nicht – auch nicht in Deutschland: Das Arbeitsministerium plant etwa einen KI-TÜV. Von einem KI-Konsens ist man aber noch weit entfernt. „Es gibt weltweit inzwischen weit über 80 verschiedene Ethikrichtlinien – die von Unternehmen gar nicht mit eingerechnet“, sagt Metzinger. „Doch die meisten davon sind butterweich und quasi inhaltsleer, eher als Marketingmaßnahmen zu verstehen.“ Zu Recht, würden Kritiker vielleicht sagen, strengere Regeln hemmten schließlich Innovationen. Metzinger dagegen befürchtet, dass es in einem solchen Umfeld zu einem globalen Unterbietungswettlauf kommen könnte. Vom Bericht der deutschen Datenethikkommission ist er aber sehr angetan, und auch in die EU setzt er – wie Whittaker – große Hoffnung.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Ein Lichtblick sei, dass Google, Amazon und Co. für ihre Software „nicht einfach 18 verschiedene Versionen erstellen können”, sagt Whittaker. So können regionale Gesetze wie etwa die EU-Datenschutz-Grundverordnung plötzlich eine globale Wirkung haben. Denn Alternativen, die solche Gesetze unterlaufen, sind nicht so leicht zu programmieren.

Mehr aus Digital

 
 
 
 
 
Anzeige
Anzeige
Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Outbrain UK Ltd, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Verwandte Themen

Letzte Meldungen

 
 
 
 
 
 
 
 
 

Spiele entdecken