Wie können wir Algorithmen sinnvoll nutzen?

Physiker, Philosoph, Unternehmensberater: Jörg Dräger, Vorstand der Bertelsmann-Stiftung, im Gespräch über Chancen und Risiken des digitalen Wandels.

Physiker, Philosoph, Unternehmensberater: Jörg Dräger, Vorstand der Bertelsmann-Stiftung, im Gespräch über Chancen und Risiken des digitalen Wandels.

Wenn ich nach Arbeitsschluss zum Auto gehe, meldet sich regelmäßig und ungefragt mein Smartphone mit der je nach Verkehrslage berechneten Zeit für den Heimweg und Alternativrouten. Ist ja praktisch, aber irgendwie auch unheimlich, oder?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Solche Unterstützungen sind unheimlich, solange sie uns das Gefühl geben, wir hätten sie nicht unter Kontrolle. Bei mir ploppt auch diese Meldung nach dem Aufstehen auf – mit der Zeit bis zum Büro oder zu einem Termin. Ich weiß aber, welche Daten diese Anwendung nutzt und – ganz wichtig –, wie ich sie stoppen kann. Diese Macht haben wir doch alle. Dagegen kämen wir nie auf die Idee, die Wirkungsweise von Algorithmen infrage zu stellen, wenn wir beim Autofahren plötzlich auf die Bremse steigen müssen und uns das Anti-Blockier-System ABS hilft, in der Spur zu bleiben. Dies ist aber auch ein Ergebnis der algorithmischen Datenanalyse.

Wird es also für jeden von uns wichtiger, sich bewusst zu machen wann und wie ein Algorithmus mit uns agiert?

Ja. Vor allem müssen wir uns aber der gesellschaftlichen Konsequenzen bewusst werden. Ein Navigationsgerät im Auto bestimmt beispielsweise mit der Routenführung über meine Fahr- und damit Lebenszeit, aber eben auch durch den möglicherweise optimierten CO2- Ausstoß und Drehzahl über die Klima- oder Lärmbelastung.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Gibt es noch Bereiche des Lebens, in denen Daten keine Rolle spielen?

Im Privaten schon, zumindest solange wir sie abschalten. Ansonsten? In den USA bestimmen Richter mit Algorithmen das Strafmaß, bei der Personalauswahl sind sie kaum noch wegzudenken, selbst Grundschulplätze – etwa in Berlin – werden inzwischen so vergeben. Algorithmen bestimmen also längst nicht mehr allein technische Bereiche wie das ABS, sondern inzwischen das Leben jedes Einzelnen maßgeblich. Darum ist es wichtig, weniger über die kurzfristigen Effekte durch den Einsatz künstlicher Intelligenz zu reden, dafür mehr über die langfristigen. Sie sind extrem prägend für die zukünftige Gesellschaft.

Reden Sie eigentlich lieber von Algorithmen, künstlicher Intelligenz oder intelligenten Maschinen?

Algorithmus klingt sehr technisch und schreckt eher ab. Künstliche Intelligenz erweckt den Eindruck, wir Menschen würden ersetzt. Der richtige Begriff ist aus meiner Sicht ‚erweiterte Intelligenz‘. Sie kann eben unsere Fähigkeiten erweitern und uns zuarbeiten, uns sehr spezifische Aufgaben abnehmen, wie beispielsweise die Analyse riesiger Datenmengen.

Warum haben wir uns früher – Stichwort ABS – weniger Sorgen über den Einsatz von Daten gemacht und entwickeln heute eine regelrechte Furcht?

Künstliche Intelligenz wird häufig mit dem Terminator oder der Matrix aus Kinofilmen assoziiert. Und die politische Debatte dreht sich meistens darum, wie viele Jobs vernichtet werden. Beides ist negativ besetzt und führt zu Abwehrreaktionen. Besser wäre es, wir würden darüber diskutieren, wie wir unsere menschlichen Fähigkeiten mit Hilfe der Maschinen verbessern können. Denn darum geht es. Der gesellschaftliche Nutzen sollte im Vordergrund stehen. Warum fragen wir denn nicht, wie wir mit erweiterter Intelligenz eine bessere Gesellschaft bauen können?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Vielleicht, weil vielen ihre Jobs wichtig sind? Was wären denn Ihre Stützpfeiler in solch einer Debatte?

Natürlich haben Arbeitsplätze großes Gewicht. Darum ist es so wichtig, heute zu entscheiden, wie wir morgen leben und arbeiten wollen. Algorithmen bieten, klug eingesetzt, Optionen für mehr Gerechtigkeit und globale Fairness, besseren Zugang zu Bildung oder Jobs als wir es heute haben oder können.

Was meinen Sie konkret?

Ich kann in Bewerbungsverfahren durch den Einsatz von Technologie heute schon dafür sorgen, dass mehr Frauen bei Führungsposten zum Zuge kommen. Ich kann auch weniger Benachteiligung durch Herkunft in Gerichtsverfahren ermöglichen. Es liegt also im menschlichem Ermessen, wie und wofür wir Algorithmen bauen und einsetzen. Es geht dabei um Kontrolle und Transparenz der Verfahren. Der Algorithmus hält uns häufig den Spiegel vor, wie wir uns verhalten. Er kann unser ungerechtes Verhalten verstärken, mit ihm kann der Mensch aber auch den Schalter umlegen.

Die Wirtschaft ist auf Effizienz aus. Steht das nicht häufig im Gegensatz zu gesellschaftlichen Interessen wie der Beteiligung aller Menschen – egal, ob sie körperlich gehandicapt sind oder chronisch krank oder aus einer armen Familie stammen?

Ich finde, es ist mehr Wert, die Gesellschaft 20 Prozent gerechter zu machen als die Automobilproduktion 20 Prozent effizienter. Ein Beispiel: In den USA suchte ein Call-Center mit Hilfe von Algorithmen aus Bewerbern Mitarbeiter, die lange bleiben, ohne zu kündigen. Klappte hervorragend. Dann wurde jedoch bemerkt, dass Menschen aus Problemvierteln überhaupt keine Chance auf den Job erhielten, also schlichtweg diskriminiert wurden. Deshalb entschied sich das Unternehmen, den Algorithmus an dieser Stelle zu verdummen, damit er nicht mehr diskriminiert. Die Priorität war: Fairness vor Effizienz.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige
Jörg Dräger, Vorstand der Bertelsmann-Stiftung, beschäftigt sich seit Jahren mit dem digitalen Wandel

Jörg Dräger, Vorstand der Bertelsmann-Stiftung, beschäftigt sich seit Jahren mit dem digitalen Wandel

Spätere Diskriminierungen im Alltag oder am Arbeitsplatz aufgrund von Hautfarbe oder Herkunft können Algorithmen aber nicht verhindern.

Nein, die Sensibilität gegenüber Problemen muss vor deren algorithmischer Lösung stehen. Dann erhalten Menschen Möglichkeiten, die sie vorher kaum hatten. Das wiederum wird zu einem Wandel von Einstellungen und Werten führen, davon bin ich überzeugt. Algorithmen ist es doch völlig egal, woher man kommt, wie alt man ist, die Hautfarbe, welches Geschlecht man hat und der Bildungsweg. Sie sind zum Beispiel in der Lage, anhand von Computerspielen Ihre Kompetenzen zu erkennen und sie mit den Erfordernissen einer Stelle zu verbinden. Imponierend ist nicht allein die Präzision. Mich beeindruckt das Potenzial für eine gerechtere Gesellschaft – die Programme sehen eben nicht nur auf den womöglich holprigen Bildungsweg und fehlende formale Abschlüsse. Sie sehen auch das Unsichtbare, die versteckten Fähigkeiten des Einzelnen.

Können wir dann also unser Bauchgefühl vor Entscheidungen ausschalten?

Keinesfalls. Aber wir können unsere innere Sensibilität mit Hilfe von Daten abgleichen und unserem Bauchgefühl so eine andere Substanz verleihen. Wenn wir erst einmal genau hinsehen, um allen gleichermaßen Zugang in die digitaler werdende Welt zu ermöglichen, wäre schon viel erreicht.

Sind Algorithmen gerecht?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Sie sind genauso gerecht oder ungerecht wie Menschen. Wenn ich sie entsprechend baue, können sie für Gerechtigkeit sorgen. Sie können uns aber nicht die gesellschaftliche Debatte darüber abnehmen, was gerecht ist. In den USA wurde zum Beispiel festgestellt, dass bestimmte Bevölkerungsgruppen leichter Zugang zu Hochschulen finden als andere. Daraufhin wurde festgelegt, dass den betroffenen Minderheiten künftig ein schwächerer High-School-Abschluss reicht, um an den Studienplatz zu kommen, für den die Mehrheit ein besseres Zeugnis braucht. Ist das fair? Darüber muss in einem politischen Prozess geredet und entschieden werden. Auf jeden Fall ist es ein Hebel, strukturelle Benachteiligungen aufzubrechen.

Ist das nicht Gleichmacherei?

Gerade im Bildungsbereich könnten wir durch künstliche Intelligenz die Gleichmacherei durch personalisierten Unterricht beenden und zugleich sozial gerechter werden: Individuelle Förderung soll nicht mehr von der Kreditkarte der Eltern abhängen. Den Lehrer werden die Algorithmen nicht ersetzen – er wird vom Wissensvermittler für alle zum Lernbegleiter des Einzelnen.

Nun treffen Algorithmen inzwischen schon behördliche Entscheidungen. Wer übernimmt die Verantwortung, wenn Sie irren?

Wer den Einsatz von Algorithmen beschlossen hat, muss hinterher auch dafür die Verantwortung übernehmen, inklusive der Qualitätssicherung.

Aus dem Bau- und Umweltrecht kennen wir Verträglichkeitsprüfungen. Brauchen wir so etwas auch für Algorithmen?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Das ist denkbar. Es wird immer Bereiche geben, wo es reicht, zu wissen, dass Algorithmen am Werk sind – etwa bei der Bereitstellung von Mietfahrzeugen. Dann gibt es Gebiete, wo wir Entscheidungen nachvollziehen wollen – zum Beispiel bei Versicherungstarifen für Autos, die ja durch Datenanalyseprogramme ermittelt werden und keine Bevölkerungsgruppe diskriminieren dürfen. Bindende Zulassungsverfahren brauchen wir in sensiblen, gesellschaftlich-relevanten Bereichen – etwa bei der Zulassung medizinischer Roboter oder beim unterstützenden Einsatz in Gerichten. Kontroll- und Beschwerdemöglichkeiten muss es im Digitalen genauso wie im Analogen geben.

Ist die algorithmische Gesellschaft am Ende demokratischer als die heutige?

Algorithmen werden uns auf jeden Fall Zugang zu mehr Informationen verschaffen. Ob sie die Gesellschaft auch demokratischer machen können, wird daran liegen, ob wir es schaffen, mit den Anbietern sozialer Medien in ernsthafte politische Diskussionsprozesse über die Gefahren der Katalysatoren, der Echokammern der Radikalisierungen, zu kommen. Im Moment ist es so, dass deren Algorithmen immer extremere Meinungen befördern und verstärken. Technisch lässt sich jedoch auch der Ausgleich unterstützen.

Ausgewogenheit gilt auf Facebook oder Twitter eher als langweilig.

Aber müssen wir das akzeptieren, wenn die Mehrheit einer Gesellschaft Ausgewogenheit will? Ich finde, es läge durchaus in der gesellschaftlichen Verantwortung der Konzerne, an diesem Punkt ihre kommerziellen Interessen zu durchbrechen – um des friedlichen Zusammenlebens willen. Es gibt hier ja durchaus positive Beispiele: Facebook hatte nach dem letzten amerikanischen Wahlkampf eine Riesendebatte über politische Beeinflussung am Hals. Im Bundestagswahlkampf ist daraufhin der Suchmechanismus von Google untersucht worden – mit dem Ergebnis, dass persönliche Eigenschaften bei politischen Suchanfragen für die Ergebnisse kaum eine Rolle spielen. Es geht also.

Die Bundesregierung hat eine „KI-Strategie“ zum Umgang mit künstlicher Intelligenz verabschiedet. Welche Verantwortung fällt dem Staat beim digitalen Wandel zu?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Digitaler Wandel bedeutet für den Staat vor allem, dass er entsprechende Gestaltungskompetenz aufbauen muss. In zweierlei Hinsicht: Der Staat schafft Rahmenbedingungen für das Wirken intelligenter Maschinen mit dem Ziel, dass diese dem Gemeinwohl dienen. Gleichzeitig betreibt der Staat in Sicherheits-, Sozial- oder Finanzbehörden selbst algorithmische Systeme, deren Entscheidungen sich kein Bürger entziehen kann. Der Staat hat also eine Doppelrolle, die er schnell und umfassend ausfüllen muss.

Sind wir da schnell genug?

Da lohnt vielleicht ein Blick nach China. Das Leben der Chinesen ist quasi algorithmisch durchdrungen. Das geht soweit, dass durch Einhaltung staatlicher Vorgaben oder anderes Wohlverhalten Boni in deinem Bürger-Konto aufgebaut werden, mit deren Hilfe man etwa an Schlangen Wartender vorbei ins Flugzeug steigen darf.

Das klingt eher abschreckend.

China sollte hier für uns überhaupt kein Vorbild sein – das Beispiel mahnt uns aber zur Eile, eigene Antworten zu finden. Ob es uns gefällt oder nicht: Wir müssen darüber reden, was wir wollen und was es keinesfalls geben darf. Das ist allerdings anspruchsvoller als die Angstmacher-Debatte darüber, wie viele Jobs durch Digitalisierung verloren gehen könnten. Weil es um unsere Werte geht und die Frage, wie wir sie mit unserer Zukunft verbinden. Das Beispiel China beweist: Diese Zukunft hat schon begonnen.

In der Politik: Wissenschaftssenator Jörg Dräger (links) gemeinsam mit dem damaligen Hamburger Bürgermeister Ole von Beust auf einer Pressekonferenz im Februar 2004.

In der Politik: Wissenschaftssenator Jörg Dräger (links) gemeinsam mit dem damaligen Hamburger Bürgermeister Ole von Beust auf einer Pressekonferenz im Februar 2004.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Von Thoralf Cleven

Mehr aus Politik

 
 
 
 
 
Anzeige
Anzeige
Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Outbrain UK Ltd, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Letzte Meldungen

 
 
 
 
 
 
 
 
 

Spiele entdecken