Die Macht der Algorithmen

Früher galt: Von der eigenen Schwangerschaft erfährt man als erstes. Vielleicht wusste noch der Arzt vor einem Bescheid, ansonsten aber hatte man diese Information erst einmal exklusiv.
22.07.2017, 00:00
Lesedauer: 6 Min
Zur Merkliste
Die Macht der Algorithmen
Von Nico Schnurr

Früher galt: Von der eigenen Schwangerschaft erfährt man als erstes. Vielleicht wusste noch der Arzt vor einem Bescheid, ansonsten aber hatte man diese Information erst einmal exklusiv. Heute können unparfümierte Körperlotion, große Umhängetaschen oder Zink- und Magnesiumtabletten im Einkaufswagen ausreichen, und andere wissen von der Schwangerschaft, bevor man selbst etwas ahnt. Zumindest, wenn man Kunde der US-Supermarktkette Target ist. Deren Datenanalysten haben vor einer Weile ein System erfunden, das die Schwangerschaft ihrer Kunden vorhersagen soll. Anhand von 25 Produkten ermittelt die Kette „Schwangerschaftspunkte“. Die Hoffnung: Der Einkauf verrät den Geburtstermin.

Und tatsächlich gibt es diese Geschichte von einem Vater, der wutentbrannt in eine Target-Filiale stürmte und sich empörte, dass seiner minderjährigen Tochter Gutscheine für Babykleidung und Kinderbetten zugeschickt worden waren. „Wollen Sie meine Tochter dazu bringen, schwanger zu werden?“, fragte der Vater den Marktleiter. Was er da noch nicht wusste: Target wusste mehr als er. Und mehr als seine Tochter. Später stellte sich heraus, dass sie tatsächlich schwanger war.

Diese Geschichte, über die zuerst die „New York Times” geschrieben hatte, gehört inzwischen zum Kanon klassischer Anekdoten, wann immer über Algorithmen gesprochen wird. Dabei sind Algorithmen nicht viel mehr als mathematische Gleichungen, die in ihrer Summe ein Problem lösen. Die Geschichte des schwangeren Target-Teenagers wird erzählt, um deutlich zu machen: Algorithmen sind mehr als das. Die Geschichte soll ein Beispiel für ihre Macht sein. Die Geschichte soll zeigen: Algorithmen wissen etwas über uns, bevor wir es wissen – und deshalb bestimmen sie über unseren Alltag und die Welt, in der wir leben.

Heiko Maas dürfte diese Geschichte kennen. Der Bundesminister für Justiz und Verbraucherschutz kennt einige solcher Geschichten, die von der Macht der Algorithmen handeln, und er erzählt sie gerne. Zuletzt hat er das Anfang Juli getan, auf einer Konferenz zur Digitalisierung in Berlin. Da sprach Maas über die Preise von Flugtickets, die Kreditwürdigkeit von Verbrauchern und den Zugang zu lukrativen Versicherungstarifen. Und er stellte fest: All das wird immer öfter von Algorithmen bestimmt.

Maas schaute auch ins Ausland. Er blickte in die Vereinigten Staaten und erzählte, dass dort Bewerbungen durch Algorithmen vorsortiert würden und die Justiz mit ihrer Hilfe Rückfallquoten von Straftätern vorhersagen lasse. Und er schilderte, dass eine automatisierte Gesichtserkennung als Beweismittel vor Gericht verwendet würde, die Afroamerikaner einem größeren Risiko aussetze, fälschlicherweise verurteilt zu werden. Weil das Programm vor allem mit weißen Testpersonen trainiert worden sei.

Der Bundesminister sprach auch von China und einer „sozialen Zuverlässigkeit“, die sich die Behörden über ihre Bürger errechnen ließen. Das Prinzip: Für die Angepassten gibt es Privilegien, bei abweichendem Verhalten folgen Strafen. Auch ein Beispiel aus Australien hatte Maas ausgemacht: Die Steuerbehörden hätten ihre Bescheide im vergangenen Jahr allein von Algorithmen erstellen lassen.

Maas erzählte all diese Geschichten nicht grundlos. Für ihn sind sie Anzeichen einer programmierten Fremdbestimmung. „Der technische Fortschritt darf nicht zu gesellschaftlichem Rückschritt führen“, sagte der Bundesminister. „Wenn Daten aus der Vergangenheit über Teilhabe-Chancen in der Zukunft bestimmen, ist das nicht unbedenklich.“ Maas glaubt, Algorithmen könnten „soziale Ungleichheit reproduzieren und verfestigen“. Deshalb fordert er ein vorurteilsfreies Programmieren und schlägt ein „digitales Antidiskriminierungsgesetz” vor, ergänzend zum allgemeinen Gleichbehandlungsgesetz. Mass plant zudem ein Transparenzgebot für Algorithmen. Es soll Unternehmen dazu verpflichten, Auskunft über ihre Personalisierungsmechanismen zu geben. Und es soll Nutzern die Entscheidung überlassen, welche Filter sie akzeptieren. Auch eine Digitalagentur will Maas gründen. Sie soll helfen, mehr Erkenntnisse über Algorithmen zu gewinnen.

Neu ist Maas’ Idee nicht. Schon vor Jahren verlangte der US-amerikanische Computerwissenschaftler Nicholas Diakopoulos Auskunft über Algorithmen. „Regierungen sind nur legitim, wenn sie den Bürgern gegenüber rechenschaftspflichtig sind“, schrieb Diakopoulos. „Aber Algorithmen sind heute weitgehend unreguliert, und trotzdem üben sie Macht über Menschen aus.“ Deshalb müssten die automatisierten Entscheidungen der Maschinen ebenso aufmerksam kontrolliert werden wie Regierungen, befand Diakopoulos. Dass diese Gedanken nun auch in der Bundespolitik angekommen sind, freut Matthias Spielkamp. Der Journalist und Internetaktivist setzt sich als einer der Gründer der Initiative „Algorithm Watch“ für eine breitere Diskussion über den Einfluss von Algorithmen ein. Spielkamp könnte zufrieden sein. Endlich steht sein Thema auf der Agenda. Und das pünktlich zum Wahlkampf. Aufmerksamkeit scheint garantiert. Zufrieden ist er trotzdem nicht. „Jetzt mal eben so ein Gesetz hinzuschludern, ist keine gute Idee“, sagt Spielkamp. „Wir brauchen jetzt Erkenntnisse über Algorithmen, keine Gesetze.“ Spielkamp sorgt sich, dass Maas eine Debatte anstößt, die von Ängsten dominiert wird. Bei so einem komplizierten Thema sei die Versuchung groß, „die Leute nervös zu machen, aber Angst ist ein schlechter Ratgeber“.

Wenn Maas beginnt, zwischen guten und bösen Daten zu trennen, hält Spielkamp das für gefährlich. „Was nicht passieren darf, ist, dass jetzt der Algorithmus an allem schuld ist“, sagt er. „Ein Algorithmus gleicht einem Messer: Du kannst dir damit ein Butterbrot schmieren – oder jemanden umbringen.“ Was Spielkamp meint: Algorithmen sind weder grundsätzlich gut noch schlecht. Nur sind sie auch keine neutralen Maschinen. Sie sind vom Menschen gemacht und programmiert. Und Menschen wiederum handeln auf Basis von Werten und Interessen. „Jeder Algorithmus enthält menschliche Werturteile“, sagt Spielkamp. Ein Antidiskriminierungsgesetz speziell für die digitale Welt hält der Journalist deshalb für überflüssig. „Es gibt keine digitale Diskriminierung. Es gibt nur Diskriminierung“, betont Spielkamp. Maschinen könnten nicht zur Rechenschaft gezogen werden. Letztlich müssten immer Menschen oder Unternehmen die Verantwortung für die Technik übernehmen.

Und trotzdem: Dass nun über Algorithmen gesprochen wird, findet er wichtig. „Wir dürfen die Gestaltungsmacht nicht wenigen Unternehmen überlassen.“ Um das zu verhindern, brauche die Diskussion aber mehr Fakten. Und die versucht Spielkamp nun mit seiner Initiative „Algorithm Watch“ zu liefern. Gerade führen sie eine Fallstudie zur Bundestagswahl durch. „Datenspende“ heißt das Projekt. Es soll helfen, zumindest in Ausschnitten herauszufinden, wie der Algorithmus der Google-Suche funktioniert. Und es soll einen ungefähren Eindruck vermitteln, wie groß Googles Einfluss auf die Bundestagswahl ist.

Spielkamp und seine Mitstreiter wollen wissen, welche Themen in den Ergebnissen der Google-Suche Konjunktur haben, wenn es um die Bundestagswahl geht. Und vor allem interessiert sie, wie das Unternehmen die Suchergebnisse anpasst. Und wie sich die Suche verändert, wenn unterschiedliche Personen an unterschiedlichen Orten das Gleiche suchen. „Grob gesagt wollen wir untersuchen, inwieweit sich die Suchergebnisse eines Bayern zur CSU von denen eines Thüringers unterscheiden“, erklärt Spielkamp.

Dafür hat die Initiative ein Plug-in programmiert, ein kleines Zusatzmodul, das sich jeder auf seinem Computer installieren kann. Dieses Programm schickt eine Liste von immer gleichen Suchanfragen zu verschiedenen Tageszeiten an Google – und sendet die Ergebnisse dann zurück an Spielkamps Initiative. Einige Tausend nehmen bereits an der „Datenspende“ teil.

„Ich bin überzeugt, dass Googles Einfluss auf die Bundestagswahl mit der Darstellung der Suchergebnisse relevant ist“, sagt Spielkamp. Doch er schränkt ein: „Auf dem Boden bleiben muss man trotzdem. Google wird nicht darüber entscheiden, wer Kanzler wird. Das ist völlig ausgeschlossen.“ Dafür sei die Auswahl an weiteren Medien einfach zu groß. Schließlich informierten sich die Deutschen nicht allein übers Internet. Wunderdinge dürfe man von der Studie nicht erwarten, meint Spielkamp. Das Projekt sei ohnehin mehr als ein Anstoß zu verstehen – für eine neue Art von Umgang mit den Algorithmen. Für eine Diskussion, die nicht allein geprägt ist von amerikanischen Geschichten wie die vom schwangeren Teenager und der Supermarktkette.

„Google wird nicht darüber entscheiden, wer Kanzler wird.“ Matthias Spielkamp, Algorithm Watch
Jetzt sichern: Wir schenken Ihnen 1 Monat WK+!
Mehr zum Thema
Lesermeinungen

Das könnte Sie auch interessieren

Einwilligung und Werberichtlinie

Ich erkläre mich damit einverstanden, dass die von mir angegebenen Daten dazu genutzt werden, regelmäßig per E-Mail redaktionelle Inhalte des WESER-KURIER seitens der Chefredaktion zu erhalten. Die Daten werden nicht an Dritte weitergegeben. Ich kann diese Einwilligung jederzeit formlos mit Wirkung für die Zukunft widerrufen, z.B. per E-Mail an widerruf@weser-kurier.de.
Weitere Informationen nach Art. 13 finden Sie unter https://www.weser-kurier.de/datenschutz

Schließen

Das Beste mit WK+