Horizont Newsletter

Algorithmen im politischen Marketing: Eine Gefahr für die Demokratie

Horizont Summit 2018
Hilton
Horizont Summit 2018
© Johannes Brunnbauer

Die US-amerikanische Bestsellerautorin und Mathematikerin Cathy O' Neil gilt als eine der wortstärksten Kritikerinnen der Algorithmen – in ihrer Opening Keynote zum Werbeplanung.at Summit 2018 erläuterte sie, wie die Technologien unsere Gesellschaft gefährden.

Google will, dass wir ihnen vertrauen wollen, sagt die US-amerikanische Mathematikerin und Bestseller-Autorin Cathy O'Neil: "Aber als ich letztens eine Google-Anfrage mit den Worten „ist der hol“ begann, schlug mit Auto-Vomplete die Frage „Ist der Holocaust echt?" vor, und die ersten Treffer waren Holocaust-Verleugnungsseiten". Google streite die Verantwortung dafür ab, wolle aber zugleich die erste Referenz für Wissen sein. "Wir haben nun ein System, bei dem Leute sich hinter einem Konzept von Mathematik verstecken und daraus „Weapons of Math Destruction“ machen", warnt O'Neil.

Algorithmen nutzen historische Daten um daraus eine Definition von Erfolg zu schaffen und entsprechende Handlungen zu setzen oder Prognosen zu treeffen. Dass dies sehr subjektiv ist, schildert O'Neil an einem Beispiel aus der echten Welt: "Wenn es um die Definition von gutem Essen geht, nutze ich nicht alle Inhalte meiner Küche, es wird also kuratiert - ähnlich ist das mit den Daten", sagt sie: "Und meine Kinder definieren gutes Essen anders als ich, sie würden lieber Junk Food essen." Trotzdem bestimmt sie, was auf den Tisch kommt - nicht ihre Kinder. Daher gilt: Erstens definieren Menschen Erfolg unterschiedlich; zweitens entscheiden die Mächtigen darüber, was Erfolg ist. Facebook optimiert also für mehr Verweildauer, weil für sie Erfolg bedeutet, dass die User oft auf Werbung klicken. Und eben daraus entsteht die schädliche Atmosphäre, die es auf Facebook rund um Fake News und Filterblasen gibt. 

Drei Probleme mit Algorithmen

"Eigentlich liebe ich Algorithmen, ich baue sie auch selbst, da ich Data Scientist bin", sagt O'Neil: "Aber ich finde, dass viele das Versprechen von Big Data nicht erfüllen." Es gebe viele Algorithmen, die hauptsächlich auf Rankings beruhen: Wie wahrscheinlich ist es zum Beispiel, dass eine Person einen Kredit zurück zahlt? Mit dieser Frage werden Kriterien für Kredite, Versicherungen und auch zum Beispiel Jobs genutzt. Wo es früher Bürokratie gab, gibt es jetzt Algorithmen. Diese Algorithmen haben gemein, dass die allesamt weit verbreitet sind. Hinzu kommt, dass sie nicht nur weit verbreitet, sondern auch mysteriös und intransparent sind: Die Menschen wissen nicht, wie der Algorithmus rechnet und welche Daten von ihnen vorhanden sind und genutzt werden.

Drittens sind schlechte Algorithmen destruktiv, sagt O'Neil - etwa im Bereich Bildung. Die Bildungslücke in den USA klafft auseinander; also wurde ein System geschaffen, mit dem Lehrer bewertet werden können. Vieles davon war aber willkürlich, die Bewertungen im Scoring-System gingen durcheinander – trotzdem verloren zahlreiche Lehrer ihren Job; und niemand konnte ihnen erklären, warum das so ist. Als anderes Beispiel nennt die Expertin einen jungen Menschen, der keinen Mindestgehalt-Job bekam, weil er in einem Online-Persönlichkeitstest durchfiel. Zum Glück war sein Vater Anwalt und der erkannte im Test einige Fragen aus einem Psychotherapie-Test, bei dem es um bipolare Störungen geht. Das ist illegal, und sein Vater hat nun sieben Unternehmen verklagt, die diese Tests anwenden. "Ich weiß aber nicht, ob diese Klage gewinnen wird", sagt O'Neil: Denn die Regulatoren und die Richter wissen noch  nicht, wie sie mit Algorithmen umgehen sollen.

Sexistische Roboter

Dann gibt es zum Beispiel Algorithmen für Jobs, die auf Basis der Vergangenheit agieren - und dadurch kann es vorkommen, dass der Algorithmus sexistisch diskriminiert: Wenn Frauen in der Vergangenheit in Führungspositionen nicht erfolgreich waren, dann stellt der Algorithmus sie nicht mehr ein. Die Frage, wenn wir etwas automatisieren, ist also: Wie messen wir die Vorurteile, die der Algorithmus nutzt? Wie werden wir sie los? Ähnliches gilt für die Arbeit der Exekutive: In den USA werden Algorithmen auch für die Polizeiarbeit genutzt, erzählt O'neil: Schwarze werden dann für kleinere Verbrechen festgenommen, damit sie später keine größeren Verbrechen begehen – auch abhängig von dem Bezirk, in dem sie wohnen. 

"Ich habe mit den Menschen gesprochen, die diese Scoring-Systeme bauen", sagt O'Neil: "Und sie verstehen nicht die Verbindung zwischen ihrer Arbeit und den Auswirkungen auf die reale Welt. Sie sagen zum Beispiel, dass sie nicht Rasse als Argument verwenden, aber die Postleitzahl. Und in den USA kann man mit der Postleitzahl rasch Rückschlüsse auf Rasse und sozialen Status treffen."

Transparenz gefordert

"Wir brauchen etwas, das wir meines Wissens nicht in der DSGVO haben: Das Recht, in Scoring Systeme transparent Einblick zu bekommen", sagt O'Neil. Es müssen Fragen beantwortet werden wie: Warum kriege ich einen Kredit oder einen Job nicht? Warum verliere ich meinen Job? Bürger müssen Einblick kriegen in die Daten und in den Algorithmus, vor allem wenn es so etwas wichtiges wie Credit Scores geht. 

Wir haben derzeit kein System, das die Sicherheit jener Algorithmen überprüft, welche die Leben vieler Menschen zerstören, nur weil sie Frauen oder Schwarze sind, klagt O'Neil: "Die Tech-Unternehmen stellen nicht die Frage, wessen Leben dadurch zerstört werden. Sie definieren zum Beispiel auch Rassismus anders." Es brauche daher auch mehr Stakeholder, die sich einbringen.

Politisches Marketing als Gefahr

O'Neil hat selbst im Marketing gearbeitet - betont aber, dass nicht jede Form des Marketings gutartig ist - besonders kritisch ist sie hier gegenüber politischem Marketing mit Hilfe von Algorithmen. Bereits im Wahlkampf von Barack Obama hatte dies begonnen, unter Donald Trump hatte es rund um Cambridge Analytica für negative Schlagzeilen gesorgt. Diese Systeme sorgen für Asymetrie, sagt O'neil: "Sie wissen, was ich will und wie mein Wahlverhalten ist und zeigen mir genau das, was ich von ihnen hören will." Das sei effizient, und es funktioniert für die Politiker und die Unternehmen - aber es funktioniert nicht für Demokratie. "Denn Demokratie muss ineffizient sein", sagt O'Neil: "Ich möchte möglichst viel über die Kandidaten wissen, auch wenn das peinlich und ineffiziert ist."

Generell ist sie der Ansicht, dass maßgeschneiderte Anzeigen im politischen Bereich nicht erlaubt sein sollten. "Das ist nur meine Meinung, aber viele Menschen wachen nun auf", sagt O'Neil: Dem gegenüber stünden die Interessen der Unternehmen, die mehr gegenüber mehr Transparenz ihrer Systeme skeptisch eingestellt sind und entsprechend dagegen politisches Lobbying betreiben - weil dadurch ihr Profit geschmälert werden könnte. 

0 Kommentare

Keine Kommentare gefunden!

Neuen Kommentar schreiben

* Pflichtfelder
Netiquette auf HORIZONT online