Werbung & Medien: So manipulieren Algorithmen
 

Werbung & Medien: So manipulieren Algorithmen

Adam Morgenstern

Algorithmen-Kritikerin Cathy O’Neil hält die Keynote am Werbeplanung.at Summit. Im Interview erläutert die Bestsellerautorin, wie Algorithmen Gutes leisten können. Für Medien, Werbung und Demokratie drohen aber auch Manipulation, Echokammern und Machtmissbrauch.

Diese Coverstory ist zuerst in Ausgabe 20/2018 des HORIZONT erschienen. Noch kein Abo? Hier klicken!

Mit Algorithmen werden Logistik- und Verkehrssysteme gesteuert und treffsichere Prognosen errechnet – von der Wirtschaft bis zur Wettervorhersage: Viele Aspekte des modernen Lebens wären ohne diese Technologie nicht umsetzbar. Doch es gibt auch eine dunkle Seite. Mathematikern und Bestsellerautorin Cathy O’Neil erläutert, wie Algorithmen Filterblasen schaffen und Ungleichheit fördern. Und somit zur Gefahr für Gesellschaft, Demokratie und die Werbebranche werden.

Horizont: In jüngster Zeit standen Algorithmen eher negativ in der Presse. Wie unterscheidet man zwischen „guten“ und „bösen“ Algorithmen?

Cathy O’Neil: Man kann zwischen guten und bösen Algorithmen nur unterscheiden, wenn man den Kontext kennt, in dem sie genutzt werden. Mit einem Health-Risk-Score- Algorithmus können Ärzte Patienten helfen, gegen Diabetes anzukämpfen. Das ist gut. Wenn Arbeitgeber aber den gleichen Algorithmus verwenden, um kranke Menschen auszuschließen, dann ist das schlecht. Die entscheidende Frage ist: Wer sind die Stakeholder, die vom Algorithmus betroffen sind, und was sind ihre Sorgen? Es gibt bei allen Algorithmen das Risiko, dass Schaden angerichtet wird – das Risiko und der angerichtete Schaden sind in manchen Situationen halt größer als in anderen.

Stichwort Kontext: In welchem Kontext kann die Medienbranche Algorithmen für das Gute – oder das Böse – einsetzen?

Es ist zu beobachten, dass Fake News und irreführende Headlines auf Facebook bevorzugt behandelt werden, weil der Facebook-Algorithmus auf Engagement und die auf Facebook verbrachte Zeit hin optimiert ist. Das verhindert naturgemäß nüchterne Diskussionen, die auf Fakten beruhen.

Manche Onlinemedien wollen das Erscheinungsbild ihrer Website auf den individuellen User zuschneiden. Besteht hier auch die Gefahr, dass reißerische Headlines weiter oben erscheinen?

Ja, absolut. News-Sites haben sich dummen, irreführenden Netzwerken angenähert und die Inhalte für diese optimiert. Die Qualität der Berichterstattung ist somit gesunken. Das ist verständlich, weil sie Werbeumsätze an Facebook verloren haben und diese zurückgewinnen wollen. Diese dummen Metriken, in denen die Klicks auf einen Artikel als Maß gelten, führen aber zu einer negativen Feedbackschleife.

Also führen Algorithmen in der Medienbranche zu mehr Clickbait?

Es kommt darauf an, mit welcher Macht Algorithmen durch Menschen ausgestattet werden. Mark Zuckerberg hat seinen Algorithmus zum Beispiel mit enormer Macht ausgestattet, und die ganze Medienwelt muss mit den Konsequenzen dessen umgehen. Journalisten produzieren mehr Clickbait, weil sie wissen, dass dieser geklickt wird.

In der Werbebranche werden Algorithmen sehr mächtig – Stichwort: Programmatic Advertising. Welche Effekte sehen Sie hier?

Dies ist ein automatisiertes System, mit dem Werbetreibende minuziös ihre Kunden adressieren können in einer Art, die in der Vergangenheit zu teuer war, weil wir nicht genug Informationen über die Menschen und somit nicht genug Genauigkeit im Targeting hatten. Aber nun ist das anders. Als Beispiel aus meinem Buch nenne ich hier die For-Profit-College-Industrie: Sie targeten spezifisch alleinerziehende, schwarze Frauen, die sich um die Ausbildung ihrer Kinder sorgen und arm genug sind, um sich für Wohlfahrtshilfe zu qualifizieren. Mit der Masse an Informationen, die auf Facebook und Google über diese Menschen verfügbar sind, kann die Branche die Menschen recht günstig adressieren.

Ich persönlich glaube, dass Cambridge Analytica nicht gut gearbeitet hat.

Welche Probleme entstehen in der Gesellschaft durch extremes Microtargeting? Ist nun jeder User eine eigene Parallelgesellschaft?

Ich sehe drei Probleme: Erstens, dass wir alle in unseren eigenen kleinen Echokammern leben und in diesen gezielt beworben und mit Informationen versorgt werden – dadurch merken wir nicht mehr, dass es auch andere Meinungen gibt, und verlernen, uns auf zivile Art mit unseren Mitmenschen auseinanderzusetzen, wenn wir anderer Meinung sind. Zweitens werden leicht Zielgruppen geschaffen, die verletzlich sind – arme Menschen oder Spielsüchtige – und ausgenutzt werden. Daraus ergibt sich die Kernaussage meines Buchs, dass die Verwendung von Algorithmen die Ungleichheit in der Gesellschaft noch verstärkt: Erfolgreiche Menschen werden erfolgreicher, weniger erfolgreiche werden weniger erfolgreich. Das dritte Problem des intensiven Microtargetings ist die Asymmetrie der Macht, die politische Kampagnen über Menschen haben. Individuelle Wähler können mit exakt jener Werbung beschickt werden, mit der der Politiker sie adressieren will. Diese Werbung muss nicht zwingend faktenbasiert sein, sie kann auch emotional sein und ihre Ängste adressieren: Es gibt sogar politische Werbung, die Wähler explizit vom Wählen abhält. Diese Praktiken sind geheim – wir haben also keinen Einblick, welche Nachrichten an welche Menschen geschickt werden. Es könnte also sein, dass einzelne Botschaften einander widersprechen, ohne dass wir es wissen. Die Kampagnenmanager fühlen also viel Macht und glauben, dass sie effizient sind – das stimmt manchmal, ist aber schlecht für die Demokratie. Demokratie lebt von Ineffizienz und davon, dass – zumindest im Idealfall – jeder alles weiß. Von diesem Ideal entfernen wir uns zunehmend, wenn jeder eine andere Geschichte vom gleichen Kandidaten hört und wir nicht wissen, was die eigentliche Wahrheit ist.

Wir verlernen, uns auf zivile Art mit Mitmenschen auseinanderzusetzen.

Und die vergangenen US-Wahlen sind das beste Beispiel dafür, dass Unternehmen wie Cambridge Analytica Wahlen beeinflussen können.

Ich persönlich glaube, dass Cambridge Analytca nicht sonderlich gut gearbeitet hat. Aber ich selbst war auf Facebook in einer kleinen Filterblase, in der meine Mitmenschen ernsthaft darüber diskutiert haben, dass Hillary Clinton Präsidentin werden könnte, obwohl Trump die Wahl gewonnen hatte. Sie haben sich auf Fake News verlassen, weil sie die Realität nicht akzeptieren wollten. Das alarmiert mich. Das Problem liegt aber zugleich nicht nur bei den Algorithmen, sondern auch bei den Menschen. Das ist ein generelles Problem mit Social Media, und ich weiß nicht, wie man es lösen kann.

Warum glauben Sie, dass Cambridge Analytica nicht gut gearbeitet hat?

Ich glaube nicht, dass sie genug Informationen hatten, um die Menschen wirklich zu profilen. Und ich glaube, dass ihre Profiling-Technologie nicht so gut ist, wie sie glauben. Ich habe mit Menschen geredet, die im psychographischen Profiling arbeiten. Das ist nicht sonderlich wissenschaftlich; und ich glaube nicht, dass Cambridge Analytica wirklich wussten, was sie da taten. Ich habe auch das Tool getestet, mit dem zum Beispiel das Geschlecht des Users anhand des Textes erkannt werden sollte, und das Ergebnis war lachhaft.

Aber die Systeme werden besser?

Ich mache mir Sorgen um die künftigen Möglichkeiten – aber Cambridge Analytica hat nicht sonderlich gut gearbeitet. Clintons Team hatte mehr Budget, mehr Daten und die bessere Technologie – es ist also auch ein wenig unverständlich, warum der Fokus auf Trumps und nicht auf Clintons Team liegt. Barack Obamas Team hatte dieses Vorgehen erfunden und wurde dafür geliebt. Es geht also auch viel um Scheinheiligkeit und Argumente gegen die Republikaner.

Welche Regeln sollten Unternehmen befolgen, um zu den „Guten“ zu gehören?

Sie sollten ihre Algorithmen adaptieren und sichergehen, dass sie sich fair verhalten. Dafür müssen sie „Fairness“ zuerst definieren – und dafür müssen sie, wie eingangs erwähnt, auf alle ihre Stakeholder Rücksicht nehmen.

Welche Rolle spielt der Gesetzgeber dabei, auch in Sachen DSGVO?

Der Staat ist ein Stakeholder, denn diese Dinge sind ihm wichtig. Das gilt freilich nicht für jeden Algorithmus: Die DSGVO kümmert sich nicht um einen Algorithmus, den ich zuhause verwende, aber jedes Mal, wenn der Staat wegen Bedenken zu einem Algorithmus die DSGVO schlagend macht, muss sich das Unternehmen fragen, ob der eigene Algorithmus legal ist. Die Legalität des Algorithmus ist Teil der Erfolgsdefinition.

Sollten Staaten Unternehmen härter regulieren, die Algorithmen nutzen?

Es gibt jetzt viele Antidiskriminierungsgesetze, etwa in der Personalpolitik, bei Krediten oder Versicherungen. Das Problem ist, dass die Algorithmen hinter der Personalpolitik nicht von den Regulatoren befragt werden, weil die Regulatoren Algorithmen nicht verstehen – sie sind verwirrt und eingeschüchtert von dieser Technologie. Derzeit weiß kein Regulator, wie er mit Algorithmen umgehen soll. Einige Algorithmen könnten also illegal sein – derzeit kommen sie aber noch ungeschoren davon.

Also sollten die Strafen höher sein?

Zumindest sollten die Algorithmen hinterfragt werden. Und wenn sie illegal sind, dann sollte ihre Nutzung unterbunden werden.


Werbeplanung.at Summit 2018

Cathy O’Neil ist Keynote- Speakerin am Werbeplanung. at Summit 2018, der am 13. und 14. Juni stattfindet – das zehnjährige Jubiläum des Event-Formats findet dabei an neuer Location statt: im Hilton Vienna Danube Waterfront, direkt an der Donau. Die Fachkonferenz für digitale Wissensvermittlung wird an den zwei Tagen erneut die wichtigsten Themen der Branche beleuchten – von Algorithmen über Sprachsteuerung bis hin zu Big Data. Als Motto zum zehnjährigen Jubiläum wurde „Disrupt. Transform. Succeed“ ausgerufen, wodurch gezeigt wird: Die Branche ist wieder im Umbruch; und nur wer sich mit der Zeit bewegt und stetig verändert, der wird erfolgreich sein. Die Experten des Werbeplanung.at Summit unterstützen diesen Prozess, indem sie wichtiges Fachwissen zu den relevanten Themen der Branche vermitteln. O’Neil wird in ihrer Keynote zur Eröffnung der zweitägigen Konferenz die komplexe Thematik rund um die Kraft der Algorithmen beleuchten und mit ihren kritischen Worten die Entscheidungsträger der heimischen Digitalbranche zum Nachdenken anregen. Gerade auch in der Welt der digitalen Werbung und des Marketings sollten die Umsetzer vor „unsichtbaren“ Überraschungen und Problemen gewappnet sein, warnt O’Neil: Algorithmen greifen mittlerweile in das Leben der User ein, indem sie wichtige Entscheidungen steuern, ohne dass der Konsument dies merkt. Doch nicht alle Algorithmen sind „böse“ – auch hier gibt es Unterschiede – die von O’Neil in ihrer Keynote erläutert werden.

Weiters referieren und diskutieren nationale und internationale Top-Speaker, darunter Sylvia Dellantonio (willhaben. at), Xiaoqun Clever (Ringier AG), Christine Antlanger- Winter (Mindshare), Silke Übele (Wavemaker), Michael Hartwig (Yext), Boris Raoul (Invia Group Germany), Elisabeth Hödl (Watchdogs), Georg Kalandra (Hutchison 3G) und noch viele weitere Top-Experten. Ein weiteres Highlight des Events ist die Ehrung des „Onliners des Jahres“, die von einer Jury und den Usern von updatedigital.at online gewählt wurde.

Beim HORIZONT Speed Dating werden in Rahmen des Events zudem Unternehmen und digitale Talente miteinander vernetzt. Mehr Informationen auf summit.werbeplanung.at

stats