Horizont Newsletter

"Kontrollverlust sinnvoll vorbereiten"

Laut Buyx sollte man jetzt schon darüber nachdenken, "wie wir Arbeit in unserer Gesellschaft gestalten: die soziale Bedeutung von Arbeit, wenn einfach sehr viel weniger Arbeit da ist – oder vielleicht auch neue entsteht."
© privat

Nur wenige Menschen haben ein so breites Bild der Chancen und Risiken von Big Data wie nextM-Speakerin Alena Buyx. Die Medizinethikerin, Soziologin und Philosophin verweigert die Trennung in "guten" und "schlechten" Fortschritt.

 

Universitätsprofessorin Alena Buyx, Mitglied des deutschen Ethikrats und zu Gast bei der nextM-Konferenz in Wien am 12. April, im Interview über das Faktum der Big-Data-Durchdringung unseres Alltags, die Möglichkeiten zur Lenkung von Fortschritt, die Notwendigkeit des Schrittes heraus aus dem Spezialistentum und worüber wir in 25 Jahren wahrscheinlich nachdenken werden.

HORIZONT: Welche Risiken von Big-Data-Strukturen sind - zum Unterschied etwa von möglichem Datenmissbrauch - einer breiten Öffentlichkeit am wenigsten bewusst?

Alena Buyx: Das erste ist etwas, das Menschen jetzt schon erleben: Wie sehr Big-Data-Algorithmen schon jetzt personalisierte Beeinflussung ermöglichen, etwa in der Werbung. Vielen Menschen ist noch gar nicht klar, wie sehr uns Werbung über verschiedene Geräte und verschiedene Browser hinweg folgt; oder wie sehr Techniken wie GPS-Tracking schon eingesetzt wird. Das ist vielleicht an sich kein Risiko, sondern einfach nur ein Faktum, dass das schon passiert, aber vielen Menschen eben nicht bewusst. Ich finde aber, das sollte uns bewusst sein und sollte transparent sein.

Das Zweite ist, dass wir bei Big-Data-Strukturen wirklich Bereiche haben, in welchen es zu einem gewissen Kontrollverlust kommen kann, weil das ja zum Teil selbstlernende Algorithmen sind. Das heißt, da greifen Menschen gar nicht mehr in allen Arbeitsschritten ein. Das ist etwas, womit wir auch durchaus konstruktiv arbeiten können, aber es ist auch ein großes Risiko, wenn diese Algorithmen beispielsweise in irgendeiner Weise einen bias haben, das sich dann selbstverständlich die ganze Zeit reproduziert. Da haben wir einen Kontrollverlust, den wir sinnvoll vorbereiten müssen, begleiten müssen, strukturieren müssen.

Das dritte, letzte, ist recht trivial: Dass letztlich fast jedes Datum, das wir produzieren, in einem Big-Data-Kontext relevant werden kann. Die Leute sagen immer: ‚Ich habe nichts zu verbergen‘, oder ‚das darf jeder wissen‘, oder im Gesundheitsbereich ‚das ist ja gar kein Gesundheitsdatum‘ – das stimmt so nicht mehr. Die Masse der Daten, die Vielfältigkeit der Datenquellen und die Verarbeitung ermöglichen, dass man Dinge zurückrechnet und unerwartet relevante Informationen auf das Individuum zurückführen kann. Dass das geht, ist vielen Menschen einfach gar nicht klar.

Überwiegt nicht gerade in der Medizin - als Ihrem Hauptarbeitsfeld - und anderen nicht primär kommerziell ausgerichteten Strukturen der Nutzen von Big-Data-Strukturen die Probleme bei weitem?

Das kann man so jetzt noch nicht sagen, weil es jetzt noch nicht wirklich viel klaren Nutzen gibt. Das beginnt gerade erst, vor allem in der Forschung. Eher geht es darum: Sind die Chancen größer als die Risiken? – und ich glaube, das stimmt, allerdings unter zwei Voraussetzungen: Es gibt viele Hürden auf dem Weg. Meine Informatik-Kollegen sagen mir immer, die Qualität der Datenerhebung sei noch teils schlecht, das sei alles noch nicht standardisiert genug, etc. Da muss noch sehr viel passieren, bis sich das Potenzial tatsächlich heben lässt. Das andere ist, dass es natürlich schon wichtige Risiken gibt, die wir möglichst minimieren müssen, hinsichtlich persönlicher Kontrolle, Datenschutz usw. Wenn man das schafft, glaube ich, dass es durchaus ein signifikantes Potenzial von Big Data in der Medizin gibt.

Sie sind auch für die EU-Fortschrittsagenda Horizon 2020 beratend tätig. Kann man technischen Fortschritt überhaupt politisch lenken? Oder nur kontrollieren und kanalisieren?

Ich glaube, man kann das zum Teil. Man kann Fortschritt zum Beispiel politisch anreizen. Das macht ja Horizon 2020, dass es bestimmte Ausschreibungen an Wissenschaftler und Firmen gibt, Vorschläge zu machen, wie sie Projekte angehen. Das ist politisch gelenkter oder angereizter Fortschritt. Auf der anderen Seite haben wir in der globalen Situation, in der sich Fortschritt und Wissenschaft bewegen, natürlich nicht die Möglichkeit, den Strom des Fortschritts politisch zu dirigieren. Das ist völlig undenkbar. Aber wir haben Eingriffsmöglichkeiten. Wir können auch Dinge verbieten, das haben wir beispielsweise bei bestimmten Feldern der Forschung an embryonalen Stammzellen, die ist stark reglementiert; oder etwa bei genetisch modifizierten Organismen: Da hat die gesamte EU extrem restriktive Regulierungen. Das hat dann natürlich schon einen Einfluss auf weitere Entwicklungen. Ich glaube aber, insgesamt ist kontrollieren und kanalisieren der relevantere Weg - insbesondere deswegen, weil ich nicht glaube, dass wir zu stark politisch in den technischen Fortschritt eingreifen sollten: Politische Interessen sind erstens immer in einer bestimmten Art und Weise gefärbt. Zweitens denkt die Politik oft sehr kurzfristig. Drittens hat die Politik oft nicht ausreichend Expertise, muss sich Beratung holen und tut das nicht immer beziehungsweise nimmt die Beratung nicht immer ausreichend an. Und viertens glaube ich auch, dass das Kreativität in der Wissenschaft dämmen könnte. Einen Wildwuchs und dass man alles geschehen lässt, halte ich für falsch, aber man sollte sich davon verabschieden, dass man den „guten Fortschritt“ von oben lenken und den „schlechten Fortschritt“ vermeiden kann. So ein Ansinnen hätte aus meiner Sicht mehr Nachteile als Vorteile.

Sie sind als Medizinerin, Philosophin und Soziologin ein Gegenbild zu spezialisiertem Denken - befördert Spezialistentum das Vernachlässigen ethischen Denkens? Braucht es mehr interdisziplinäre Zugänge in modernen Lebensabläufen?

Ja, unbedingt. Ich glaube tatsächlich, dass die Spezialisierung - die ja erst einmal auch notwendig ist, um sich Expertise anzueignen – dazu geführt hat, dass ethische und soziale Probleme nicht frühzeitig erkannt werden. Das gilt beispielsweise auch für die Finanzkrise als Beispiel aus einem anderen Feld, wo es inzwischen schöne Studien gibt dazu, dass diejenigen, die Entscheidungen getroffen haben, ethische Implikationen überhaupt nicht vor Augen hatten. Jetzt werden inzwischen an den berühmten business schools Ethikkurse eingeführt, was ich sehr richtig finde. Das gleiche gilt für die Informatiker, die jetzt beginnen, über Big Data unser Leben ganz intensiv mitzugestalten und die dann natürlich nicht nur so eine enge Brille aufsetzen dürfen. Es gibt natürlich einige, die das immer schon gemacht haben, aber das Gros muss noch mehr lernen, offener zu werden und Interdisziplinarität zuzulassen. Denn Big Data Risiken sind gesamtgesellschaftlich und damit notwendigerweise interdisziplinär, und deshalb brauchen wir auch interdisziplinäre Experten.

Vor Ihrer derzeitigen Position im deutschen Ethikrat waren Sie an den englischen Ethikrat berufen. Sehen Sie grundsätzliche Unterschiede im ethischen Verständnis des kontinentaleuropäischen Kulturkreises auf der einen Seite und des angloamerikanischen auf der anderen Seite?

Grundsätzlich Nein, das Vorgehen in solchen Gremien und auch die Debatten sind durchaus ähnlich. Man schaut sich den Sachstand an und dann schaut man, welche ethischen Orientierungsmuster berührt werden, welche uns wichtig sind, warum sie uns wichtig sind und entwickelt Empfehlungen. Inhaltlich gibt es Unterschiede: Im deutschsprachigen Raum ist der Begriff der Menschenwürde etwas relevanter, im ethischen wie im rechtlichen Diskurs. Im angloamerikanischen Bereich ist der Autonomie- und Selbstbestimmungsgedanke dominant. Aber natürlich reden auch die Angloamerikaner über Menschenwürde und natürlich redet man auch im deutschsprachigen Raum über Autonomie und Selbstbestimmung. Das sind inhaltliche Nuancen, es werden etwas andere Autoren zitiert, andere Theoriefamilien bemüht, aber das globalisiert sich auch zusehends, sodass es keine fundamentalen Unterschiede gibt.

Verändert die technische Infrastruktur unser Weltbild allein durch die vorgegebene Arbeitsweise?

Ich glaube, es ist ein Wechselspiel. Es ist sicherlich so, dass diese Art des Zugangs zu arbeiten und Fragen zu stellen, auf lange Sicht Einfluss auf unser Weltbild hat. Andererseits verändert sich unser Weltbild die ganze Zeit. Weltbild und technologische Entwicklung gehören ja zusammen. Es ist ja nicht so, als würde irgendeine technologische Entwicklung von außen auf uns hereinbrechen und wir hätten irgendein statisches Weltbild, das dann disruptiv verändert wird, sondern das eine geht mit dem anderen Hand in Hand. Und ich glaube, es gehört heute zu unserem Weltbild, dass wir uns der Wirklichkeit über technische Infrastruktur nähern. Das hat unser Leben über die Digitalisierung – wir alle benützen unsere Smartphones tagtäglich von morgens bis abends – stark verändert. Ich glaube aber auch, dass bestimmte ethische Wertvorstellungen und Prinzipien relativ konstant bleiben und uns wichtig bleiben, auch wenn wir uns immer stärker über Digitalisierung und Big-Data-Infrastruktur der Welt nähern. Und wir versuchen, mit diesen ethischen Orientierungsmustern diese Phänomen zu greifen. Und die sind zum Teil die gleichen wie bei Aristoteles vor über 2000 Jahren und werden dann in den heutigen Kontext übersetzt – eben ein Wechselspiel.

Heute geht es um Big Data und ansatzweise künstliche Intelligenz - aber mit welchen ethischen Fragestellungen im technischen Kontext werden sich Menschen in 25 Jahren beschäftigen müssen? Oder in 50 Jahren?

50 Jahre finde ich sehr schwierig, aber bei 25 Jahren habe ich einen „educated guess“: Das eine ist, wie sich die Arbeit verändern wird; das „future of work“-Problem, also dass Algorithmen repetitive Arbeit übernehmen können -  sowohl hoch ausgebildete als auch wenig ausgebildete. Und dass uns das wahrscheinlich dazu führen wird, über die Art und Weise nachzudenken, wie wir Arbeit in unserer Gesellschaft gestalten: die soziale Bedeutung von Arbeit, wenn einfach sehr viel weniger Arbeit da ist – oder vielleicht auch neue entsteht. Das weiß man alles noch nicht, aber man muss darüber nachdenken, wie Arbeit sich angesichts dieser neuen Technologien verändert.

Das ist das eine, und das andere sind Roboter: Ich glaube, die werden – auch in der Medizin – noch sehr viel stärker kommen in den nächsten 25 Jahren, und wir müssen darüber nachdenken, wie wir diese Technologien produktiv und risikoarm nützen können; jenseits irgendwelcher Dystopien und irgendwelcher Heilsversprechungen irgendwo in der sinnvollen Mitte; Chancen und Risiken abwägen und gute Wege finden, wie wir Roboter in unseren Alltag, in die Medizin, in die Wissenschaft und anderen Feldern einführen können, ohne dass das gefährlich wird, uns entfremdet oder andere Risiken birgt.

0 Kommentare

Keine Kommentare gefunden!

Neuen Kommentar schreiben

* Pflichtfelder
Netiquette auf HORIZONT online

Das könnte Sie auch interessieren