Horizont Newsletter

'Das Problem ist die dumme KI'

Szeider wurde 2009 für seine Arbeit mit dem ERC Starting Grant ausgezeichnet.
© Naja Meister

Stefan Szeider lehrt und forscht an der Fakultät für Informatik an der TU Wien. Er leitet die Algorithms and Complexity Group und das Vienna Center for Logic and Algorithms. Im Interview mit update spricht er über die Potenziale und Gefahren von künstlicher Intelligenz.

Künstliche Intelligenz und Roboteranwendungen drängen immer mehr in den privaten Bereich. Die Öffentlichkeit ist  noch ein wenig skeptisch. Wie beurteilt die Wissenschaft diesen Bereich?

Stefan Szeider: In der Wissenschaft ist man sich heute durchaus bewusst, dass man hier in sehr sensible Bereiche vordringt. Daher werden Fragen der Ethik, des Datenschutzes und der Transparenz sehr intensiv diskutiert. Dies führt auch zu neuen wissenschaftlichen Herausforderungen: Wie kann man Systeme sicher machen? Wie kann man maschinelles Lernen nachvollziehbar und verifizierbar machen? Wie kann man logisches Schließen und Sicherheit mit den datenbasierten Lösungsansätzen kombinieren? Letztendlich sollen ethische Entscheidungen von Menschen für Menschen getroffen werden. Die Algorithmen sollen sie dabei möglichst gut unterstützen. Wissenschaft und Grundlagenforschung spielen dabei eine entscheidende Rolle und müssen dafür ausgebaut und gefördert werden. Man darf die KI­-Forschung nicht den großen Konzernen wie Google oder Facebook überlassen. Die universitäre Forschung, die nicht gewinnorientiert ausgerichtet ist, spielt hierbei eine wichtige Rolle.

Das Thema wird derzeit in den Medien deutlich gehypt. Sind die allgemeinen Erwartungen an künstliche Intelligenz  und Robotics aus Ihrer Sicht zu hoch oder entsprechen diese der Realität?

Die Erwartungen sind oft zu hoch. Die KI hat große Fortschritte in Bereichen gemacht, die sehr klar umrissen und eingeschränkt sind, wie beispielsweise beim Schach oder Go-­Spiel, aber auch bei der Bilderkennung. Bei komplexeren Problemen, bei denen viele Faktoren zusammenwirken, ist die heutige KI allerdings noch sehr schwach entwickelt, und ich sehe da kein Anzeichen für einen Durchbruch in den nächsten zehn bis 20 Jahren. KI­-Systeme, die so wie HAL in Kubricks '2001' plötzlich die Macht ergreifen wollen, sind tatsächlich Zukunftsvisionen ohne irgendwelche Verankerung in dem, was die KI heute schafft.Mein australischer Kollege Toby Walsh hat jüngst bei seinem Wien­-Besuch gesagt: "Das Problem ist nicht die KI, die zu intelligent wird, es ist die dumme KI …"

… dumme KI. Werden entscheidungen durch KI gerechter oder nicht?

Es ist auch falsch, zu erwarten, dass, wenn man eine Aufgabe an ein KI-­basiertes System delegiert, die Aufgabe dann neutral, objektiv und fair gelöst wird. Viele KI­-Systeme basieren auf Datenanalyse. Unfairness, Fehler und Einseitigkeiten, die in den Daten stecken, finden sich dann in den Ergebnissen wieder. Heutige KI ist nicht zur selbstständigen Reflexion fähig und ist hiervon noch meilenweit entfernt. Letztendlich spiegelt sie moralisch­ethische Einstellungen der Menschen wider, die sie erzeugen und einsetzen.

Die mediale Auseinandersetzung sieht naturgemäß Vor­- und Nachteile. Welche Risiken sehen Sie auf die Gemeinschaft durch KI und Robotics zukommen?

KI und Robotics sind trotz all ihrer Einschränkungen sehr mächtig. So kann beispielsweise mit relativ geringen Kosten eine ganze Armee von Bots auf die sozialen Medien losgelassen werden, um die Meinung der Nutzer zu beeinflussen oder Fake News zu verbreiten. Das ist ein Beispiel dafür, wie KI­-Technik bewusst zum Schaden der Allgemeinheit eingesetzt werden kann. Ein Einsatz von KI-­Technik kann aber auch ohne böse Absichten danebengehen, wenn z. B. Nebenwirkungen nicht bedacht werden, da der Algorithmus nur auf die Optimierung eines bestimmten Parameters eingesetzt wird. Wenn zum Beispiel ein KI­-System drauf angesetzt wird, die Anzahl der Klicks zu optimieren, wird es das auch tun und nicht innehalten und fragen, ist das jetzt ethisch bedenklich?

Wie gefährlich ist das Thema "Hacker", wenn Sie an KI und Robotics denken?

Security wird in Hinkunft eine immer größere Rolle spielen. Denken Sie nur an die Gefahren, wenn ein selbstfahrendes Auto gehackt und zu einem Terroranschlag missbraucht wird. Hier ist die Sicherheit der Systeme oberstes Gebot.

Algorithmen spielen die wohl wichtigste Rolle bei diesem Thema. Beim Summit 2018 im Juni meinten Sie sinngemäß, dass 99 Prozent aller Algorithmen ungefährlich sind. Wie kann man sicherstellen, dass das restliche Prozent nicht zu großen  Problemen führt?

Ich wollte darauf hinweisen, dass der Begriff des Algorithmus in den Medien immer herhalten muss, wenn es zu Problemen kommt. Selbst da ist oft nicht der Algorithmus an sich schuld, sondern die Art und Weise, wie er angewandt wurde. Ein gutes Beispiel ist der AMS­-Algorithmus, der für große Entrüstung gesorgt hat, wobei es sich eher um statistische und nicht um algorithmische  Methoden handelt.

Inwiefern ist der Datenschutz in diesem Bereich eine Herausforderung?

Datenschutz bekommt eine zentrale Bedeutung. Wir geben täglich viele kleine Informationen preis, die, jede für sich, ganz harmlos sind. Aber alle zusammen ergeben ein sehr genaues Bild. Die Datenschutzverordnung ist da ein wichtiger erster Schritt zur Bewusstmachung, auch wenn sie in vielen Fällen nicht das richtige Augenmaß bewahrt.

Die Oxford-­Wissenschaftler Carl Benedikt Frey und Michael Osborne prognostizieren, dass in den kommenden ein, zwei Jahrzehnten fast die Hälfte aller Jobs in den USA von der Automatisierung bedroht seien. Wie sehen Sie das Jobszenario langfristig? Werden in Summe Jobs  verloren gehen oder dadurch auch wieder jede Menge neue Jobs geschaffen?

Ich denke, dass viele neue Jobs geschaffen werden. Die Studie von Frey und Osborne geht in ihrer Methodik davon aus, dass sich außer der Automatisierung sonst nichts ändert. Aber tatsächlich ist zu erwarten, dass sich die Berufsanforderungen und Tätigkeiten verlagern und ändern werden, weg von Routineaufgaben hin zu anspruchsvolleren Tätigkeiten. Es kann aber durchaus sein, dass es in Summe weniger Arbeit geben wird.

Eine große Gefahr sehen Skeptiker auch in autonomen Waffen, die vollautomatisiert großen Schaden zufügen könnten. Denken Sie, dass es durch die KI zu neuen militärischen Drohszenarien kommen wird?

Autonome Waffen, die auch "killer robots" genannt werden, sind tatsächlich äußerst gefährlich und sollten so wie Giftgas international geächtet werden. Gut, dass schon viele Staaten dem Aufruf, autonome Waffen zu ächten, gefolgt sind.

Ein wichtiges Thema in der KI ist auch die Ethik. Ein selbstfahrendes Auto, das entscheiden muss, ob es in einer Notsituation den linken oder den rechten Passanten umfahren muss. Militärroboter, die entscheiden müssen, ob jemand attackiert wird oder nicht. Welche Herausforderungen gilt es hier noch zu meistern und kann man dieses Problem jemals lösen?

Beides sind schwierige ethische Probleme. Das zweite kann und sollte man umgehen, indem man solche Militärroboter verbietet und auch die großen Konzerne dazu anhält, solche System nicht zu entwickeln.

Und selbstfahrende Autos?

Das Problem bei den selbstfahrenden Autos muss man relativiert sehen. Wir treffen ja schon heute ähnlich schwierige und folgenschwere Entscheidungen über Leben und Tod bzw. lassen die Politik solche Entscheidungen für uns treffen: Das Festsetzen der Höchstgeschwindigkeit auf Straßen ist ein Abwägen zwischen der Anzahl von Verkehrstoten und der Zufriedenheit der Autofahrer. Soll die öffentliche Hand mehr Geld in die Gesundheitsvorsorge stecken oder mehr Sozialarbeiter anstellen? Das sind lauter Entscheidungen, bei denen es um Leben oder Tod von vielen Menschen geht. Letztendlich ist es eine politische Entscheidung. Wie ein selbstfahrendes Auto in einer Unfallsituation reagiert, sollte nicht vom Autohersteller alleine, sondern im gesellschaftlichen Konsens entschieden werden. Insgesamt ist aber zu erwarten, dass durch den Einsatz selbstfahrender Autos die Anzahl der Verkehrstoten sinken wird, auch wenn man einzelne Unfälle nicht ausschließen kann. Es spricht also viel dafür, selbstfahrende Autos zuzulassen.

[Michael Fiala]

Dieser Artikel ist bereits in der update-Ausgabe 4/2018 erschienen. Noch kein Abo? Hier klicken.

0 Kommentare

Keine Kommentare gefunden!

Neuen Kommentar schreiben

* Pflichtfelder
Netiquette auf HORIZONT online

Das könnte Sie auch interessieren