Wir freuen uns über jede Rückmeldung. Ihre Botschaft geht vollkommen anonym nur an das Administrator Team. Danke fürs Mitmachen, das zur Verbesserung des Systems oder der Inhalte beitragen kann. ACHTUNG: Wir können an Sie nur eine Antwort senden, wenn Sie ihre Mail Adresse mitschicken, die wir sonst nicht kennen!
unbekannter Gast

Warum Künstliche Intelligenz die Menschen verändert#

Der Mensch passt sich den Maschinen an. Wer das nicht will, muss bessere Algorithmen schreiben, sagt die Philosophin Paula Boddington.#


Mit freundlicher Genehmigung übernommen aus der Wiener Zeitung, 27. August 2019

Von

Eva Stanzl


Ob im Internet oder am Handy, ob in Logistik, Transport oder Gütererzeugung, beim Rasenmähen oder Staubsaugen, beim Bezahlen von Haushaltsrechnungen oder beim Buchen von Reisen: Algorithmen sind ständig am Werk. Sie berechnen effiziente Lösungen, optimieren Arbeit, geben Standards vor und beurteilen Menschen. Wer zu schnell fährt, wird vom Computer erfasst und bestraft. Wer nach Paris fliegt, dem schlägt die Buchungsmaschine auch Venedig, London und Rom, nicht aber Mannheim oder Altaussee vor.

Maschinen sind logisch, wir Menschen nicht immer. Dennoch müssen wir uns an die kalte Maschinen-Logik anpassen. Das setzt uns zu. Die Allgegenwart von Algorithmen und Künstlicher Intelligenz verändert den Menschen ganz zwangsläufig, sagte die britische Philosophin und Roboter-Ethikerin Paula Boddington am Rande der Technologiegespräche in Alpbach zur "Wiener Zeitung".

"Wiener Zeitung": Künstliche Intelligenz (KI) ist allgegenwärtig: Wir erledigen immer mehr Dinge online, während Algorithmen unser Nutzer-Verhalten zu einem Bild zusammenfügen. Verändert KI die Menschen?

Paula Boddington: Ich fürchte ja. Schon allein der Name ist nicht besonders geglückt, da menschliche und künstliche Intelligenz ganz unterschiedlich funktionieren. Ich halte es mit Neil Lawrence (Professor für Maschinenlernen der Universität Sheffield, Anm.), dem zufolge der Unterschied jenem zwischen einer echten Pflanze und einer Pflanze aus Plastik entspricht. Obwohl sie eine Plastikpflanze und keine Rose in voller Blüte ist, bezaubert Künstliche Intelligenz uns derartig, dass wir uns selbst nach ihren Standards beurteilen.

Welche Standards sind das?

Effizienz, Geschwindigkeit, Beständigkeit, Folgerichtigkeit und Reproduzierbarkeit sind was wir von Maschinen erwarten. Es sind gute, einförmige Standards für Algorithmen im Smartphone oder auf den Servern sozialer Medien, aber keine für Menschen. Und dennoch wurden Soziale Medien in einer Art und Weise entworfen, dass sie Suchtverhalten auslösen. Wir sind soziale Wesen, die kommunizieren. Sie zapfen die schwächsten Aspekte der menschlichen Psychologie an, um uns zu verändern. Im Endeffekt beurteilen wir uns selbst danach, welches Verhalten die Maschine von uns erwartet. Nehmen wir etwa an, jemand will einen Bankkredit. Ein Mensch würde einem Kunden, der seine Schulden pünktlich bezahlt, einen solchen gewähren. Ein Algorithmus würde das nicht unbedingt tun, weil er anderen Parametern folgt. Der Mensch muss somit digitalen Vorgaben entsprechen, die er vielleicht nicht einmal kennt.

Lassen sich Maschinen bauen, die einer menschlichen Ethik folgen?

Unsere Ethik ist viel komplexer als eine Maschine. Die Idee, eine moralische Maschine zu bauen, geht somit in die falsche Richtung. Wenn Menschen versuchen, das Richtige zu tun, geht es ihnen nicht bloß um das richtige oder das falsche Ergebnis, sondern um Beziehung und Verantwortlichkeit gegenüber anderen Menschen. Nehmen wir an, zwei Menschen benötigen eine Nierentransplantion, aber es gibt nur ein Spenderorgan. Eine Ärztin muss entscheiden, wer die Transplantation bekommt. Sie studiert die Warteliste, ermisst die Dringlichkeit und investiert Aufmerksamkeit und Gefühl, um zu bewerten, wer das Organ dringender braucht. Man kann sich vorstellen, wie schwierig es ist, jemandem, der nur wenige Wochen zu leben hat, sagen zu müssen: "Es tut mir leid, die Niere hat jemand anders bekommen." Wenn eine Maschine eine Spenderniere zuteilt, geht sie nach denselben Kriterien vor, die sie verwendet, wenn sie bemisst, wem sie Werbung für teure Handtaschen schicken soll. Sie durchlebt keine mentalen Qualen einer komplexen moralischen Abwägung.

Eine Maschine kann somit kein ethischer Agent sein.

Das kann sie nicht. Elon Musk und Sam Altman versuchen zwar etwas Ähnliches mit ihrem Projekt "OpenAI", das künstliche Intelligenz auf Open-Source-Basis entwickeln soll, die der Gesellschaft Vorteile bringt und ihr nicht schadet. Die Idee ist eine KI, die richtig agiert, selbst wenn die Nutzer Böses im Sinne haben. Doch es ist ungefähr so, als würde ich meine moralischen Entscheidungen an Sie delegieren. Keine der derzeitigen Technologien bringt einen künstlichen, ethisch handelnden Agenten hervor. Wir können nur Maschinen so programmieren, dass sie nichts tun, was unseren Werten widerstrebt. Die Schlüsselfrage lautet, ob KI das menschliche Handlen und den menschlichen Handlungsspielraum tatsächlich erweitert.

Wie definieren Sie Erweiterung des Handlungsspielraums?

Ohne Besteck müssten wir ziemlich unaufgeräumt essen. Maschinen sind ähnlich nützlich. Sie können insbesondere das menschliche Denken präzisieren und beschleunigen. Sie registrieren das Wetter und berechnen es. Sie addieren mehrstellige Zahlen und liefern die Summe in der Sekunde. Doch die Vorteile können auch Probleme verursachen. Google Maps untergräbt die Fähigkeit, Landkarten zu lesen. Das beeinträchtigt das räumliche Orientierungsvermögen und das wiederum steigert das Risiko, an Demenz zu erkranken. Die Frage ist, ob wir wichtige Fähigkeiten verlieren, weil wir sie an KI auslagern. Immerhin veränderte ja auch die Entwicklung der Sprache die Art und Weise, wie wir unser Gehirn einsetzen.

Was wäre ein gutes Leben mit Künstlicher Intelligenz?

Dazu müssen wir tiefe philosophische Fragen stellen. Wenn wir über den größtmöglichen Nutzen für alle Menschen sprechen, müssen wir in Betracht ziehen, dass der Utilitarismus am stärksten im 19. Jahrhundert war, als die Sozialreformer das desolate Unglück der Massen zu lindern suchten und es aberwitzige Ungerechtigkeiten im Rechtssystem gab.

Dass es nicht zum Vorteil ist, 80 Stunden in der Woche in einer Fabrik zu arbeiten für einen Bissen Brot und ein Bier, leuchtet ein. Aber KI hat Vor- und Nachteile, das größte Gut für alle hat somit aufgehört zu existieren. Die neuen Maschinen ermöglichen uns, weniger banale Tätigkeiten ausüben zu müssen, lassen aber gleichzeitig eine Arbeitslosigkeit für viele erwarten, weswegen manche ein bedingungsloses Einkommen empfehlen.

Ins Auge sticht, dass jene, die ein bedingungsloses Einkommen fordern, nicht davon ausgehen, dass sie selbst davon leben müssen. Technologie-Bosse, die spannende neue Sachen machen und jede Menge Arbeit und Einladungen haben, legen diese Veränderungen für Menschen nahe, die all dies nicht haben. Sie haben Identität und Selbstbewusstsein, aber eine Existenz als einer von Millionen Arbeitslosen ist alles andere als identitätsstiftend.

Was ist also ein gutes Leben mit Künstlicher Intelligenz?

Die Frage sollte lauten: Was ist ein gutes menschliches Leben? Es wird nur im Ausnahmefall besser durch einen smarten Knopf, der die Rollos hochzieht, und selten dann, wenn man gekündigt wird und nur noch das Geld bekommt. Jedes Kind will so bald wie möglich seine eigenen Schuhe binden und aus eigener Kraft etwas erreichen. Wir Menschen wollen handeln und Dinge tun, und wir müssen uns fragen, wie uns die Technologie der Künstlichen Intelligenz darin unterstützt.


Paula Boddington
Paula Boddington
Foto: © bmbwf/fwf/Pongovschi

Paula Boddington geboren 1956 in London, ist Senior Research Fellow an der School of Biomedical Sciences der Universität Cardiff. Die Philosophin unterrichtete Angewandte Ethik an der Universität Bristol, bevor sie sich an der Universität Oxford auf Roboter-Ethik spezialisierte. In ihrem Buch "Towards a Code of Ethics for Artificial Intelligence" analysiert Regeln im Umgang mit Künstlicher Intelligenz. Bei den Technologiegesprächen des Forum Alpbach referierte sie in einem Arbeitskreis des Wissenschaftsministeriums und des Wissenschaftsfonds FWF.

Wiener Zeitung, 27. August 2019