Wir freuen uns über jede Rückmeldung. Ihre Botschaft geht vollkommen anonym nur an das Administrator Team. Danke fürs Mitmachen, das zur Verbesserung des Systems oder der Inhalte beitragen kann. ACHTUNG: Wir können an Sie nur eine Antwort senden, wenn Sie ihre Mail Adresse mitschicken, die wir sonst nicht kennen!
unbekannter Gast

Roboter wie halbwüchsige Kinder#

Welche Werte zählen, wenn Roboter allgegenwärtig sind? Zu dieser Frage tagen Experten in Wien.#


Mit freundlicher Genehmigung der Wiener Zeitung, 14. Februar 2018

Von

Eva Stanzl


Roboter-Haustier 'Aibo'
Mensch streichelt und freut sich - Hund folgt Programm: Roboter-Haustier "Aibo".
Foto: © afp/Kazuhiro Nogi

Wien. Moral ist menschlich. Die Ethik fragt nach Werten, die im Zusammenleben eine Rolle spielen. Juristen gießen sie in Gesetze, auf denen Gesellschaften aufbauen. Auch Tiere und Pflanzen kooperieren - aber Maschinen? Welche Werte zählen, wenn Roboter in immer mehr Bereiche des Lebens einziehen, mit uns zusammenarbeiten, reden und sogar über den Schlaf wachen? Ändert das alles - oder eigentlich nichts?

Dieser Frage widmet sich eine Konferenz ab Mittwoch in Wien. Die Tagung "Envisioning Robots in Society" (sinngemäß: "Roboter als Mitglieder der Gesellschaft") läuft bis Samstag am Campus der Universität im neunten Wiener Gemeindebezirk. Schon heute werken Roboter-Teams in Fabriken und Lagerhallen, in Haus und Garten. Künftig sollen sie Heimhilfen für Pensionisten sein, Autos, Laster und Züge lenken, als Haustiere fungieren, die man nicht füttern muss, und die Kinder zur Schule bringen. Was sollen die Silicium-Assistenten können dürfen - und was nicht? "Zum einen ist zu überlegen, wo und wie Roboter zum Einsatz kommen sollen und mit welchen Fähigkeiten wir sie ausstatten wollen. Zum anderen stellt sich die Frage, inwiefern sie in der Lage sind, selbst ethisch zu handeln", sagt die Medienphilosophin Janina Loh von der Uni Wien, Ko-Organisatorin der Tagung.

Willensfreiheit, Vernunft und Empathie: In der Philosophie sind dies die Voraussetzungen für moralisches Handeln. Derzeit wird erforscht, inwiefern Maschinen solche Fähigkeiten an den Tag legen können. Denn während der Mensch Erfahrungen mit Gefühlen verbindet und sie alle im Gehirn verknüpft, lernt die Maschine, indem sie Bilder abgleicht und wiederkehrende Muster erkennt. "Die meisten Experten sind sich einig, dass Roboter nur in einem schwachen Sinn ethisch handeln können, weil sie nur über bestimmte kognitive Fähigkeiten verfügen und emotionales Benehmen simulieren", erläutert Loh. "Davon, dass Roboter wie Menschen fühlen und denken wird derzeit noch nicht ausgegangen. Dennoch müssen wir jetzt nachdenken, wie es wäre, wenn wir eine solche Entwicklung zu verantworten hätten."

Roboter-Verantwortung Schon der Science-Fiction-Autor Isaac Asimov (1919 bis 1992) beschrieb Roboter. Sie waren so programmiert, dass sie dem Menschen keineswegs schaden durften. Als Ergebnis hörten sie irgend wann auf, sich weiterzuentwickeln. Sie erkannten, dass dies gegen die Maxime verstoßen würde, und zogen die Konsequenzen. Technologische Singularität heißt der Zeitpunkt, ab dem sich Maschinen mit Künstlicher Intelligenz (KI) vom Menschen unabhängig fortentwickeln. Experten gehen davon aus, dass dieser Durchbruch vor der Tür steht. Jedoch wird der erwartete Zeitpunkt seit Jahrzehnten verschoben. Während Tesla-Chef Elon Musk eine düstere Zukunft sieht, zeigt sich Facebook-Gründer Mark Zuckerberg zuversichtlich. Eine von Facebook erschaffene KI erschuf jüngst allerdings eine Sprache, der selbst ihre Erfinder nicht folgen konnten - das Experiment wurde abgebrochen. Kaum auszudenken, welch moralischer Gibberish herauskäme, wenn Forscher Roboter Willensfreiheit, Vernunft und Empathie lehren wollen würden. Zumindest zum jetzigen Zeitpunkt.

Schon möglich ist aber ein gewisses Unterscheidungsvermögen, das sich in einer Sensibilität für Moral äußert. Etwa wird an medizinisch-ethischen Expertensystemen gearbeitet, die mit Patientendaten und Daten zur Medikamentengabe gefüttert werden, sodass sie mit der Zeit zu eigenständigen Behandlungsempfehlungen kommen können, von denen Ärzte Gebrauch machen. "Ähnlich wie halbwüchsige Kinder entscheiden diese Systeme nicht alleinverantwortlich. Aber was sie können, spielt für Menschen im Nahebereich eine so große Rolle, dass sie als funktional moralfähig bezeichnet werden können", sagt Loh.

Was ist jedoch davon zu halten, wenn ein Roboter-Hund mit dem Schwanz wedelt, wenn er von einem an Demenz erkrankten Patienten gestreichelt wird? Patient freudig erregt - Hund folgt Programm. "Wir müssen uns jetzt Gedanken machen, was wir in diesen neuen Situationen als richtig und als falsch empfinden und in welcher Welt wir künftig leben wollen", betont Kongressorganisator Mark Coeckelbergh vom Institut für Philosophie der Uni Wien.

Wiener Zeitung, 14. Februar 2018