Roboter - gut für den Menschen?#
Wissenschaft und Technik ermöglichen immer intelligentere Maschinen - da haben ethische Fragen wenig Platz.#
Von der Wiener Zeitung (Sa./So., 30./31. Mai 2015) freundlicherweise zur Verfügung gestellt.
Von
Lucia Reinsperger
Wien. Ein selbstfahrendes Auto fährt auf einen einspurigen Tunnel zu. Da läuft ein Kind auf die Straße. Das Auto hat zwei Möglichkeiten: Es überfährt das Kind und schützt die Insassen des Autos. Oder es schützt das Kind - und fährt gegen die Wand.
Als Menschen haben wir keine Kriterien, über dieses ethische Dilemma zu entscheiden. In der Situation selbst könnte ein Mensch gar nicht entscheiden, er würde das Lenkrad verreißen. Für die Technologie eines autonom fahrenden Autos aber ist die kurze Zeit, die für die Entscheidung bleibt, keine Schwierigkeit. Das Problem ist die Physik, die den Unfall unvermeidbar macht. Und eine Maschine, ein Auto, übernimmt eine Entscheidung über Leben und Tod.
So schildert Peter Purgathofer vom Institut für Gestaltungs- und Wirkungsforschung an der TU Wien ein ethisches Problem der Künstlichen Intelligenz: der Intelligenz von Maschinen, die die natürliche Intelligenz des Menschen übertreffen. Im Straßenverkehr könnten durch selbstfahrende Autos womöglich 80 Prozent der Verkehrsunfälle verhindert werden. Viele Leben könnten gerettet, einzelne Menschen aber absichtlich getötet werden.
Künstliche Intelligenz#
Für Purgathofer ist Künstliche Intelligenz eine Ausnahmeerscheinung und der Begriff schwer zu definieren: "Man könnte sagen, die Künstliche Intelligenz gibt es noch gar nicht. Denn ein System, das Selbstbewusstsein hat oder eine Rezeptionsfähigkeit über das eigene Sein, das gibt es nicht." Momentan würde Intelligenz mehr in Zusammenhang mit Kreativität und Sozialem gesehen - Bereiche, die ein Computer nicht ersetzen kann. "Andererseits ist ein selbstfahrendes Auto vielleicht intelligent genug, dass man es Künstliche Intelligenz nennt."
Maschinen könnten nur Ausschnitte unserer Fähigkeiten ersetzen, sagt Wolfgang Hofkirchner, ebenfalls von der TU Wien. Für ihn heißt das, "Ja zu sagen zu Maschinen, die uns bei bestimmten Dingen unterstützen können. Aber Nein dazu, dass Künstliche Intelligenz den Menschen übernehmen soll. Wesen, die selbständig und mit Menschen als Partner arbeiten oder denen wir gar untergeordnet sind, halte ich für blanken Unsinn." In Form von Smartchips würden heute alle Gebiete technologisch unterstützt, es müssten aber keinesfalls menschenähnliche Roboter sein. "Wir haben als Menschen die Tendenz, wie mit Haustieren auch mit Maschinen umzugehen." Doch es wäre schlecht, unsere Kinder zu erziehen, als stecke ein Geist hinter einer Maschine.
Roboter, die Menschen ersetzen, gebe es etwa für alte einsame Menschen, um Gesellschaft zu leisten. "Das halte ich für eine traurige Entwicklung, eigentlich eine Fehlanwendung der Technik", sagt Hofkirchner. Wenn etwas entwickelt wird, werde wenig darüber nachgedacht, welchen Sinn und welche Folgen es für die Menschheit hat. Die Folgen der Technik abzuschätzen, sollte am Beginn der Forschung wichtig sein - stattdessen wird entwickelt, was verkauft wird. Statt zu fragen, warum wir etwas machen, heiße es eher: Warum nicht?
Für Purgathofer ist das ein Massenphänomen: "Die Welt ist riesig. Irgendwo forscht jemand auch an nicht-ethischen Dingen. Da kann man darüber diskutieren, ob sich Forschung an ethische Grundsätze hält. Aber es gibt natürlich Bereiche, wo das Geld regiert." In gewissen Bereichen können aber gerade menschenähnliche Roboter gut sein. Für autistische Kinder werden Therapien entwickelt. Sie können mit Robotern besser interagieren, weil sie weniger kompliziert sind. Sinnvoll unterstützen kann die Künstliche Intelligenz auch dort, wo es für Menschen gefährlich wird oder unzugänglich. Im Weltall, in der Tiefsee, im Katastropheneinsatz, auch bei chirurgischen Eingriffen oder in der Automobilindustrie.
Roboter mit Emotionen, die denken, wie wir es tun, eine Psyche haben, eigene Intentionen haben werden: Für Hofkirchner geht das in eine falsche Richtung. Damit auch jede Forschung, die das verwirklichen hilft. Wenn Roboter wie Lebewesen würden, müssten wir sie respektieren wie die Schöpfung? "Natürlich sollten wir sorgsam umgehen mit dem, was wir schaffen. Aber es geht nicht darüber hinaus, dass Roboter Instrumente sind. Sie sollten zu humanen Zielen eingesetzt werden und nicht etwa im Militär." Man denke daran, sich selbst steuernde Drohnen zu entwickeln, die entscheiden, ob am Boden ein Freund oder Feind ist - und zu schießen oder eben nicht.
Dabei heißt das erste der Asimov’schen Robotergesetze: Ein Roboter darf nie einem Menschen etwas zuleide tun. "Auch wenn wir Roboter mit der besten Absicht und allen Sicherheitsmaßnahmen bauen, wird es früher oder später jemanden geben, der auf demselben Roboter eine schlechte Software zum Laufen bekommt", betont Purgathofer.
Kriminelle Nutzung#
Es werde immer Menschen geben, die ein kriminelles Verhältnis zur Technologie pflegen. Und eine Technologie werde auch immer Fehler haben. "Die Techniker konzentrieren sich immer auf die guten Seiten, haben aber viele blinde Flecken. Es ist legitim, Visionen zu entwickeln, kann aber gefährlich werden", fasst Purgathofer zusammen.
Populär ist Künstliche Intelligenz vor allem durch Filme und Bücher, die eine Welt mit Robotern zeigen. Purgathofer erkennt hier einen globalen kulturellen Unterschied: In Japan würden Roboter positiv dargestellt, in Europa und Amerika als Bedrohung - in zahlreichen Filmen übernehmen die Maschinen unsere Welt. Das seien zwei Extreme und es sei notwendig, dass wir offener diskutieren. Hofkirchner meint: "Wenn in Science-Fiction-Filmen gezeigt wird, dass wir uns mit Robotern anfreunden müssen, dann halte ich diese Entwicklung nicht für gut."
Siehe auch Bericht in JOANNOVUM Juni 2021#