Page - 142 - in Limina - Grazer theologische Perspektiven, Volume 3:2
Image of the Page - 142 -
Text of the Page - 142 -
142 | www.limina-graz.eu
Karl Stöger | Dürfen Maschinen menschliche Barmherzigkeit ersetzen?
Menschen als vielmehr in pragmatischer Weise primär darum, die Ver-
antwortung für Fehler eines autonomen Systems verursachergerecht „zu-
rechnen“ zu können und damit geschädigten Personen die oft schwierige
Suche nach der (natĂĽrlichen oder juristischen) Person zu ersparen, die fĂĽr
den Fehler verantwortlich ist. Man denke diesbezĂĽglich nur an das Beispiel
eines selbstlernenden Pflegeroboters, der nach einiger Zeit im Einsatz
einen schwerwiegenden Fehler macht: Verantwortlich sein könnte der Her-
steller (mechanischer Fehler), der – möglicherweise vom Hersteller ver-
schiedeneÂ
– Programmierer des „Basisprogramms“, der Lieferant von un-
zureichenden oder gar fehlerhaften „Trainingsdaten“ für den Lernprozess
oder aber die anwendende Einrichtung etwa wegen nicht bestimmungs-
gemäßen Gebrauchs. Für eine geschädigte Person kann sich die Suche nach
dem Verantwortlichen – und bei Verschulden somit dem Ersatzpflichti-
genÂ
– als große Herausforderung erweisen. Das Konzept der E-Person wäre
in der Tat eine mögliche, aber keine zwingende Lösung dieser Thematik (für
einen vermittelnden Ansatz z. B. Schirmer 2019, 123).
Die geltende Rechtsordnung kennt mit der Gefährdungshaftung schon
heute ein System, das zuerst einmal dazu fĂĽhrt, dass derjenige, der sich
einer „gefährlichen“ Sache bedient, für einen von dieser verursachten
Schaden verschuldensunabhängig einzustehen hat (wobei der Betreiber
sich freilich gegen dieses Risiko versichern kann). Das Argument ist, dass
derjenige, der aus der „gefährlichen Sache“ einen wirtschaftlichen Vorteil
zieht, eben auch die Nachteile tragen soll, ohne dass dies bedeutet, dass
der Inhaber der Sache nicht seinerseits RĂĽckersatz (Regress) etwa vom
Hersteller oder dem Programmierer fordern kann, wenn diesen ein Ver-
schulden am fehlerhaften Betrieb trifft. Sachen mit einer solchen erhöhten
Betriebsgefahr sind etwa Eisenbahnen oder Kraftfahrzeuge (deshalb die
Pflichthaftpflichtversicherung für diese) und könnten bei entsprechender
gesetzlicher Anordnung eben auch autonom agierende Systeme sein. Auch
bei mit künstlicher Intelligenz arbeitenden Pflegesystemen könnte somit
ein solches Haftungsregime dazu beitragen, zu verhindern, dass pflegebe-
dĂĽrftige Personen mit einem durch ein solches System verursachten Scha-
den „ratlos“ zurückbleiben. Dies würde sicherlich auch dazu beitragen, die
Akzeptanz solcher Systeme in der Öffentlichkeit zu erhöhen.
Die Gefährdungshaftung ist bereits ein System, wonach derjenige,
der sich einer „gefährlichen“ Sache bedient, für einen von dieser
verursachten Schaden einzustehen hat.
Limina
Grazer theologische Perspektiven, Volume 3:2
- Title
- Limina
- Subtitle
- Grazer theologische Perspektiven
- Volume
- 3:2
- Editor
- Karl Franzens University Graz
- Date
- 2020
- Language
- German
- License
- CC BY-NC 4.0
- Size
- 21.4 x 30.1 cm
- Pages
- 270
- Categories
- Zeitschriften LIMINA - Grazer theologische Perspektiven