Seite - 143 - in Limina - Grazer theologische Perspektiven, Band 3:2
Bild der Seite - 143 -
Text der Seite - 143 -
143 | www.limina-graz.eu
Karl Stöger | Dürfen Maschinen menschliche Barmherzigkeit ersetzen?
Die Schaffung einer E-Person erscheint zur Erreichung dieses Ziels hin-
gegen nicht nötig und könnte in der Öffentlichkeit vielleicht sogar in Rich-
tung einer rechtlichen Gleichstellung von Mensch und Maschine miss-
verstanden werden und damit zur Entstehung von Ängsten beitragen. In
jüngster Zeit wird – jedenfalls im deutschsprachigen Raum – das Konzept
der E-Person auch zunehmend abgelehnt und als nicht erforderlich ein-
gestuft, teilweise wird sogar die Befürchtung geäußert, es könnte „dazu
genutzt werden, sich der Verantwortung zu entziehen“ (Datenethikkom-
mission 2019, 219).4 Auch entsprechende Überlegungen auf EU-Ebene (Eu-
ropäisches Parlament 2017, Rz 59) wurden ebenfalls kritisch beurteilt und
von der Kommission bislang auch nicht weiterverfolgt (Nevejans u. a. 2018;
Burri 2018). Auch wenn es abzuwarten gilt, dürfte dem Konzept der E-Per-
son zumindest in naher Zukunft – bis zur allfälligen Ankunft autonomer
Androiden
– noch nicht allzu viel Entwicklungspotenzial zuzumessen sein.
Erklärbarkeit algorithmischer Entscheidungen
Ein zweites Thema, das im Zusammenhang mit zunehmenden Fortschrit-
ten der KI von zahlreichen Wissenschaftsdisziplinen diskutiert wird, ist das
der Erklärbarkeit (explainability). Dieser Begriff wird oft im Zusammen-
hang mit der Gefahr von „black box-Algorithmen“ gebraucht. Darunter
versteht man selbstlernende KI-Systeme, deren Ergebnisse auf Grund der
komplexen Verarbeitung der von ihnen erlangten Informationen für da-
von Betroffene ohne Kenntnis der kausalen Faktoren für die Entscheidung
nicht mehr oder nur unter größtem Zeitaufwand überhaupt nachvollzieh-
bar sind (aus rechtlicher Sicht für den deutschsprachigen Raum eingehend
Martini 2019; Wischmeyer 2018, 1).
Es ist somit nicht möglich, den Weg zum von der KI erzielten Ergebnis in
vernünftiger Weise nachzuvollziehen. Wenn aber dieses Ergebnis Aus-
gangspunkt bestimmter (auch menschlicher) Handlungen oder Unterlas-
sungen ist, kann dies ein juristisches Problem darstellen. Während man aus
technischer Sicht vor allem darum bemüht ist, „Erklärbarkeit“ oder zu-
mindest Surrogate für solche in KI-Systeme zu integrieren, ist aus juristi-
scher Sicht nämlich vor allem die Frage entscheidend, ob man sich solcher
Kann man sich solcher Systeme bedienen,
deren Handeln nicht nachvollziehbar ist?
4 Vgl. dazu auch Brand 2019, 947;
aus der englischsprachigen Literatur
(den Schweizer Autor) Schönberger
2019, 202.
Limina
Grazer theologische Perspektiven, Band 3:2
- Titel
- Limina
- Untertitel
- Grazer theologische Perspektiven
- Band
- 3:2
- Herausgeber
- Karl Franzens University Graz
- Datum
- 2020
- Sprache
- deutsch
- Lizenz
- CC BY-NC 4.0
- Abmessungen
- 21.4 x 30.1 cm
- Seiten
- 270
- Kategorien
- Zeitschriften LIMINA - Grazer theologische Perspektiven