Page - 143 - in Limina - Grazer theologische Perspektiven, Volume 3:2
Image of the Page - 143 -
Text of the Page - 143 -
143 | www.limina-graz.eu
Karl Stöger | Dürfen Maschinen menschliche Barmherzigkeit ersetzen?
Die Schaffung einer E-Person erscheint zur Erreichung dieses Ziels hin-
gegen nicht nötig und könnte in der Öffentlichkeit vielleicht sogar in Rich-
tung einer rechtlichen Gleichstellung von Mensch und Maschine miss-
verstanden werden und damit zur Entstehung von Ängsten beitragen. In
jüngster Zeit wird – jedenfalls im deutschsprachigen Raum – das Konzept
der E-Person auch zunehmend abgelehnt und als nicht erforderlich ein-
gestuft, teilweise wird sogar die Befürchtung geäußert, es könnte „dazu
genutzt werden, sich der Verantwortung zu entziehen“ (Datenethikkom-
mission 2019, 219).4 Auch entsprechende Ăśberlegungen auf EU-Ebene (Eu-
ropäisches Parlament 2017, Rz 59) wurden ebenfalls kritisch beurteilt und
von der Kommission bislang auch nicht weiterverfolgt (Nevejans u. a. 2018;
Burri 2018). Auch wenn es abzuwarten gilt, dĂĽrfte dem Konzept der E-Per-
son zumindest in naher Zukunft – bis zur allfälligen Ankunft autonomer
AndroidenÂ
– noch nicht allzu viel Entwicklungspotenzial zuzumessen sein.
Erklärbarkeit algorithmischer Entscheidungen
Ein zweites Thema, das im Zusammenhang mit zunehmenden Fortschrit-
ten der KI von zahlreichen Wissenschaftsdisziplinen diskutiert wird, ist das
der Erklärbarkeit (explainability). Dieser Begriff wird oft im Zusammen-
hang mit der Gefahr von „black box-Algorithmen“ gebraucht. Darunter
versteht man selbstlernende KI-Systeme, deren Ergebnisse auf Grund der
komplexen Verarbeitung der von ihnen erlangten Informationen fĂĽr da-
von Betroffene ohne Kenntnis der kausalen Faktoren fĂĽr die Entscheidung
nicht mehr oder nur unter größtem Zeitaufwand überhaupt nachvollzieh-
bar sind (aus rechtlicher Sicht fĂĽr den deutschsprachigen Raum eingehend
Martini 2019; Wischmeyer 2018, 1).
Es ist somit nicht möglich, den Weg zum von der KI erzielten Ergebnis in
vernĂĽnftiger Weise nachzuvollziehen. Wenn aber dieses Ergebnis Aus-
gangspunkt bestimmter (auch menschlicher) Handlungen oder Unterlas-
sungen ist, kann dies ein juristisches Problem darstellen. Während man aus
technischer Sicht vor allem darum bemüht ist, „Erklärbarkeit“ oder zu-
mindest Surrogate fĂĽr solche in KI-Systeme zu integrieren, ist aus juristi-
scher Sicht nämlich vor allem die Frage entscheidend, ob man sich solcher
Kann man sich solcher Systeme bedienen,
deren Handeln nicht nachvollziehbar ist?
4 Vgl. dazu auch Brand 2019, 947;
aus der englischsprachigen Literatur
(den Schweizer Autor) Schönberger
2019, 202.
Limina
Grazer theologische Perspektiven, Volume 3:2
- Title
- Limina
- Subtitle
- Grazer theologische Perspektiven
- Volume
- 3:2
- Editor
- Karl Franzens University Graz
- Date
- 2020
- Language
- German
- License
- CC BY-NC 4.0
- Size
- 21.4 x 30.1 cm
- Pages
- 270
- Categories
- Zeitschriften LIMINA - Grazer theologische Perspektiven