Web-Books
im Austria-Forum
Austria-Forum
Web-Books
Zeitschriften
LIMINA - Grazer theologische Perspektiven
Limina - Grazer theologische Perspektiven, Band 3:2
Seite - 143 -
  • Benutzer
  • Version
    • Vollversion
    • Textversion
  • Sprache
    • Deutsch
    • English - Englisch

Seite - 143 - in Limina - Grazer theologische Perspektiven, Band 3:2

Bild der Seite - 143 -

Bild der Seite - 143 - in Limina - Grazer theologische Perspektiven, Band 3:2

Text der Seite - 143 -

143 | www.limina-graz.eu Karl Stöger | Dürfen Maschinen menschliche Barmherzigkeit ersetzen? Die Schaffung einer E-Person erscheint zur Erreichung dieses Ziels hin- gegen nicht nötig und könnte in der Öffentlichkeit vielleicht sogar in Rich- tung einer rechtlichen Gleichstellung von Mensch und Maschine miss- verstanden werden und damit zur Entstehung von Ängsten beitragen. In jüngster Zeit wird  – jedenfalls im deutschsprachigen Raum  – das Konzept der E-Person auch zunehmend abgelehnt und als nicht erforderlich ein- gestuft, teilweise wird sogar die Befürchtung geäußert, es könnte „dazu genutzt werden, sich der Verantwortung zu entziehen“ (Datenethikkom- mission 2019, 219).4 Auch entsprechende Überlegungen auf EU-Ebene (Eu- ropäisches Parlament 2017, Rz  59) wurden ebenfalls kritisch beurteilt und von der Kommission bislang auch nicht weiterverfolgt (Nevejans u. a. 2018; Burri 2018). Auch wenn es abzuwarten gilt, dürfte dem Konzept der E-Per- son zumindest in naher Zukunft  – bis zur allfälligen Ankunft autonomer Androiden  – noch nicht allzu viel Entwicklungspotenzial zuzumessen sein. Erklärbarkeit algorithmischer Entscheidungen Ein zweites Thema, das im Zusammenhang mit zunehmenden Fortschrit- ten der KI von zahlreichen Wissenschaftsdisziplinen diskutiert wird, ist das der Erklärbarkeit (explainability). Dieser Begriff wird oft im Zusammen- hang mit der Gefahr von „black box-Algorithmen“ gebraucht. Darunter versteht man selbstlernende KI-Systeme, deren Ergebnisse auf Grund der komplexen Verarbeitung der von ihnen erlangten Informationen für da- von Betroffene ohne Kenntnis der kausalen Faktoren für die Entscheidung nicht mehr oder nur unter größtem Zeitaufwand überhaupt nachvollzieh- bar sind (aus rechtlicher Sicht für den deutschsprachigen Raum eingehend Martini 2019; Wischmeyer 2018, 1). Es ist somit nicht möglich, den Weg zum von der KI erzielten Ergebnis in vernünftiger Weise nachzuvollziehen. Wenn aber dieses Ergebnis Aus- gangspunkt bestimmter (auch menschlicher) Handlungen oder Unterlas- sungen ist, kann dies ein juristisches Problem darstellen. Während man aus technischer Sicht vor allem darum bemüht ist, „Erklärbarkeit“ oder zu- mindest Surrogate für solche in KI-Systeme zu integrieren, ist aus juristi- scher Sicht nämlich vor allem die Frage entscheidend, ob man sich solcher Kann man sich solcher Systeme bedienen, deren Handeln nicht nachvollziehbar ist? 4 Vgl. dazu auch Brand 2019, 947; aus der englischsprachigen Literatur (den Schweizer Autor) Schönberger 2019, 202.
zurück zum  Buch Limina - Grazer theologische Perspektiven, Band 3:2"
Limina Grazer theologische Perspektiven, Band 3:2
Titel
Limina
Untertitel
Grazer theologische Perspektiven
Band
3:2
Herausgeber
Karl Franzens University Graz
Datum
2020
Sprache
deutsch
Lizenz
CC BY-NC 4.0
Abmessungen
21.4 x 30.1 cm
Seiten
270
Kategorien
Zeitschriften LIMINA - Grazer theologische Perspektiven
Web-Books
Bibliothek
Datenschutz
Impressum
Austria-Forum
Austria-Forum
Web-Books
Limina