Page - 144 - in Limina - Grazer theologische Perspektiven, Volume 3:2
Image of the Page - 144 -
Text of the Page - 144 -
144 | www.limina-graz.eu
Karl Stöger | Dürfen Maschinen menschliche Barmherzigkeit ersetzen?
Systeme ĂĽberhaupt bedienen kann, wenn ihr Handeln nicht nachvollzieh-
bar ist.
Besonders problematisch ist diese fehlende Nachvollziehbarkeit zum einen
bei staatlichen Entscheidungen, da diese – nicht nur nach österreichi-
schem Recht – schon auf Grund verfassungsrechtlicher Vorgaben einer
BegrĂĽndung bedĂĽrfen, nicht zuletzt deshalb, damit sich der Einzelne da-
gegen wehren kann. Aber auch im Verhältnis zwischen Privaten können
BegrĂĽndungen notwendig sein, insbesondere dort, wo einer der beiden
Handelnden gegenĂĽber dem anderen ein Wissensdefizit aufweist. Dies ist
etwa die Logik hinter der Verpflichtung zur Aufklärung von Patientinnen
und Patienten bei ärztlicher Behandlung. Nun bedürfen pflegebedürftige
Personen nicht nur ärztlicher Betreuung, auch pflegerische Entscheidun-
gen können wichtige Auswirkungen auf ihre Gesundheit habenÂ
– und auch
bei diesen ist es so, dass pflegebedürftige Personen mit geringem einschlä-
gigem Wissensstand oft fachlich hochqualifiziertem Personal „mit Wis-
sensvorsprung“ gegenüberstehen. Insoweit liegt die Problematik der Er-
klärbarkeit von KI-Entscheidungen in der Pflege nicht völlig anders als bei
medizinischen Behandlungen.
Die bisher einzige rechtliche Vorschrift, die nach einer – freilich nicht un-
umstrittenen5 – möglichen Lesart das Thema der Erklärbarkeit anspricht,
ist Art.Â
22 der Datenschutz-Grundverordnung (DSGVO), der vollständig au-
tomatisierte Entscheidungen nur unter strengen Voraussetzungen zulässt.
Solche vollständig automatisierten Entscheidungen werden aber weder
von medizinischen noch von pflegerischen KI-Systemen angestrebt, die-
se sollen vielmehr in der Regel EntscheidungsunterstĂĽtzung fĂĽr Menschen
liefern. Man wird somit auf die allgemeine Regel zurĂĽckgreifen mĂĽssen,
nach der medizinische und pflegerische Maßnahmen einer „informierten
Einwilligung“ (informed consent) bedürfen, und nach der diese auch dann
gegeben sein muss, wenn die Empfehlung zur Ergreifung dieser MaĂźnahme
von einem KI-System stammt und von Menschen, wenn auch nach einer
Plausibilitätsprüfung, ausgeführt wird.
Wie sich informed consent zur explainability verhält, ist eine Frage, die in der
juristischen Literatur – wenn auch außerhalb Österreichs – bereits inten-
siv diskutiert wird, wobei es verschiedene Ansätze gibt: Eher pragmatisch
geben sich die Autorinnen und Autoren, die darauf hinweisen, dass medi-
Medizinische und pflegerische MaĂźnahmen
bedürfen einer „informierten Einwilligung“.
5 Kritisch äußern sich dazu etwa
Wachter/Mittelstadt/Floridi 2017,
76; differenzierend Edwards/Veale
2017; befĂĽrwortend hingegen Good-
man/Flaxman 2017.
Limina
Grazer theologische Perspektiven, Volume 3:2
- Title
- Limina
- Subtitle
- Grazer theologische Perspektiven
- Volume
- 3:2
- Editor
- Karl Franzens University Graz
- Date
- 2020
- Language
- German
- License
- CC BY-NC 4.0
- Size
- 21.4 x 30.1 cm
- Pages
- 270
- Categories
- Zeitschriften LIMINA - Grazer theologische Perspektiven