Was Künstliche Intelligenz können darf #
Ein neuer Gesetzesentwurf der EU-Kommission beinhaltet eine Liste an Technologien, die in Zukunft verboten werden sollen, darunter Social-Credit-Systeme wie in China und biometrische Überwachung im öffentlichen Raum.#
Von der Wiener Zeitung (22. April 2021) freundlicherweise zur Verfügung gestellt
Von
Gregor Kucera
Ob die Zukunft der Menschheit eine bessere wäre, wenn man Zahlen, Fakten und Algorithmen entscheiden lassen würde, kann schwer gesagt werden. Schlägt künstliche Intelligenz natürliche Dummheit? Was macht den Menschen aus, außer Menschlichkeit und auch einmal Fehlentscheidungen? Und kann man Empathie künstlich simulieren? Wie man das Blatt auch dreht und wendet, immer wird es positive Aspekte und negative Auswirkungen geben.
Fakt ist, dass 50 Prozent aller europäischen Unternehmen KI-Technologie als nicht relevant für das eigene Geschäftsmodell einstufen, nicht nur heute, sondern auch in der Zukunft.
Rettung oder Jobkiller?#
Für Analysten ein katastrophaler Wert, denn die Veränderungen, die sich durch verbesserte Prognosen von Maschinenwartungen oder die Automatisierung von Standardprozessen etwa in der industriellen Produktion ergeben, werden als enorm eingestuft. Laut dem Beratungsunternehmen PWC könnte die Weltwirtschaft durch KI-Technologie bis 2030 zusätzlich um 14 Prozent beziehungsweise 15,7 Billionen Dollar anwachsen. Kritiker sehen dafür Millionen Jobs wegrationalisiert. Somit rittern China und die USA um die Vorherrschaft bei der Künstlichen Intelligenz, wenn auch - bis auf militärische Nutzung - mit unterschiedlichen Fokussen.
Das chinesische Social-Credit-System setzt auf Überwachung und Kontrolle mittels ausgeklügelter Technologie. Gesichtserkennung, die Verknüpfung und Auswertung enormer Datenmengen und dies unter Einbettung anderer staatlicher Systeme, machen es zu einem weltweit einzigartigen Tool. In den USA wird das Thema hingegen von Privatunternehmen und Investmentfonds getragen, die sich vorrangig wirtschaftliche Vorteile erwarten.
Ein im Jänner veröffentlichter Bericht des Center for Data Innovation sieht im Wettlauf um die Künstliche Intelligenz die USA vor China und der EU. Wobei China in den vergangenen Jahren stark aufgeholt hat. Die USA haben daher, aus Angst, dass eine staatliche Überregulierung die technologische Innovation hemmen könnte, auf Beschränkungen bisher verzichtet. In dem Bericht heißt es weiter: "Die größte Herausforderung für die EU und ihre Mitgliedstaaten besteht darin, dass viele in Europa der KI nicht vertrauen und sie als Technologie betrachten, die gefürchtet und eingeschränkt werden muss, anstatt begrüßt und gefördert zu werden." Das Weißbuch der Europäischen Kommission zur KI, das einen Fahrplan für die erwartete Gesetzgebung enthält, hebt diese Befürchtungen hinsichtlich der KI hervor und nennt "potenzielle Risiken wie undurchsichtige Entscheidungsfindung, geschlechtsspezifische oder andere Arten von Diskriminierung, Eingriffe in das Privatleben oder als Werkzeug für kriminelle Zwecke".
In einem vorab bekannt gewordenen Gesetzesentwurf der Europäischen Kommission wird tatsächlich die Möglichkeit eines Verbots von KI-Systemen , die zur Massenüberwachung oder zur Einstufung des Sozialverhaltens verwendet werden können, vorgeschlagen. Unternehmen, die KI entwickeln, müssen mit Geldstrafen von bis zu 4 Prozent des weltweiten Umsatzes rechnen, wenn sie die neuen Regeln für Softwareanwendungen nicht einhalten. Die Details könnten sich aber noch ändern, bevor die Kommission die Maßnahmen offiziell bekanntgibt.
Derzeit enthält der Vorschlag folgende Regeln: KI-Systeme, die zur Manipulation des menschlichen Verhaltens, zur Nutzung von Informationen über Einzelpersonen oder Gruppen von Einzelpersonen, zur Durchführung sozialer Bewertungen oder zur wahllosen Überwachung eingesetzt werden, wären in der EU verboten. Es würden einige Ausnahmen für die öffentliche Sicherheit gelten. An öffentlichen Orten verwendete biometrische Fernidentifizierungssysteme, wie die Gesichtserkennung, erfordern eine besondere behördliche Genehmigung. KI-Anwendungen, die als "risikoreich" eingestuft werden, müssten vor der Bereitstellung entsprechenden Inspektionen und Untersuchungen unterzogen werden, um sicherzustellen, dass die Systeme auf nachvollziehbare Weise und unter menschlicher Aufsicht auf unvoreingenommene Datensätze geschult werden.
Kein Verbot für "Killerdrohnen"#
Der Punkt "Hochrisiko-KI" bezieht sich auf Systeme, die die Sicherheit, das Leben oder die Grundrechte von Menschen gefährden könnten, sowie auf die demokratischen Prozesse der EU - wie etwa selbstfahrende Autos und Fernoperationen. Einige Unternehmen sollten selbst Bewertungen vornehmen dürfen, während andere von Dritten überprüft würden. Von Bewertungsstellen ausgestellte Konformitätsbescheinigungen wären bis zu fünf Jahre gültig.
Die Regeln würden gleichermaßen für Unternehmen mit Sitz in der EU oder im Ausland gelten. Die europäischen Mitgliedstaaten müssten Bewertungsgremien benennen, um die Systeme gemäß dem Dokument zu testen, zu zertifizieren und zu inspizieren. Unternehmen, die verbotene KI-Dienste entwickeln, falsche Informationen liefern oder nicht mit den nationalen Behörden zusammenarbeiten, können mit einer Geldstrafe von bis zu 4 Prozent des weltweiten Umsatzes belegt werden. Die Regeln gelten laut dem Entwurf nicht für KI-Systeme, die ausschließlich für militärische Zwecke eingesetzt werden - würden also kein Verbot von "Killerdrohnen" bedeuten.
Die EU-Kommission orientiert sich bei den Plänen an einem 30-seitigen Weißbuch zur KI, das Kommissionspräsidentin Ursula von der Leyen im Februar 2020 vorgestellt hat. Darin wurden die Sektoren Verkehr, Gesundheitswesen, Energie und Teile des öffentlichen Sektors als besonders risikobehaftet eingestuft. Ist bei dem Einsatz von KI in einem solchen Bereich mit "erheblichen Risiken" zu rechnen, sieht die EU-Kommission darin eine Anwendung "mit hohem Risiko", für die ein "regulatorischer Eingriff" nötig sein könnte.
Einigen EU-Abgeordneten sind die durchgesickerten Vorschläge freilich nicht scharf genug. Dass etwa Systeme zur automatisierten Gesichtserkennung im öffentlichen Raum nicht generell verboten werden sollen, sei "ein Schlag ins Gesicht der Zivilgesellschaft", sagt die Grüne Alexandra Geese. Auch aus Spanien gibt es Kritik: "Künstliche Intelligenz muss stets die Perspektive des Menschen im Mittelpunkt haben", so der EU-Abgeordnete Garcia del Blanco. Der Ethik-Professor John Tasioulas von der Universität Oxford meint dazu, dass viele Menschen beim Thema Überregulierung an die Begrenzung des wirtschaftlichen Wachstums denken würden, doch gehe es nicht nur um wirtschaftlichen Wohlstand, sondern auch um Grundrechte. So würde oft der Respekt von Grundrechten die wirtschaftliche Expansion begrenzen.
Die Frage ist nun, wie sich Europa positionieren will und welche Abstriche in puncto Wohlstand, aber auch Absicherungen der Menschenrechte erreicht werden wollen. Die EU soll zum Vorreiter bei der Entwicklung sicherer, vertrauenswürdiger und ethischer KI-Systeme werden. Die Kommission bewegt sich mit ihrem Vorschlag also auf dem schmalen Grat zwischen der Förderung von Zukunftstechnologien und der Wahrung europäischer Grundwerte. Es wäre die erste Regulierung von Künstlicher Intelligenz dieser Art.
Neue Regelungen#
Europa soll bei der Entwicklung Künstlicher Intelligenz nach Vorschlägen der EU-Kommission weltweite Standards setzen. Dazu schlug die Brüsseler Behörde am Mittwoch Regeln für den Umgang mit dieser Technologie vor, die sowohl mögliche Risiken von Anwendungen als auch die Grundrechte der EU-Bürger berücksichtigen. Je höher die Gefahren sind, desto höher sollen auch die Anforderungen an ein Programm und seinen Entwickler sein. Für Regelverstöße sind hohe Strafen vorgesehen.
Künstliche Intelligenz (KI) bezeichnet meist Anwendungen auf Basis maschinellen Lernens, bei denen eine Software große Datenmengen nach Übereinstimmungen durchforstet und daraus Schlussfolgerungen zieht. Dadurch können Computerprogramme zum Beispiel Aufnahmen von Computer-Tomografen schneller und mit einer höheren Genauigkeit als Menschen auswerten. Selbstfahrende Autos versuchen so, das Verhalten anderer Verkehrsteilnehmer vorherzusagen, und Programme zur Bildbearbeitung nutzen ihr Wissen über Lichtverhältnisse und Objekte in einem Foto, um es zu optimieren.
Regeln für Hochrisiko-Anwendungen#
Konkret legte die EU-Kommission vor allem Regeln für sogenannte Hochrisiko-Anwendungen vor. Dazu zählt die Behörde unter anderem kritische Infrastruktur wie den Verkehrssektor oder Programme zur Personaleinstellung. Hier müssten unter anderem menschliche Aufsicht, umfangreiche Datensets und eine Risikobewertung sichergestellt werden. Auch die biometrische Identifikation im öffentlichen Raum soll nur in engen Grenzen und nach behördlicher Genehmigung erlaubt werden - etwa bei der Suche nach einem vermissten Kind oder einem drohenden Terroranschlag. Technologien wie das Sozialkredit-System aus China, das regelkonformes Verhalten belohnt und Fehlverhalten bestraft, sollen gänzlich verboten werden.
Von den allermeisten Anwendungen - beispielsweise Spam-Filter oder Computerspiele, die mit KI arbeiten - gehen nach Ansicht der EU-Kommission jedoch keine oder nur geringe Risiken aus. Für sie sollen daher deutlich weniger strenge oder gar keine Auflagen gelten. Über die Vorschläge der EU-Kommission müssen nun noch die EU-Staaten und das Europaparlament verhandeln. Es dürfte noch einige Jahre dauern, ehe in der EU neue Regeln gelten.
Schramböck begrüßt das Paket#
Wirtschafts- und Digitalministerin Margarete Schramböck (ÖVP) begrüßte das Paket: "Ein klarer, aber flexibler Rechtsrahmen, der Innovationen fördert und gleichzeitig ein hohes Maß an Schutz und Sicherheit gewährleistet, ist beim Thema Künstliche Intelligenz unerlässlich." Schramböck betonte in der Aussendung, dass erstmals "rote Linien" für bestimmte KI-Anwendungen definiert wurden und bestimmte Praktiken zur Manipulation und Massenüberwachung verboten werden. "Österreich wird selbstverständlich die Grundlagen und Zielsetzungen des KI-Pakets der Europäischen Union in seine nationale KI-Strategie einfließen lassen", so die Ministerin.
Für SPÖ-EU-Delegationsleiter Andreas Schieder war es "gut", dass die EU-Kommission "klare Regeln vorlegt". Künstliche Intelligenz biete "ein großes Potenzial, aber dafür braucht es eine strenge Regulierung entlang demokratischer und ethischer Kriterien", so Schieder in einer Aussendung. "Wir wollen keinen Import eines chinesischen Überwachungsstaats mit Sozialkredit-Systemen und auch keinen Wildwuchs an diskriminierenden Algorithmen wie beim AMS."