„Big Data trifft sich mit Künstlicher Intelligenz“ #
Immer mehr technologische Entwicklungen bauen auf die Lernfähigkeit von Maschinen. Stefan Strauß über Potenzial und Risiken intelligenter Systeme.#
Mit freundlicher Genehmigung übernommen aus: DIE FURCHE (Donnerstag, 22. Juni 2017).
Das Gespräch führte
Martin Tauss
Mensch-Maschine-Kommunikation war das Thema von Stefan Strauß bei der TA17-Konferenz in Wien. Die FURCHE traf ihn vorab zum Gespräch.
DIE FURCHE: Beim „Deep Learning“ werden Netzwerke von Nervenzellen künstlich simuliert, um Maschinen besser lernfähig zu machen. Ist nun der Computer das bessere Gehirn oder das Gehirn der bessere Computer?
Stefan Strauß: Die Idee, Gehirn und Computer wären ähnlich, stammt aus den klassischen Theorien zur Künstlichen Intelligenz der 1950er- und 1960er-Jahre. Also aus einer Zeit, als die Forschung hier quasi noch in den Kinderschuhen steckte. Aber durch die hohe Rechenleistung der neuen Geräte und die Einführung mehrerer Abstraktionsebenen werden diese alten Konzepte nun verstärkt aktuell: Ihre Anwendbarkeit wächst, Big Data trifft sich mit Künstlicher Intelligenz. Letztlich aber scheint mir diese Gehirn-Computer-Metapher eher unpassend.
DIE FURCHE: Weil der Mensch letztlich kein Computer ist?
Strauß: Computer reduzieren Informationen, so dass sie berechenbar sind. Der Trend zur Quantifizierung, der mit Big Data begonnen hat, setzt sich heute mit der Künstlichen Intelligenz fort. Der Mensch und das Leben aber sind nicht berechenbar: Es passieren immer unvorhergesehene Dinge. Auch das Lernen funktioniert beim Menschen nicht sequenziell. Viele geistige Prozesse können im Computer gar nicht erfasst werden. Wenn man sagt, der Mensch funktioniert wie ein Computer und umgekehrt, impliziert das ein reduktionistisches Weltbild. Dann quantifiziert man letztlich alles. Das halte ich für problematisch.
DIE FURCHE: Führen die aktuellen Entwicklungen zu einer neuen Phase der Mensch-Computer-Interaktion, wie oft behauptet wird?
Strauß: In den letzten Jahren sind viele intelligente Anwendungen „aufgepoppt“. Aber wenn man sich diese Systeme genauer anschaut, folgt rasch Ernüchterung. Da gibt es zum Beispiel den Amazon-Lautsprecher mit dem System „Alexa“, der über Spracherkennung gesteuert wird. In den USA kam es damit zu unerwünschten Bestellungen, weil im Hintergrund der Fernseher gelaufen ist und der Lautsprecher auf die TV-Stimmen reagiert hat. Aber es ist schon erstaunlich, wie rasch sich die Mensch-Maschine-Kommunikation verbessert hat. Die Suche über Google etwa ließe sich schon mittels Sprachsteuerung durchführen, und es gibt einen Zuwachs an Sprachassistenzsystemen. Die Systeme sind heute viel effizienter. Aber neben den Vorteilen ist der Schutz der Privatsphäre ein großes Thema.
DIE FURCHE: Warum ist die Privatsphäre der User im Fall der Spracheingabe stärker gefährdet?
Strauß: Google kennt dann die Sprachmelodie seiner Nutzer und Nutzerinnen und kann diese auch in anderen Zusammenhängen wiedererkennen. Schon heute gibt es intelligente Überwachungssysteme, wo Video- und Akustiküberwachung miteinander verbunden sind. Zusätzlich zu den Bildern auch Sprachmuster aufzuzeichnen, ist ein größerer Eingriff in die Privatsphäre. Sprachliche Äußerungen sind biometrisches Datenmaterial.
DIE FURCHE: Und abseits vom Datenschutz: Wie beurteilen Sie diese Entwicklung?
Strauß: Potenzial sehe ich grundsätzlich in der industriellen Fertigung. Allerdings muss man aufpassen, dass das nicht auf Kosten der Arbeitnehmer geht. Problematisch wird es stets bei Konflikten mit der menschlichen Autonomie. Das selbstfahrende Google-Auto basiert ebenfalls auf Algorithmen, wo in Echtzeit permanent Muster im Straßenverkehr erkannt werden müssen. Aber auch bei den selbstfahrenden Autos gibt es Fälle, wo das nicht so toll funktioniert, wie es vermarktet wird, mitunter sogar Todesfälle. Diese Risiken werden mit breiterer Anwendung zunehmen.
DIE FURCHE: Was halten Sie von den Befürchtungen prominenter IT-Visionäre wie Bill Gates, dass uns die Künstliche Intelligenz schon bald über den Kopf wachsen könnte?
Strauß: Diese Befürchtungen sind durchaus berechtigt, klingen aber aus jetziger Sicht teils überzogen. Insbesondere weil die Zukunft ja auch von uns gestaltbar ist. Ein breiter gesellschaftlicher Diskurs ist daher wichtig, um Risiken frühzeitig zu erkennen und entgegenzuwirken. Viele Personen, die sich in diese Richtung geäußert haben, produzieren oder nutzen selbst Systeme in diesem Bereich, etwa Elon Musk oder Stephen Hawking. Das Thema wird aufgegriffen, um es gesellschaftlich zu verhandeln – was ja durchaus sinnvoll ist! Allerdings gibt es auch klare Interessen. Futurologen wie Ray Kurzweil etwa streben danach, Google zu einer allumfassenden künstlichen Intelligenz zu entwickeln: Er meint, bis zum Jahr 2045 werde die Intelligenz der Maschinen jene der Menschen übersteigen. In Kurzweils Vision ist das wünschenswert, da die Menschheit dadurch optimiert werden soll. In der Vision von Musk und Hawking hingegen wäre das die Apokalypse schlechthin. Die Wahrheit liegt wohl irgendwo dazwischen.
Bitte auch den Beitrag im JOANNOVUM Juni 2021 beachten!#
Kommunikationstechnik (Thema)#
Automation (Thema)#
Roboter (Thema)#