Von klugen Rechnern durchschaut #
Eine Konferenz in Wien zeigte einmal mehr das Janusgesicht der Digitalisierung – zwischen Nutzungseffizienz und Überwachung. #
Mit freundlicher Genehmigung übernommen aus: DIE FURCHE (Donnerstag, 22. Juni 2017).
Von
Martin Tauss
Wer bei Callcentern anruft, ist es vielleicht schon gewohnt, mit einer metallisch tönenden Computerstimme zu sprechen. Bevor man sein Anliegen gegenüber einem Mitarbeiter des Unternehmens äußern kann, durchläuft man eine automatische Schleife, die für die richtige Zuordnung des Anrufers sorgt. Das Unternehmen profitiert von dieser Automatisierung: Es kann Kosten sparen und etwaige Querulanten herausfiltern. Doch für die Kunden kann dieser Durchlauf mitunter problematisch sein: Für sie kann es länger dauern, bis sie die gewünschte Auskunft erhalten. Wenn ein Kunde nuschelt oder sonst irgendwie unklar spricht, wird er (oder sie) vielleicht gar nicht weitergereicht und schafft es nicht bis zur eigentlichen Betreuung. Das kann zu Kundenunzufriedenheit führen. Diese wiederum könnte auf das Unternehmen zurückfallen.
Verbreitung von „Deep Learning“ #
Systeme dieser Art beruhen auf maschineller Spracherkennung: Der Computer vermag im Sprechen bestimmte Klangmuster zu identifizieren und ist darauf programmiert, auf diese Muster zu reagieren. „Assistenzsysteme mit Spracherkennung haben in den letzten Jahren große Fortschritte gemacht“, sagt Stefan Strauß vom Institut für Technikfolgenabschätzung (ITA) der Österreichischen Akademie der Wissenschaften (ÖAW). „Mit Google kann man sogar schon im Wiener Dialekt sprechen.“ Der Technikforscher war einer der Vortragenden der ITA-Jahreskonferenz an der ÖAW in Wien. Im Fokus stand die neue Arbeitswelt, die immer mehr durch die fortschreitende Digitalisierung geprägt wird. Und wie bereits das simple Beispiel der Callcenter zeigt, gibt es hier jede Menge an Folgen und Nebenwirkungen zu beachten.
Glaubt man dem deutschen Computerforscher Dirk Helbing, steht eine umfassende Automatisierungswelle bevor: „The Automation of Society is Next“, lautet sein Ausblick in Buchform (2015). Auch wenn man diese Prognose nicht generell teilt: Die Intelligenz der Maschinen wird künftig jedenfalls eine wichtigere Rolle spielen. Maschinelles Lernen (ML) ist seit jeher zentral im Bereich der Künstlichen Intelligenz. Es befasst sich mit der Entwicklung automatisierter, lernfähiger Prozesse, um Computersystemen das Aneignen von Erfahrungswissen zu ermöglichen. Die frühen Ansätze maschinellen Lernens waren von Methoden geprägt, deren Problemlösungsstrategien noch kaum systematisch waren und viel eher auf „Versuch und Irrtum“ basierten. Doch in den letzten Jahren sind die Entwicklungen in diesem Bereich deutlich fortgeschritten. Ein jüngerer Ansatz ist das „Deep Learning“, das eine leistungsfähige Auswertung und effiziente Restrukturierung großer Datenmengen erlaubt. „Deep Learning“ stützt sich dabei unter anderem auf künstliche Nerven-Netzwerke, um Informationen auf mehrfachen Abstraktionsebenen zu analysieren. Große Unternehmen wie Google und Facebook fördern die Forschung in diesem Bereich und haben stark zur Vermarktung und Verbreitung dieses Ansatzes beigetragen.
Auswertung von Biodaten #
Computer werden künftig nicht nur Sprachmuster präziser auswerten, sondern auch Biodaten wie etwa die Atem- oder Herzfrequenz. Durchaus vorstellbar, dass die Mitarbeiter in einem Unternehmen dahingehend untersucht werden. Ein Mensch, der einen Kaffee getrunken und deshalb eine erhöhte Herzfrequenz hat, könnte dann als Arbeitsrisiko eingestuft werden – und für den Tag dienstfrei bekommen. „Maschinen können viel mehr messen als wir wahrnehmen“, so Stefan Strauß. Die Regulierung solcher Szenarien ist noch kaum angedacht.
Weiterführendes#
- Bioanalytik (Thema)
- Sicherheit (Thema)