Wir freuen uns über jede Rückmeldung. Ihre Botschaft geht nur an das Administrator Team. Danke fürs Mitmachen, das zur Verbesserung des Systems oder der Inhalte beitragen kann. Ihre Nachricht (optional mit Ihrer E-Mail):
unbekannter Gast

Max Tengmark: Leben 3.0#

Max Tengmark: Leben 3.0 / Mensch sein im Zeitalter Künstlicher Intelleigenz, Ullstein, 2017

Max Tengmark: Leben 3.0
Max Tengmark: Leben 3.0

Alle, die sich intensiv mit KI beschäftigen dürfen dieses Buch nicht übersehen.

Der Autor des Buches ist Professor am MIT, dass sich in 5 Szenarien der Künstlichen Intelligenz beschäftigt:
(1) KI übernimmt die Macht und entledigt sich der Menschheit mit irgendwelchen Methoden.
(2) Menschen (einer, einige oder eine große Gruppe) benützen eine mächtige KI um die Welt zu beherrschen
(3) Der Widerstand gegen technologischen Fortschritt nimmt so stark zu, dass die Menschheit wieder auf eine einfachere technologische Stufe zurückfällt.
(4) KI wird gar nicht vollständig erreicht, weil sich die Menschheit durch Atomkrieg, Biowaffen oder Klimawandel selbst vernichtet.
(5) KI und Menschen leben friedlich nebeneinander, vielleicht auch nur so, dass die KI Menschen duldet wie wir Ameisen, weil sie uns kaum in den Weg kommen.

Faszinierend an dieser Aufgliederung ist, dass ein Szenario (6) ganz fehlt: Dass allgemeine KI gar nicht verwirklicht werden kann, sondern KI nur für (immer mehr) spezielle Aufgaben (von der Raumfahrt zur Medizindiagnostik, vom Go-Spiel bis zur Verkehrssteuerung) einsetzbar wird.

Szenario (1) wird in vielen SF Romanen und Filmen durchgespielt: Programme, die mit „deep learning“ immer mehr können und sich selbst verbessern sind nicht wirklich auszuschließen und können das Ende der Menschheit bedeuten. Eine Grundannahme dabei ist allerdings, dass KI ein Selbstbewusstsein entwickelt und sich selbst Ziele (wie Selbsterhaltung) setzt. Da wir nicht einmal wissen, wie das menschliche Bewusstsein entsteht, ist es nicht klar, ob das Entstehen eines Bewusstseins nur durch hinreichen komplex verknüpfte Einheiten möglich ist. Ein guter Teil heutiger Informatiker hält dies für möglich, aber wohl ebenso viele Wissenschaftler nicht.

Insofern erscheint Szenario (2) näher und realistischer: Menschen(gruppen) geben Ziele vor, die dann von intelligenten Computern und Robotern ausgeführt werden. Viele Menschen meinen, dass große Entscheidungen in Wirklichkeit schon heute von Computern getroffen/ berechnet werden, und Politiker dann die Ergebnisse von Computerprogosen als ihre Weisheit verbreiten, aber die Weisheit schon durch die Analyse von Vorgängen und großen Datenmengen kommt, die Computer nicht Menschen durchführen.

Der Widerstand gegen immer mehr Internet, Computer, Apps etc. nimmt gegenwärtig eher zu und kann zu Szenario 3 führen. Es kann sein, dass hier eine Gegenbewegung entsteht wie eine Gegenbewegung gegen soziale Ungleichheit zu Recht im Entstehen ist (siehe die „gelben Westen“ in Frankreich als eine Auswirkung allgemeiner Unzufriedenheit, die sich immer mehr auf die Politik („Trumpism“) auswirkt.

Szenario (4) die Selbstzerstörung der Menschheit, ist angesichts des riesigen Potentials an Atomwaffen, an biologischen Entwicklungen, aber auch durch die Zerstörung der Welt durch Überbevölkerung, Ressourcenerschöpfung, Klimaänderung, Migrationsströme usw. möglich. Die Wahrscheinlichkeit dass sie im Laufe eines bestimmten Jahrs erfolgt ist wohl sehr klein, sagen wir (willkürlich) 1%. Aber über 100 Jahre bedeutet das 100% (sichere Auslöschung), und wer das für zu pessimistisch hält soll bitte an die nächsten 1.000 oder 10.000 Jahr denken, die die Menschheit vielleicht doch noch überleben sollte: Und dafür ist die Chance schon fast Null, weshalb ja Stephen Hawking vor seinem Tode noch prognostizierte, dass die Menschheit als solches nur überleben wird, wenn sie genügend viele Planeten kolonisiert. Denn dann kommt es auf die Zerstörung von einigen davon nicht an!

Szenario (5), dass uns, wie Minsky einmal meinte, „Computer wenn wir Glück haben als Haustiere halten oder ignorieren“ (wie wir Ameisen ignorieren, weil sie uns nicht wesentlich stören) ist durchaus denkbar: Computer nicht Menschen werden dann die Entwicklung des Universum steuern.

Das nicht behandelte Szenario (6) ist nicht Zukunft, die sondern die Realität und erfordert daher kaum eine Diskussion.

Das Buch entwickelt sich nicht direkt angelehnt an die erklärten Szenarien, sondern beginnt mit der erfundenen Geschichte des Omega Teams: Eine Gruppe junger Wissenschaftler wird mit Hilfe einer mächtigen („allgemeinen“) KI nicht nur reich, sondern schafft eine Organisation, deren Hintermänner nicht mehr erkennbar sind, die aber Politiker, Regierungen, Länder, Vereine, Individuen, etc. großzügig unterstützt, wenn sie sich an sieben Prinzipien orientieren: Demokratie; Steuersenkungen; Kürzung staatlicher Sozialleistungen; Senkung der Militärbudgets; freier Handel; offene Grenzen; Gesellschaftliche Verantwortung von Unternehmen. Das Team untergräbt damit gegenwärtige Machtstrukturen und übernimmt allmählich die Rolle einer Weltregierung.

Zitat: „Im Rest des Buches geht es um einer andere Geschichte: die Geschichte unsere eigenen Zukunft mit KI.“

In Kapitel 2 wird argumentiert, wie „dumme, leblose Materie“ intelligent werden kann.

Kapitel 3 argumentiert auch für Laien verständlich wie Computer lernen können, und was „deep leaerning“ bedeutet. Dies resultiert in dem wichtigen Schluss, dass es denkbar ist, dass KI eine bessere KI erschafft. Umgekehrt wird objektiv gezeigt, wie weit KI noch nicht ist, z.B. die „Winograd Herausforderung in der Sprachübersetztung“ (Buch Seite 139) noch nicht bewältigen kann. (Sprich: Perfekte Sprachübersetzung ist heute noch immer unerreichbar, wie Ian Witten 1995 formulierte: „Wer Sprache vollständig versteht, versteht die Welt“ (und davon ist auch die beste KI noch weit entfernt). Aber: KI kann potentiell sehr gefährlich sein. Drum müssen wir auf Sicherheit achten. Zitat: „Deshalb richten wir höhere Aufmerksamkeit auf die Sicherheit von Kernkraftwerken als auf die von Mausefallen“. Natürlich werden auch die „üblichen“ Probleme wie Auswirkungen auf autonome Fahrzeuge, Produktion, Arbeitslosigkeit etc. solide diskutiert.

Kapitel 4 und 5 behandeln sorgfältig und sachlich die Fragen, was geschehen könnte, wenn die KI die Intelligenz von Menschen wirklich überholt. Genauer, es werden die Szenarien (1) – (5)sorgfältig analysiert und --- mehr kann man heute nicht erwarten--- Möglichkeiten aber nicht Prognosen erstellt.

Kapitel 6 stellt die gegenwärtige Entwicklung in den Kontext der Milliarden von Jahren, die das Universum schon existiert und wohl noch existieren wird. Die komplexen hier angerissenen Themen können nicht wiedergegeben werden, doch eines der vielen interessanten Zitate mag die Situation beleuchten: „ Im Vergleich zu kosmischen Zeitmaßstäben ist eine Intelligenzexplosion ein Ereignis, in dessen Verlauf sich die Technik rasch auf ein Niveau einpendelt, das nur noch von den Naturgesetzen begrenzt wird“ wobei vorsichtshalber auch die Änderung von Naturgesetzen (wie wir sie versehen) in Erwägung gezogen wird!

In Kapitel 7 und 8 werden wichtige „philosophische“ Fragen behandelt etwa: „Wie kann man eine KI mit einem Ziel ausstatten, das weder undefiniert ist noch zur Eliminierung der Menschheit führt“ oder „Kann es ein Maschinenbewusstsein geben?“

Ich bin von diesem Buch darum so angetan, weil es (fast) alle wichtigen Probleme der KI anschneidet und gut darstellt, aber keine Antworten dazu gibt: Denn zu diesen sind weder der Autor des Buches noch ich zu diesem Zeitpunkt in der Lage.