Wir freuen uns über jede Rückmeldung. Ihre Botschaft geht vollkommen anonym nur an das Administrator Team. Danke fürs Mitmachen, das zur Verbesserung des Systems oder der Inhalte beitragen kann. ACHTUNG: Wir können an Sie nur eine Antwort senden, wenn Sie ihre Mail Adresse mitschicken, die wir sonst nicht kennen!
unbekannter Gast

Sharon Bertsch McGrayne: Die Theorie, die nicht sterben wollte#

Sharon Bertsch McGrayne: Die Theorie, die nicht sterben wollte / Wie der englische Pastor Thomas Bayes eine Regel entdeckte, die nach 150 Jahren voller Kontroversen heute aus Wissenschaft und Technik und Gesellschaft nicht mehr wegzudenken ist, Springer Spektrum Sachbuch, 2014 / Rezension von Holzinger Andreas

Sharon Bertsch McGrayne: Die Theorie, die nicht sterben wollte
Sharon Bertsch McGrayne: Die Theorie, die nicht sterben wollte

Das Buch von Sharon Bertsch McGRAYNE „Die Theorie die nicht sterben wollte“ aus dem Springer-Verlag, Berlin, Heidelberg, ist ursprünglich 2011 in englischer Sprache im Yale University Press Verlag, New Haven, unter dem Titel „The Theory that would not die“ erschienen.

2005 gewann Google einen Wettbewerb für maschinelle Übersetzungen, was zu einer wichtigen Erkenntnis führte: Fortschritt entstand nicht aus besseren Algorithmen zum Lernen der Daten, sondern aus größeren Datenmengen zum Trainieren der Lernalgorithmen. Computer „verstehen“ nämlich rein gar nichts - sie erkennen lediglich „Muster“ in den Daten. Heute ist vielen Menschen nicht bewusst, dass die heutigen großen Erfolge in der so genannten „Künstliche Intelligenz“ auf Grundlagen beruhen, die von einem englischen Pastor namens Thomas Bayes (1701 -1761) begründet und von Pierre-Simon de Laplace (1749-1827) aufgearbeitet wurden und die nicht nur zu den großen Erfolgen im statistischen maschinellen Lernen geführt haben, sondern auch zu vielen Kontroversen. Das führte sogar zu einem „Richtungsstreit“ zwischen sogenannten „Frequentisten“, den Gegnern der Theorie von Bayes und den „Bayesianern“, den Anhängern der Theorie von Bayes (Kristin Lennox beschreibt diesen „Krieg“ zwischen den beiden Richtungen anschaulich in ihrem Vortrag, siehe https://www.youtube.com/watch?v=eDMGDhyDxuY).

Dieses Buch beschreibt auf gut lesbare Art von dieser Kontroverse und stellt die Theorie selbst in den Mittelpunkt und beschreibt die Entwicklung dieser Theorie von den Überlegungen des Pfarrers Bayes bis zu den heutigen Erfolgen des maschinellen Lernens aus großen Datenmengen. Vom Konzept her ist die Theorie von Bayes verblüffend einfach: Wir erstellen eine Hypothese aus einer Beobachtung und geben dazu eine Wahrscheinlichkeit an wie wahr diese Hypothese sein könnte, z.B. „Mit 90 % Wahrscheinlichkeit ist der zugestiegene Fahrgast in der Straßenbahn ein Fahrscheinkontrollor“, nun revidieren wir laufend unsere gemachte Annahme aufgrund neuer Beobachtungen, das heisst jede neue Information bringt uns der Gewissheit näher. Bayes bezeichnete die Annahme als „Prior“ und die dafür gültige Wahrscheinlichkeit als „Likelihood“ und setzte Prior mal Likelihood proportinonal zu einen sogenannten Posterior, der jetzt wieder als neuer Prior dient usw. Das System entwickelt sich fort – es lernt also aus neuen Beobachtungen!

Laplace brachte diese Überlegungen in „saubere Formeln“, also in die Sprache der Mathematik, und diese stellt bis heute die Grundlagen des statistischen Lernens dar. Rasch formierten sich allerdings Gegner dieser Theorie (die „Frequentisten“), denn die Theorie von Bayes ist nicht nur wenig „mathematisch elegant“, sondern darüber hinaus ist der Prior ja stets eine subjektive Annahme, die erst durch weitere Beobachtungen korrigiert wird, so dass eben viele relevante (!) Trainingsdaten benötigt werden damit die Ergebnisse immer besser werden. Der umstrittenste Punkt bei der Kontroverse zwischen den Frequentisten und den Bayesianern ist eben die Tatsache, dass im Falle nur weniger Daten das Ergebnis immer von der Wahl der Prioren abhängt, und daher stets zu einer subjektiven Bewertung der Situation kommen kann. Vor allem ist wichtig zu verstehen, dass nur durch große Trainingsdatenmengen diese subjektive Bewertung minimiert wird – aber oft hat man eben diese großen Datenmengen nicht zur Verfügung. Dort versagen solche Methoden.

Das Buch liefert einen guten Einblick in diese Problematik und gibt überhaupt einen guten Einblick in die Entstehung des statistischen Lernens – bis zu modernen Computer-Anwendungen. Das Buch ist eine sehr gute Darstellung wie auch Theorien, nicht nur Menschen, Rückschläge erleiden können und schlussendlich dennoch erfolgreich sein können.