Page - 203 - in Dinge – Nutzer – Netze - Von der Virtualisierung des Musealen zur Musealisierung des Virtuellen
Image of the Page - 203 -
Text of the Page - 203 -
Das Museum von Babel? | 203
Bevor diese Vermessung aber stattfinden kann, müssen die einzelnen Webseiten
erst einmal erhoben werden, und nach Brin und Page ist dies der schwierigste Teil
des gesamten Indexierungsprozesses. Die Webcrawler-Programme, deren Aufgabe
es ja ist, systematisch so viele Links wie möglich zu verfolgen und Daten zu den so
gefundenen Seiten zu erheben, müssen mit einem riesigen, nur begrenzt standardi-
sierten digitalen Hypertextsystem umgehen, das sich der Kontrolle der Suchmaschi-
nenbetreiber in weitesten Teilen entzieht. Sowohl die Seiten selbst als auch die Ser-
ver, auf denen sie gespeichert sind, unterscheiden sich in Standards, Formaten und
allgemeinem Aufbau mitunter erheblich. 1997 konnte ein Crawler ca. 300 simultane
Verbindungen offenhalten und ein übliches System von vier gleichzeitig koordiniert
operierenden Crawlern etwa 100 Seiten pro Sekunde indexieren. Bei derart großen
Zahlen und einer solchen Geschwindigkeit liegt auf der Hand, dass eine Suchma-
schine von der Größe Googles im laufenden Erhebungsverfahren nicht zwischen
Webseiten differenzieren oder diskriminieren kann. Wer seine Seite nicht indexiert
sehen möchte, der kann dies nur sicherstellen, indem er sie technisch so anlegt, dass
sie von Webcrawlern nicht erfasst werden kann oder ihre Zugriffsversuche von vor-
neherein abgeblockt werden. Der Crawler selbst ist nicht imstande, ein sprachliches
Statement auf der Webseite zu verstehen ‒ und die Datenmenge wiederum viel zu
groß, als dass sie jemals sinnvoll von Menschen gesichtet werden könnte (vgl. ebd.:
10).
Die Frage nach der Legitimität einer solch großflächigen und für die einzelnen
Webangebote sowie ihre Inhalte weitgehend blinden Datenerhebung verschärfte sich
im Jahre 2005, als Google, nunmehr bereits der unumstrittene Marktführer auf dem
Gebiet der Websuchen, die Firma Urchin Software Corp. und mit ihr die Rechte an
der Software Urchin aufkaufte. Bei Urchin ‒ was wörtlich etwa ›Straßenkind‹ be-
deutet ‒ handelte es sich wie bei PageRank um ein Programm, welches das Web
zwischen den eigentlichen Webseiten zu vermessen trachtet. Während PageRank al-
lerdings die Verlinkung und damit gewissermaßen die Architektur des semantischen
Netz-Raumes ausmisst, hatte Urchin nun die Aufgabe, nicht etwa die Seiten, sondern
die Nutzer zu beobachten ‒ bzw. die Fußspuren ihrer digitalen Dubletten, welche
Marcos Novak mit dem Begriff des ›Navigators‹ belegt hat. Urchin leistet dies, in-
dem es die Log-Dateien von Webservern ausliest, jene Dateien also, in welchen die
Verbindungen verzeichnet sind, die von anderen Computern zu diesem Server auf-
genommen wurden. Urchin Software Corp. wurde zur Keimzelle von Googles 2006
geformtem Firmenzweig Google Analytics, der heute zu den wichtigsten Pfeilern des
Geschäftsmodells gehört. Google Analytics bietet Webseitenbetreibern die Möglich-
keit, detaillierte Informationen über die Nutzer ihrer Seiten zu erhalten ‒ im Aus-
tausch dafür, dass Google selbst diese Daten natürlich ebenso zur Verfügung stehen.
Die einzelnen Webmaster müssen hierzu lediglich einen Account anlegen und ein
paar Zeilen Javascript in den Code ihrer Webseite einfügen. Google kann dann jeden
back to the
book Dinge – Nutzer – Netze - Von der Virtualisierung des Musealen zur Musealisierung des Virtuellen"
Dinge – Nutzer – Netze
Von der Virtualisierung des Musealen zur Musealisierung des Virtuellen
- Title
- Dinge – Nutzer – Netze
- Subtitle
- Von der Virtualisierung des Musealen zur Musealisierung des Virtuellen
- Author
- Dennis Niewerth
- Publisher
- transcript Verlag
- Date
- 2018
- Language
- German
- License
- CC BY-NC-ND 4.0
- ISBN
- 978-3-8394-4232-6
- Size
- 14.8 x 22.5 cm
- Pages
- 428
- Keywords
- Virtualität, Kulturerbe, Digitalisierung, Neue Medien, Kulturmanagement, Museumswissenschaft, Digitale Medien, Mediengeschichte
- Category
- Medien