Web-Books
im Austria-Forum
Austria-Forum
Web-Books
Medien
Dinge – Nutzer – Netze - Von der Virtualisierung des Musealen zur Musealisierung des Virtuellen
Seite - 203 -
  • Benutzer
  • Version
    • Vollversion
    • Textversion
  • Sprache
    • Deutsch
    • English - Englisch

Seite - 203 - in Dinge – Nutzer – Netze - Von der Virtualisierung des Musealen zur Musealisierung des Virtuellen

Bild der Seite - 203 -

Bild der Seite - 203 - in Dinge – Nutzer – Netze - Von der Virtualisierung des Musealen zur Musealisierung des Virtuellen

Text der Seite - 203 -

Das Museum von Babel? | 203 Bevor diese Vermessung aber stattfinden kann, müssen die einzelnen Webseiten erst einmal erhoben werden, und nach Brin und Page ist dies der schwierigste Teil des gesamten Indexierungsprozesses. Die Webcrawler-Programme, deren Aufgabe es ja ist, systematisch so viele Links wie möglich zu verfolgen und Daten zu den so gefundenen Seiten zu erheben, müssen mit einem riesigen, nur begrenzt standardi- sierten digitalen Hypertextsystem umgehen, das sich der Kontrolle der Suchmaschi- nenbetreiber in weitesten Teilen entzieht. Sowohl die Seiten selbst als auch die Ser- ver, auf denen sie gespeichert sind, unterscheiden sich in Standards, Formaten und allgemeinem Aufbau mitunter erheblich. 1997 konnte ein Crawler ca. 300 simultane Verbindungen offenhalten und ein übliches System von vier gleichzeitig koordiniert operierenden Crawlern etwa 100 Seiten pro Sekunde indexieren. Bei derart großen Zahlen und einer solchen Geschwindigkeit liegt auf der Hand, dass eine Suchma- schine von der Größe Googles im laufenden Erhebungsverfahren nicht zwischen Webseiten differenzieren oder diskriminieren kann. Wer seine Seite nicht indexiert sehen möchte, der kann dies nur sicherstellen, indem er sie technisch so anlegt, dass sie von Webcrawlern nicht erfasst werden kann oder ihre Zugriffsversuche von vor- neherein abgeblockt werden. Der Crawler selbst ist nicht imstande, ein sprachliches Statement auf der Webseite zu verstehen ‒ und die Datenmenge wiederum viel zu groß, als dass sie jemals sinnvoll von Menschen gesichtet werden könnte (vgl. ebd.: 10). Die Frage nach der Legitimität einer solch großflächigen und für die einzelnen Webangebote sowie ihre Inhalte weitgehend blinden Datenerhebung verschärfte sich im Jahre 2005, als Google, nunmehr bereits der unumstrittene Marktführer auf dem Gebiet der Websuchen, die Firma Urchin Software Corp. und mit ihr die Rechte an der Software Urchin aufkaufte. Bei Urchin ‒ was wörtlich etwa ›Straßenkind‹ be- deutet ‒ handelte es sich wie bei PageRank um ein Programm, welches das Web zwischen den eigentlichen Webseiten zu vermessen trachtet. Während PageRank al- lerdings die Verlinkung und damit gewissermaßen die Architektur des semantischen Netz-Raumes ausmisst, hatte Urchin nun die Aufgabe, nicht etwa die Seiten, sondern die Nutzer zu beobachten ‒ bzw. die Fußspuren ihrer digitalen Dubletten, welche Marcos Novak mit dem Begriff des ›Navigators‹ belegt hat. Urchin leistet dies, in- dem es die Log-Dateien von Webservern ausliest, jene Dateien also, in welchen die Verbindungen verzeichnet sind, die von anderen Computern zu diesem Server auf- genommen wurden. Urchin Software Corp. wurde zur Keimzelle von Googles 2006 geformtem Firmenzweig Google Analytics, der heute zu den wichtigsten Pfeilern des Geschäftsmodells gehört. Google Analytics bietet Webseitenbetreibern die Möglich- keit, detaillierte Informationen über die Nutzer ihrer Seiten zu erhalten ‒ im Aus- tausch dafür, dass Google selbst diese Daten natürlich ebenso zur Verfügung stehen. Die einzelnen Webmaster müssen hierzu lediglich einen Account anlegen und ein paar Zeilen Javascript in den Code ihrer Webseite einfügen. Google kann dann jeden
zurück zum  Buch Dinge – Nutzer – Netze - Von der Virtualisierung des Musealen zur Musealisierung des Virtuellen"
Dinge – Nutzer – Netze Von der Virtualisierung des Musealen zur Musealisierung des Virtuellen
Titel
Dinge – Nutzer – Netze
Untertitel
Von der Virtualisierung des Musealen zur Musealisierung des Virtuellen
Autor
Dennis Niewerth
Verlag
transcript Verlag
Datum
2018
Sprache
deutsch
Lizenz
CC BY-NC-ND 4.0
ISBN
978-3-8394-4232-6
Abmessungen
14.8 x 22.5 cm
Seiten
428
Schlagwörter
Virtualität, Kulturerbe, Digitalisierung, Neue Medien, Kulturmanagement, Museumswissenschaft, Digitale Medien, Mediengeschichte
Kategorie
Medien
Web-Books
Bibliothek
Datenschutz
Impressum
Austria-Forum
Austria-Forum
Web-Books
Dinge – Nutzer – Netze