unbekannter Gast

Frage:

Wie kann man lexikalische Inhalte miteinander vergleichen?

Hin und wieder kommt es vor, daß Zeitungen und Zeitschriften unterschiedliche Lexika und Enzyklopädien (beispielsweise Microsofts Encarta und den Brockhaus multimedial) miteinander vergleichen wollen. Je nach Zeitbudget und Wille zur Qualität nimmt man dann eine meist willkürliche Auswahl an Artikeln und zählt dann wahlweise irgendwelche messbaren quantitativen Eigenschaften (Anzahl der Wörter, Sätze, Hyperlinks, Bilder). Selten werden die Anzahl der Fehler oder die komplette Qualität versucht in Zahlen zu pressen.

Gibt es einen - in der Umsetzung realistischen - Weg, unterschiedliche lexikalische Texte miteinander zu vergleichen, so dass kein Lexikon bevorzugt wird, weil es beispielsweise die gleichen (unpassenden, thematisch nur entfernt zusammenhängenden) Bilder wieder und wieder zeigt oder Videos in 3-Sekundenschnipsel zerlegt? Kann am Ende sogar sowas wie ein Score herauskommen?

Kollegen von IBM haben ein recht scharfsinniges Instrument zur computergestüzten Bewertung von Übersetzungsleistungen entwickelt, das auf statistischen Erwägungen von Musterübersetzungen basiert und somit beliebig oft ohne Menschenleistung wiederholbar ist. Gibt es so etwas auch für lexikalische Texte?
presroi

Antworten:

Die meisten Tests die ich kenne, begnügen sich nicht mit einem solchen Zahlenvergleich, sondern bemühen den menschlichen Faktor: Mal bewertet der Autor selbst die Qualität, mal konsultiert er Fachleute.
tkleinz

Die Frage ist gut, die Antwort schwer... Egal, welches automationsunterstützte "Berwertungsprogramm" eingesetzt wird: jedes bewertet nur das, woran die Entwickler gedacht UND implantiert haben. Da es schon ausserdem bereits unter Fachleuten zu kontroversiellen Beurteilungen von lexikalischen Texten kommen kann, gehe ich davon aus, dass dies noch viel mehr auf entsprechende Programme zutrifft.
trazenje