Schattenblick → INFOPOOL → BILDUNG UND KULTUR → REPORT


BERICHT/034: Suchmaschine - Pest oder Cholera ... (SB)


Das Dilemma der informationstechnischen Wissensverwaltung

SUMA-EV-Kongreß am 11. Februar 2015 in Hamburg


Die Monopolstellung Googles im Bereich der Suchmaschinen ist in den letzten Jahren verstärkt in den Fokus der Kritik geraten. Vorgeworfen wird dem US-Konzern eine undurchsichtige bis manipulative Praxis bei der Präsentation von Suchergebnissen. Das Ranking wie auch der Algorithmus werden von Google wie ein Geschäftsgeheimnis gehütet. Niemand kann letzten Endes mit Sicherheit wissen, ob er aus der Fülle des World Wide Web tatsächlich die Information erhält, auf die seine Suchanfrage abgestellt ist. Der einzelne Nutzer, der im Labyrinth des Datennetzes ohne eine Suchmaschine kaum in der Lage wäre, sich einen adäquaten Zugang zum weltweit verfügbaren Wissen zu verschaffen, steht daher vor dem Problem, sich auf Ergebnisse zu verlassen, von denen er nicht weiß, nach welchen Kriterien sie zustandegekommen sind. Wenn die zentrale Aufgabe der gesellschaftlichen Wissensverwaltung von einem privatwirtschaftlichen Konzern wahrgenommen wird, spielen womöglich Interessen eine Rolle, die nicht die des Gros der Bevölkerung sein müssen.

Informationen zu suchen ist nur eine Seite der Medaille, im Netz überhaupt gefunden zu werden die andere. Das gilt vor allem für Firmen, deren Geschäft stark von der Sichtbarkeit ihres Angebots im Internet abhängig ist. Für sie kann es zu einer Frage des Überlebens werden, von Google nicht auf das tote Gleis eines Rankings unter ferner liefen abgeschoben zu werden. Ein Vermerk weiter hinten in der Ergebnisliste könnte unter Umständen ihre Existenz bedrohen. Auf dem Kongreß des SUMA-EV und der Hochschule für Angewandte Wissenschaften in Hamburg (HAW), Department Information, stand die Frage nach Alternativen zum Angebot Googles im Mittelpunkt. Wie erstrebenswert ein transparenteres Modell als das der Suchmaschine Googles auch sein mag, so bleiben prinzipielle Probleme der datenelektronischen Wissensverwaltung wie ein von kommerziellen Interessen bestimmter Blickwinkel auf verfügbare Inhalte, ein von humanistischen und kulturkritischen Lern- und Erkenntnistraditionen abgekoppelter Informationsbegriff, das staatliche Insistieren auf herrschaftsopportunen Selektionskriterien oder die Zurichtung der sogenannten Wissensgesellschaft auf den instrumentellen Charakter bloßer Funktionalität davon unberührt.


Im Vortrag - Foto: © 2015 by Schattenblick

Konstantin Guratzsch
Foto: © 2015 by Schattenblick

Wenn Antworten den fragenden Menschen überflüssig machen ...

Unter dem hintersinnigen Titel "Mit Google Google finden" ging der Suchmaschinenoptimierer Konstantin Guratzsch der Frage nach, wie sich die Trefferpräsentation der Google-Suchmaschine in den letzten 10 Jahren verändert und welche Konsequenzen dies für die Gestaltung von Webseiten hat. Tatsächlich hat Google mit einem Marktanteil von über 90 Prozent in der Bundesrepublik kaum nennenswerte Konkurrenz zu fürchten. Ohne den Wettbewerb einer Vielzahl von Internetsuchmaschinen, was nach Ansicht des Referenten wünschenswert wäre, kann Google die Wissenssuche im Netz fast nach Belieben steuern.

Um einen Eindruck davon zu vermitteln, wie sehr sich das Erscheinungsbild der Suchergebnisse inzwischen verändert hat, verweist Guratzsch auf das Werbesystem AdWords von Google, mit dem die Ergebnisseite zum Teil regelrecht überladen wird. Bis 2007, als die Kommerzialisierung des Google-Suchdienstes noch nicht so weit fortgeschritten war, erhielt man auf eine Suchanfrage lediglich zehn blau markierte Einträge, die zur jeweils angegebenen Webadresse führten. Dennoch ist es dem Referenten nach mühevoller Recherche gelungen, zumindest eine Suchanfrage ohne obligatorischen Werbeanhang zu plazieren. Ein scherzhafter Unterton schwang in seiner Stimme mit, als er verriet, daß bei der Suchanfrage "Steuerdatenübermittlungsverordnung" keine AdWords angezeigt werden.

Das Universal Search Update 2007 integrierte Formate aller Art wie Videos, Fotos, geographische Karten oder Knowledge Graphs - Ergebnisflächen, auf denen Informationen kumuliert, in einer Karussell-Anzeige visualisiert oder in einer Ergebnisbox strukturiert werden - in die Ergebnisseite. Diese Entwicklung koppelt an das dominante Suchverhalten der Nutzerinnen und Nutzer an, vor allem auf den zuerst sichtbaren Bereich der Ergebnisliste auf dem Bildschirm zu fokussieren. Die ersten Treffer haben den Platz an der Sonne und werden oft angeklickt. Was danach kommt, ist nahezu Makulatur, weil für gewöhnlich kaum mehr als die ersten drei Ergebnisse beachtet oder nur jene zur Kenntnis genommen werden, bei denen nicht gescrollt werden muß.

Mit der Universal Search-Integration hat Google den Anteil von visuellen Informationen aus dem zum Unternehmen gehörigen Videoportal You Tube und Ergebnissen aus Google News immer mehr ausgedehnt, so daß die heutigen Trefferlisten sich immer weiter von der ursprünglichen Idee der breitgefächerten Angabe von Webadressen entfernen. Dabei wird die Aufmerksamkeit der Nutzerin oder des Nutzers eher auf dem oberen Teil der Seite verteilt, als daß die Trefferliste mit den zehn blauen Einträgen heruntergegangen wird. Durch die Kollektion mehr oder weniger verwandter Suchergebnisse, deren Relevanz oftmals strittig ist und bestenfalls durch personalisierte Suchprofile abgedeckt wird, hat sich die vertikale Suche zu einem eigenen Geschäftsmodell entwickelt, bei dem die Notwendigkeit, außerhalb der Google-Angebote zu recherchieren, verringert wird.

Die horizontale Suche bietet mitunter sehr verschiedene Ergebnisse an, die in Verbindung zu einer Sucheingabe stehen, was typischerweise bei Homonymen, also gleichlautenden Begriffen mit mehrfacher Bedeutung, der Fall ist. Wer etwa nach "Schloss" sucht, erhält Ergebnisse, die sich mit Schlössern zum Abschließen wie Vorhängeschlössern oder Fahradschlössern beschäftigen, aber ebenso Ergebnisse, die sich auf Gebäude im Sinne von Palästen oder Burgen beziehen. Das Ziel der horizontalen Suche ist, möglichst alle relevanten Inhalte einer Suchanfrage zu erfassen, was auch bedeutet, in einem möglichst großen, nicht spezialisierten Index zu suchen.

Die vertikale Suche betrifft demgegenüber einen kleineren Index, der nach bestimmten Themen, Inhalten oder Dokumenten strukturiert ist. Ziel dieser "tiefen" Suche ist, aufgrund dieser Spezialisierung Ergebnisse mit möglichst hoher Relevanz zu produzieren, was aber auch bedeutet, den Blickwinkel von vornherein zu verengen. Guratzsch zufolge versucht Google, beide Bereiche abzudecken.

Ein typisches Ergebnisschema bei der Suchmaschine Googles enthält AdWords, Google Maps, einen Wikipedia-Treffer oder ein anderes Angebot etwa aus Google Places. Dadurch sind im sichtbaren Bereich, der die Aufmerksamkeit des Nutzers auf sich zieht, häufig vor allem Google-Ergebnisse plaziert, während alle anderen Ergebnisse in den tendenziell unsichtbaren Bereich verschoben werden. Diese Dienste, so vermutet der Referent, können irgendwann nur noch über eine Nutzungsgebühr in Anspruch genommen werden. Als Beispiel führt er die 2002 eingeführte Produktsuche Froogle an, die für die Verkäufer der dort aufgelisteten Produkte zehn Jahre später unter dem Namen Google Shopping jedoch kostenpflichtig wurde.

Nach Ansicht von Konstantin Guratzsch, der nebenberuflich als Lehrbeauftragter an der HAW für das Wahlmodul Search Engine Optimization (SEO) tätig ist, steht die Vertikalisierung der Inhalte noch ganz am Anfang einer Entwicklung mit rein erwerbsmäßiger Ausrichtung, deren Ansätze bereits erkennbar seien. So seien gewinnträchtige Felder wie Aktienkurse, Flugbuchungen oder Wetterdienste in den Trefferlisten stark von Google-Formaten besetzt, was belege, daß der Suchmaschinenkonzern stark an einer Strategie der Vorverlagerung von Suchergebnissen interessiert sei.

Das Ziel einer weitgehenden Einbindung der Nutzerinnen und Nutzer in das informationsgesteuerte Google-Universum dokumentiert der Referent mit einem Zitat des Google-Mitbegründers Larry Page, der bereits 2004 die Integration der Suchfunktion in das menschliche Gehirn propagierte, um mit Hilfe von Neuroimplantaten Antworten zu erhalten, wenn man nur an etwas denke. Sein Kompagnon Sergey Brin erging sich 2013 in der Vision, daß der Mensch gar keine Suchanfrage mehr brauche, sondern die Information zu ihm komme, was der Grundgedanke der Entwicklung von Google Glass sei. Guratzsch verweist dazu auf Entwicklungen Googles wie die einer smarten Kontaktlinse, die den Glukosegehalt im Feuchtfilm der Augen mißt, um Diabetiker zu informieren, wenn sie in einen kritischen Bereich kommen.

Für ein auf Wachstum angewiesenes börsennotiertes Unternehmen sei die Marktfläche der Trefferseite zu klein und zu unbedeutend. So sei es aus Sicht Googles naheliegend, den Marktwert der Information schon in einem früheren Stadium zu realisieren. Ein großer Vorteil des Innovationsdrucks, mit dem Google die Qualität seiner Suchergebnisse vorantreibt, besteht dem Referenten zufolge darin, daß Webseitenbetreiber gezwungen seien, ihre Seiten bestmöglich zu pflegen, weil sie sich lange Ladezeiten, eine schlechte Navigation oder andere Formen fehlender Benutzerfreundlichkeit kaum mehr leisten könnten.

Auch wenn die den meisten Menschen im Umgang mit der Suchmaschine vertrauten Ergebnislisten im Augenblick noch das Erscheinungsbild Googles prägen und die wichtigste Dienstleistung gegenüber den Nutzern darstellen, wird es dem Vernehmen des Referenten nach bei mobilen Appstores oder Endgeräten in absehbarer Zeit zu einer Verschiebung der Optimierungsflächen kommen. So lag der Anteil an Suchanfragen von mobilen Endgeräten im letzten Jahr über dem der Anfragen, die von konventionellen Desktop-Computern aus getätigt wurden. Mit Android habe Google sich ein Betriebssystem genau für diesen Bereich gesucht.

Bei aller Dominanz Googles im Informationssektor hält der Referent einen Umschwung nicht für ausgeschlossen. Wie beim Schwarmverhalten der Fische könnte plötzlich eine ganz andere Richtung eingeschlagen werden. Innovative Suchmaschinen oder Produkte, die den Datenschutz besser beachten, könnten Google aus seiner Vorreiterrolle verdrängen. Diese Möglichkeit sei nur einen Click entfernt, so Konstantin Guratzsch abschließend.


Im Vortrag - Foto: © 2015 by Schattenblick

Dirk Lewandowski
Foto: © 2015 by Schattenblick

Transatlantische Konkurrenz um das Wissensmanagement

Prof. Dr. Dirk Lewandowski, der an der Hochschule für Angewandte Wissenschaften (HAW) Hamburg Information Research & Information Retrieval lehrt, hält es für erforderlich, neue Formen des Umgangs mit Google zu finden, um den Interessen der Gesellschaft gerecht zu werden. "Der Offene Web-Index und andere Gegenmittel", so der zweite Teil der Themenstellung des Hamburger Kongresses über das "Internet im Zeitalter von Überwachung und Manipulation", sind eine Alternative, die der Referent für bedenkenswert hält.

Aus der Sicht des Wissenschaftlers kreist Lewandowski die Probleme mit der Markmacht Googles im Bereich der Informationstechnologien auf drei Punkte ein. Am wichtigsten sei, daß jede Suchmaschine nur eine von vielen möglichen Blickwinkeln auf die Inhalte des World Wide Web biete. Es gebe weder ein richtiges noch ein falsches Suchergebnis, sondern immer nur eine algorithmische Interpretation der den jeweiligen Suchvorgang bestimmenden Faktoren. Nur bei informationsorientierten Suchanfragen innerhalb einer thematischen Recherche könne man auf eine faktengestützte Objektivität des Ergebnisses setzen.

Der zweite kritische Punkt betrifft die Bevorzugung eigener Angebote bei den Ergebnislisten und der dritte die mit der Marktdominanz von Google unmittelbar zusammenhängende Suchmaschinenoptimierung. Daß Google eigene Dienste begünstigt, sei bereits im Rahmen eines Kartellverfahrens festgestellt worden. Schwerwiegender als das theoretische Problem, daß vordere Ergebnisse tendenziell häufiger angeklickt werden als weiter hinten stehende, ist für Lewandowski der dadurch freigesetzte Einfluß auf die politische Meinungsbildung gerade bei umstrittenen Themen, die nicht nur inhaltliche, sondern auch gesellschaftliche Relevanz haben.

In der allgemeinen Debatte um mögliche Lösungen werden im wesentlichen sechs Vorschläge erörtert. So wird argumentiert, daß der Markt schon alles richten werde. Der Referent hielt dem entgegen, daß in den letzten 10 Jahren bis auf Bing, eine Suchmaschine des Microsoft-Konzerns, keine wirkliche Alternative zu Google aufgetreten sei, sondern sich die Einstiegshürde im Gegenteil sogar erhöht habe. Daß kleinere Suchmaschinen wiederholt für ihre Dienste gelobt werden, hält Lewandowski für problematisch, weil damit das Quasimonopol Googles verschleiert würde.

Vorgeschlagen wird auch, Google zu einer fairen Ergebnisanzeige zu verpflichten. Doch was ist fair, fragt Lewandowski, wenn Suchergebnisse durch Ranking und Algorithmen verzerrt werden? Google zu zerschlagen, wie ebenfalls gefordert wird, ist aus seiner Sicht nicht nur destruktiv, sondern umgeht ein Problem, das viel tiefere Wurzeln aufweise. Eine alternative Suchmaschine mit Staatsmitteln zu finanzieren, wäre zwar eine schöne Idee, aber aus seinen Erfahrungen mit der Qualitätsmesssung von Suchmaschinen habe er gelernt, daß es nahezu gleichgültig sei, ob man Google oder Bing benutze. Die Unterschiede im alltäglichen Umgang mit den Ergebnissen seien so gering, daß andere Faktoren im Nutzerverhalten stets den Ausschlag geben würden.

Google zu zwingen, seinen Index zu öffnen, damit alle auf den Datenbestand zugreifen könnten, ist ebenfalls im Gespräch. Nur werde dabei vergessen, daß es sich nicht um Daten handle, die in einem Speicher abgelegt werden. Um auf sie zugreifen zu können, müßten sie erst einmal aufbereitet werden. Statt dessen hält Lewandowski den sechsten Vorschlag, einen Offenen Web-Index als Infrastrukturmaßnahme zu schaffen, für die beste und zugleich plausibelste Lösung.

Im Prinzip habe sich an der Architektur der Suchmaschinen nur wenig geändert. Webcrawler - Computerprogramme, die automatisch das World Wide Web durchsuchen und Webseiten analysieren - legen eine Kopie der Inhalte des World Wide Web an, die dann durch den Index in irgendeiner Weise für Suchoperationen aufbereitet wird. Die Nutzer interagieren mit dem Suchprogramm, das ihre Anfragen verarbeitet, interpretiert und das Ranking der Suchergebnisse vornimmt. Für den Referenten ist die Frage, wie die lokale Kopie des Web erstellt wird und wie Crawler die Dokumente finden, von ausschlaggebender Bedeutung, ginge es doch immer um die grundlegende Aufbereitung der Inhalte.

Beim Offenen Web-Index seien zwei Dinge zu trennen. Zum einen der Infrastrukturteil, der aus der lokalen Kopie des Web und den aufbereiteten Dokumenten besteht, zum anderen die Dienste, die darauf aufsetzen und so die Möglichkeit bieten, nicht nur eine, sondern Tausende alternative Suchmaschinen zu konstruieren. Ein für alle Menschen zu fairen Konditionen zugänglicher Web-Index würde auch Projekte außerhalb des kommerziellen Bereichs befördern.

Bisher setzen Dienste auf eine relativ schmale Datenbasis auf, während fähige Köpfe damit beschäftigt sind, Nachrichten-, Blog- oder andere Spezialsuchmaschinen zu entwickeln, weil sich niemand Aufbau und Betrieb eines eigenen Web-Index leisten könne. Deswegen müsse man, so Lewandowski, einen Offenen Web-Index als Gemeinschaftsaufgabe auffassen, um über eine öffentliche Infrastruktur von Google unabhängige Dienste aufzubauen. Dabei seien verschiedene Modelle denkbar, zum Beispiel, daß ein bestimmtes Volumen an Anfragen kostenfrei ist. Vor allem soll jedoch die Industrie angesprochen werden, die in einem hohen Umfang Fragen versendet und Dokumente auswertet.

Die Kosten für einen Offenen Web-Index wären jedoch immens, so daß ein solches Projekt nur in einem europäischen Maßstab zu verwirklichen wäre. Dabei sollte der Betreiber nicht allein über die Indexierung der Dokumente entscheiden, sondern diese zentrale Aufgabe sollte in die Hände eines Kuratoriums aus potentionellen Anwendern gelegt werden. So müsse der Offene Web-Index als Aufgabe der Infrastruktur der Staaten gesehen werden. Dies sei um so wichtiger, als bei dezentralen Indexen das Problem der zu kontrollierenden Vollständigkeit und Aktualität der Dokumente eine Überforderung darstelle. Allen voran müsse es darum gehen, das vorhandene Wissen zum Nutzen der Gesellschaft verfügbar zu machen, so der Referent, der damit kundtat, daß dieses Projekt nicht nur auf die kommerzielle Verwertung des Datennetzes abziele.


Zum SUMA-EV-Kongreß in Hamburg sind bisher im Pool
INFOPOOL → BILDUNG UND KULTUR → REPORT
unter dem kategorischen Titel "Suchmaschine" erschienen:

BERICHT/033: Suchmaschine - Erwägen, prüfen, wissen ... (SB)
INTERVIEW/021: Suchmaschine - Grenzen, Schranken, Schienenstränge ...    Prof. Dr. Karsten Weber im Gespräch (SB)
INTERVIEW/022: Suchmaschine - Vorurteile ...    Pascal Jürgens im Gespräch (SB)
INTERVIEW/023: Suchmaschine - Datenkraken und Kontrolle ...    Albrecht Ude im Gespräch (SB)
INTERVIEW/024: Suchmaschine - Ein hoher Preis ...    Prof. Dorothea Wenzel im Gespräch (SB)
INTERVIEW/025: Suchmaschine - Ein Recht auf Revision ...    Prof. Dr. Johannes Caspar im Gespräch (SB)
INTERVIEW/026: Suchmaschine - Subversion der Observation ...    Arne Babenhauserheide im Gespräch (SB)
INTERVIEW/027: Suchmaschine - Eine Frage der Bildung ...    Joachim Jakobs im Gespräch (SB)

11. März 2015


Zur Tagesausgabe / Zum Seitenanfang