Wie funktionieren Suchmaschinen? Teil 1/5

Heutzutage ist es einem Unternehmer kaum mehr möglich, sich nicht mit dem Thema "Suchmaschinenoptimierung (SEO)" im Rahmen der eigenen Marketingstrategie zu beschäftigen. Dabei stolpert er zwangsläufig über Begriffe wie Crawler, Index oder Ranking.

Um etwas Licht ins Dunkel der Fachbegriffe zu bringen, beschäftigt sich diese Blogreihe mit der Funktionsweise von Suchmaschinen, um ein Grundverständnis für diese und die daraus resultierenden SEO-Maßnahmen zu vermitteln. Also, was ist eine Suchmaschine überhaupt? Was macht sie?

Salopp gesagt, durchsucht eine Suchmaschine das Internet gezielt nach Informationen und sorgt dafür, dass Nutzer sich orientieren können. Sie besteht dazu aus verschiedenen Teilen: Crawler, Index, Datenbanken und Algorithmen. Was genau sich dahinter verbirgt, wird diese Artikelserie ans Licht bringen.

Vorab, gibt es Unterschiede zwischen Suchmaschinen?

Grundlegend gibt es zwei unterschiedliche Arten von Suchmaschinen: Meta-Suchmaschinen und Volltext-Suchmaschinen.

Letztere, zu denen unter anderem Google und Bing zählen, durchsuchen und indizieren den gesamten Text einer Website bzw. eines Dokuments. Das bedeutet für Nutzer, dass bei der Abfrage eines Begriffes oder einer Wortgruppe auf alle relevanten Dokumente verwiesen wird, die von den Crawlern durchsucht wurden und in denen der von ihnen gesuchte Begriff vorgekommen ist. Ein Crawler - auch Spider, Robot oder Bot - ist die Software, die eine Suchmaschine nutzt, um eine Website zu finden, zu analysieren und zu speichern. Gewissermaßen ein vollautomatisierter Informationssammler.

Meta-Suchmaschinen wie MetaGer.de oder Ixquick sammeln hingegen nicht selbst, sondern übergeben die Suchanfrage an mehrere andere Suchmaschinen. Dort greifen sie Ergebnisse ab und verarbeiten die erhaltenen Informationen zu einer eigenen Trefferliste.

Wichtig zu wissen: Bei einer Suchanfrage wird dann nicht das gesamte Internet durchsucht, sondern lediglich der von der jeweiligen Suchmaschine selbst erstellte Index gespeicherter Websites.

Die Auswahl all dieser Seiten erfolgt mit Hilfe bestimmter Algorithmen (Rechenverfahren), die von den Suchmaschinenbetreibern streng geheim gehalten werden und einem sehr komplexen System verschiedener Prozesse unterliegen. Jeder Suchmaschinenbetreiber folgt dabei seinem eigenen System, was dazu führt, dass die Suchergebnisse verschiedener Suchmaschinen unterschiedlich sein können.

Insgesamt funktionieren Suchmaschinen aber nach ähnlichen Prinzipien: Ein Crawler durchsucht zunächst systematisch das Internet nach Websites und folgt Links, scannt jede Website und liest sie Seite für Seite ein. Um die Übertragungsdauer zu verkürzen und die Server nicht zu überlasten, öffnet ein Crawler häufig hunderte von Verbindungen gleichzeitig - gibt es dann bei einer Verbindung Probleme, kann ohne weiteres auf eine andere zugegriffen werden. Dieses Rotationsverfahren erlaubt einem Crawler bis zu 30 Seiten pro Sekunde zu erfassen. Die Texte und HTML-Elemente werden dann in einer Datenbank gespeichert, nach bestimmten Kriterien gewichtet und sortiert (indexiert). Dieser Index für die in den Websites enthaltenen Worte erlaubt dem Nutzer nach Wortkombinationen zu suchen, um am Ende themenrelevante Suchergebnisse zu erhalten - vergleichbar mit einem Archivar, der erhaltene Informationen nach einem logischen Konzept ablegt, um diese jederzeit mit wenig Aufwand wiederfinden und bereitstellen zu können.

Der Informationsgewinnungsprozess lässt sich demnach in drei Schritte unterteilen: 1. Datensammlung, 2. Datenanalyse, 3. Datenausgabe.

Im zweiten Teil dieser Artikelreihe schauen wir uns den Punkt Datensammlung an.

Weiterführende Links:
Was sind Suchmaschinen-Roboter?

Erfolgreich im Web

Die Online Marketing App für kleine Unternehmen

Jetzt entdecken
Gutschein: € 75 Startguthaben
Gutschein: € 75 Startguthaben

26 Mar, 2013