Suchsysteme

Suchsysteme sind das, was man typischerweise als Suchmaschinen (Google, Bing, DuckDuckGo, etc.) bezeichnet. Es handelt sich um extrem komplexe Systeme, die einige der größten Herausforderungen in der Technologiegeschichte bewältigen.

Suchsysteme haben vier Hauptaufgaben:

  • Crawling: Der Prozess des Durchsuchens des Webs und des Parsens der Inhalte aller Websites. Dies ist eine enorme Aufgabe, da es über 350 Millionen Domains gibt.
  • Indexierung: Das Finden von Speicherorten für alle während des Crawling-Vorgangs gesammelten Daten, damit darauf zugegriffen werden kann.
  • Rendering: Das Ausführen von Ressourcen auf der Seite wie JavaScript, das Funktionen erweitern oder Inhalte anreichern könnte. Dieser Prozess findet nicht für alle gecrawlten Seiten statt und manchmal erfolgt er, bevor die Inhalte tatsächlich indexiert werden. Das Rendering kann auch nach der Indexierung erfolgen, wenn zum Zeitpunkt des Crawls keine Ressourcen für diese Aufgabe verfügbar sind.
  • Ranking: Das Abfragen von Daten, um relevante Ergebnisseiten basierend auf Nutzereingaben zu erstellen. Hier werden die verschiedenen Ranking-Kriterien der Suchmaschinen angewendet, um Nutzern die beste Antwort auf ihre Suchintention zu liefern.

Im nächsten Abschnitt werden wir genauer lernen, wie Googlebot funktioniert. Googlebot ist der Webcrawler von Google, der Teil des Suchsystems, der alle benötigten Informationen sammelt, um die massive Inhaltsdatenbank für Suchergebnisse aufzubauen.