Tag: SEO
Mitte der 1990er Jahre fingen die ersten Search Engines an, das frühe Web zu sortieren. Die Seitenbesitzer erkannten flott den Wert einer nahmen Listung in Ergebnissen und recht bald fand man Betriebe, die sich auf die Besserung ausgerichteten.
In Anfängen ereignete sich die Aufnahme oft zu der Übertragung der URL der jeweiligen Seite an die unterschiedlichen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Kritische Auseinandersetzung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Web Server der Recherche, wo ein 2. Software, der sogenannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu weiteren Seiten).
Die damaligen Varianten der Suchalgorithmen basierten auf Angaben, die mithilfe der Webmaster sogar vorhanden wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Gesamteindruck über den Essenz einer Seite, jedoch registrierte sich bald hervor, dass die Verwendung der Hinweise nicht zuverlässig war, da die Wahl der eingesetzten Schlagworte dank dem Webmaster eine ungenaue Darstellung des Seiteninhalts repräsentieren vermochten. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Websites bei speziellen Ausschau halten listen.[2] Auch versuchten Seitenersteller unterschiedliche Punkte im Laufe des HTML-Codes einer Seite so zu manipulieren, dass die Seite größer in den Ergebnissen gelistet wird.[3]
Da die späten Suchmaschinen im WWW sehr auf Faktoren angewiesen waren, die alleinig in den Koffern der Webmaster lagen, waren sie auch sehr vulnerabel für Abusus und Manipulationen in der Positionierung. Um höhere und relevantere Ergebnisse in Suchergebnissen zu erhalten, mussten sich die Operatoren der Suchmaschinen im Netz an diese Umständen anpassen. Weil der Gewinn einer Suchmaschine davon abhängig ist, relevante Suchresultate zu den gestellten Keywords anzuzeigen, vermochten unpassende Testergebnisse zur Folge haben, dass sich die User nach anderweitigen Optionen bei der Suche im Web umsehen. Die Rückmeldung der Search Engines inventar in komplexeren Algorithmen fürs Rangfolge, die Gesichtspunkte beinhalteten, die von Webmastern nicht oder nur nicht leicht steuerbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Urahn von Google – eine Anlaufstelle, die auf einem mathematischen Matching-Verfahren basierte, der anhand der Verlinkungsstruktur Internetseiten gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch übrige Internet Suchmaschinen relevant pro Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen