Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen im Internet an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten schnell den Wert einer lieblings Listung in Resultaten und recht bald fand man Organisation, die sich auf die Verbesserung ausgebildeten.
In den Anfängen passierte die Aufnahme oft zu der Transfer der URL der geeigneten Seite an die unterschiedlichen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Webserver der Search Engine, wo ein weiteres Angebot, der bekannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu anderen Seiten).
Die späten Modellen der Suchalgorithmen basierten auf Angaben, die aufgrund der Webmaster auch vorhanden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Gesamteindruck über den Content einer Seite, allerdings setzte sich bald heraus, dass die Verwendung er Ratschläge nicht verlässlich war, da die Wahl der genutzten Schlüsselworte dank dem Webmaster eine ungenaue Darstellung des Seiteninhalts reflektieren vermochten. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Internetseiten bei charakteristischen Suchen listen.[2] Auch versuchten Seitenersteller verschiedene Attribute binnen des HTML-Codes einer Seite so zu steuern, dass die Seite stärker in Ergebnissen aufgeführt wird.[3]
Da die neuzeitlichen Search Engines sehr auf Punkte abhängig waren, die alleinig in Koffern der Webmaster lagen, waren sie auch sehr instabil für Straftat und Manipulationen in der Positionierung. Um überlegenere und relevantere Vergleichsergebnisse in Ergebnissen zu erhalten, musste ich sich die Betreiber der Search Engines an diese Ereignisse adjustieren. Weil der Erfolg einer Anlaufstelle davon zusammenhängt, wichtigste Suchergebnisse zu den inszenierten Keywords anzuzeigen, vermochten untaugliche Testergebnisse darin resultieren, dass sich die Benutzer nach ähnlichen Optionen für die Suche im Web umsehen. Die Auskunft der Search Engines lagerbestand in komplexeren Algorithmen beim Rangordnung, die Aspekte beinhalteten, die von Webmastern nicht oder nur nicht gerade leicht lenkbar waren. Larry Page und Sergey Brin entworfenen mit „Backrub“ – dem Urahn von Die Suchmaschine – eine Suchseite, die auf einem mathematischen Algorithmus basierte, der anhand der Verlinkungsstruktur Seiten gewichtete und dies in Rankingalgorithmus einfließen ließ. Auch andere Suchmaschinen im Internet relevant pro Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine