Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Suchmaschinen im WWW an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten unmittelbar den Wert einer nahmen Listung in den Serps und recht bald entwickelten sich Anstalt, die sich auf die Aufwertung ausgebildeten.
In den Anfängen ereignete sich die Aufnahme oft bezüglich der Transfer der URL der speziellen Seite an die diversen Suchmaschinen. Diese sendeten dann einen Webcrawler zur Kritische Auseinandersetzung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Webserver der Suchmaschine, wo ein weiteres Computerprogramm, der sogenannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu anderweitigen Seiten).
Die zeitigen Typen der Suchalgorithmen basierten auf Informationen, die mit den Webmaster selber vorhanden wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Gesamteindruck über den Thema einer Seite, gewiss stellte sich bald hoch, dass die Anwendung dieser Hinweise nicht gewissenhaft war, da die Wahl der eingesetzten Schlüsselworte dank dem Webmaster eine ungenaue Darstellung des Seiteninhalts wiedergeben kann. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Webseiten bei besonderen Ausschau halten listen.[2] Auch versuchten Seitenersteller vielfältige Merkmale im Laufe des HTML-Codes einer Seite so zu beherrschen, dass die Seite stärker in den Serps gefunden wird.[3]
Da die damaligen Search Engines sehr auf Merkmalen angewiesen waren, die ausschließlich in Fingern der Webmaster lagen, waren sie auch sehr labil für Abusus und Manipulationen in der Positionierung. Um gehobenere und relevantere Urteile in den Suchergebnissen zu erhalten, mussten sich die Betreiber der Suchmaschinen im Internet an diese Rahmenbedingungen integrieren. Weil der Ergebnis einer Suchseiten davon zusammenhängt, wichtige Suchresultate zu den inszenierten Suchbegriffen anzuzeigen, konnten unpassende Resultate dazu führen, dass sich die Benützer nach anderen Wege zur Suche im Web umblicken. Die Auflösung der Suchmaschinen im Netz inventar in komplexeren Algorithmen für das Positionierung, die Gesichtspunkte beinhalteten, die von Webmastern nicht oder nur schwer steuerbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Stammvater von Google – eine Anlaufstelle, die auf einem mathematischen Suchalgorithmus basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch sonstige Internet Suchmaschinen bedeckt während der Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.