Hier ein Auszug aus einem Artikel des Tagesanzeiger:

Das Internet ist mit seinen Abermillionen von Web-Seiten ein Dschungel geworden, was es für den Benutzer bekanntlich schwer macht, schnell bestimmte Infos zu finden. Ohne Suchdienste wie Yahoo, AltaVista, Excite, Google, InfoSeek und wie sie alle heissen, wäre der Websurfer auf verlorenem Posten. Diese helfen ihm, sich im Dschungel zu orientieren oder zumindest mit etwas Glück auf viel versprechende Links zu stossen. Ebenso wichtig sind die Suchdienste damit aber auch für die Betreiber von Websites. Wie Studien zeigen, finden 90 Prozent der Besucher eine Website über eine Suchmaschine. Alleine Yahoo wird täglich über 50 Millionen Mal aufgerufen.

Suchroboter surfen anders
Nun konzentrieren sich viele Webdesigner beim Gestalten einer Homepage vor allem auf das visuelle Erscheinungsbild: Bunte Grafiken, Animationen usw. sollen das Auge erfreuen und Kundschaft anziehen. Oft vergessen sie dabei aber ihre wichtigsten Besucher: die Roboter der Suchdienste, auch Spider oder Crawler genannt, die unermüdlich das Web durchpflügen und die Seiten nach gefundenen Stichworten in ihre Datenbank einreihen. Diese Softwareroboter scheren sich einen Deut um nette Grafiken – sie interessieren sich vielmehr für aussagekräftige Begriffe, die über den Inhalt und Zweck der Website handfeste Angaben machen. Clevere Seitenbauer machen sich die Möglichkeit der Web-Programmiersprache HTML zu Nutze, in den Code einer Seite geschickt Texte einzuflechten, die zwar für den Surfer unsichtbar bleiben, von den Suchmaschinen aber bevorzugt verarbeitet werden.

Das ist aber nur ein Anfang: Um eine Website bei allen wichtigen Suchdiensten in Bezug auf die entscheidenden Stichworte in vordere Positionen zu hieven, ist ein grösseres Knowhow nötig. Denn jede Suchmaschine funktioniert nach wieder anderen Methoden und Algorithmen, was wiederum Folgen für die ideale Codierung einer Seite hat.

Kontaktieren Sie
Experte für online Performancemarketing der ersten Stunde
04.04.2000

Comments are closed.