Suchroboter
Suchroboter sind Skripts von Suchmaschinen, die das Internet systematisch nach Webseiten durchsuchen, mit dem Ziel, sie in ihren Suchindex aufzunehmen. Damit die Suche möglichst passende Resultate liefert, muss der Inhalt der Webseite analysiert und unter den richtigen Stichworten abgelegt werden. Beim Analysieren des Inhalts versuchen die Suchroboter herauszufinden, welche Sätze und Wörter besonders relevant sind.
Als Mensch nehmen wir die Inhalte, durch den Browser übersetzt, visuell und akustisch wahr. Das heisst, besonders auffällige Wörter sind wichtig.
Suchroboter haben jedoch eine ganz andere Sicht auf die Webseite. Sie sehen den reinen HTML-, CSS- und JavaScript-Code und müssen versuchen daraus die relevanten Informationen zu gewinnen.
Barrieren bei der Indexierung
Bei der Indexierung, stossen Suchroboter auf ähnliche Barrieren, wie blinde Benutzer:
Barrierefreiheit und Suchmaschinenoptimierung
Ein Suchroboter ist aus Sicht der Barrierefreiheit nichts anderes als ein spezieller Benutzer mit einer Behinderung. Daher kann man sagen: Wenn eine Webseite barrierefrei ist, wurde bereits etwas für die Suchmaschinenoptimierung getan.