1. Suchmaschinen: Anmeldung, Optimierung und

Transcrição

1. Suchmaschinen: Anmeldung, Optimierung und
1. Suchmaschinen: Anmeldung, Optimierung und
Suchbegriffe
Web-Verantwortliche gehen davon aus, dass ein paar META-Tags und die SuchmaschinenAnmeldung reichen, um von Interessierten gefunden zu werden. Sie machen sich selten
Gedanken darü ber,
l
l
l
nach welchen Kriterien Suchmaschinen potentielle Ergebnisse - oft zehn- oder
hunderttausende von Seiten fü r eine Suchanfrage - sortieren,
dass 80% aller Suchenden nie mehr als die ersten 30 Ergebnisse in Erwägung ziehen,
wie sich Suchende ausdrü cken, welche Begriffe und Formulierungen Anwender bei den
Suchmaschinen tatsächlich eintippen.
Wer Suchmaschinen erfolgreich nutzen will, wer erwartet, dass seine Seiten regelmässig unter
den ersten 10, 20 oder 30 Ergebnissen erscheinen, muss bei Seitengestaltung und TextErstellung durch sog. Suchmaschinen-Optimierung die interne Arbeitsweise der
Suchmaschinen wie auch die Ausdrucksweise der Suchenden berü cksichtigen.
Auf dieser Site finden Sie das relevante Know How und Hintergrundwissen in Form einer
"Schritt fü r Schritt"-Anleitung zur Suchmaschinen-Optimierung, zusammengestellt und
regelmässig aktualisiert von jemand, der Software fü r Suchmaschinen und auch komplette
Suchmaschinen entwickelt hat. Die Information basiert daher nicht auf Vermutungen, sondern
nennt spezifische Fakten.
Professionelle Site-Betreiber und Entwickler können zusätzlich gesammelte Erfahrungen,
aktuelle Ranking-Analysen zahlreicher Suchmaschinen, Zugriff auf eine Datenbank mit
Millionen von Suchformulierungen sowie die Nutzung industrieller Analyse-Tools kaufen.
Interaktive Tools, die in eingeschränkter Form auch von Nicht-Kunden genutzt werden
können, helfen bei spezifischen Problemen.
Die folgenden Seiten informieren ausfü hrlich ü ber die Rangfolgenbestimmung der
Suchmaschinen, die notwendigen Einzelschritte, bereitgestellte Daten und Analyse-Tools,
meine Qualifikation und, fü r professionelle Site-Betreiber, Kosten und Geschäftsbedingungen:
Weiter >>
Letzte Suchmaschinen-Nachrichten
AltaVista lebt doch!
DirectHit abgeschaltet
Suchmaschinen-Veränderungen sorgen fü r Anwender-Panik
Fireball auf Sparflamme?
Scientology: mengenweise heisse Luft
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler erklä rt die Vorteile der innerbetrieblichen SuchmaschinenOptimierung. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird
empfohlen, hier anzufangen.
1.1. Warum "selbstgestrickte" Suchmaschinen -Optimierung
besser ankommt
Die Mehrzahl aller an Suchmaschinen-Optimierung Interessierten delegiert die Aufgabe an
spezialisierte Unternehmen. Es scheint einfacher, die Aufgabe an Experten abzugeben, als sich
ein paar Abende mit der Materie zu befassen.
Und die Resultate geben dem Auftraggeber Recht. Fü r zahlreiche Formulierungen wird die
optimierte Site plötzlich tatsächlich gefunden. Und oft steigen auch die Besucherzahlen.
Schade, dass sich beides nicht in der Gewinn- und Verlust-Rechnung niederschlägt.
Denn jede Delegation leidet darunter, dass der wichtigste Experte nicht zum Team gehört: Sie.
Niemand kennt Ihre Kunden, deren Anliegen, ihre Begehren und Sonderwü nsche so gut wie
Sie. Und niemand kennt Ihren Geschäftsbetrieb so wie Sie. Niemand kann Ihre Erfahrung, Ihr
Fingerspitzengefü hl und Ihre Persönlichkeit besser zum Ausdruck bringen, als Sie.
Innerbetriebliche Suchmaschinen-Optimierung ist deshalb zwingend vorgeschrieben, wenn
eine Präsenz nicht nur Besucher sondern vor allem Kunden finden soll.
Suchmaschinen-Optimierung ist, wie Sie noch sehen werden, einmal nicht mehr als die
Berü cksichtigung einer Handvoll von Mess-Zahlen bei der Seitenerstellung. Genauso wichtig
wie korrekte Worthäufigkeiten ist aber auch der richtige Ton.
Und den trifft selten jemand so genau, wie Sie. Dieser "Ton" ist, sobald Ihre Seiten in den
Suchergebnissen auftauchen, einzig und allein ausschlaggebend. Die jü ngste InternetGeschichte zeigt, dass "professionell" erstellte Präsenzen, selbst wenn sie Millionen gekostet
haben, oft versagen. Umso schneller, je aufwendiger, glänzender und geschliffener sie wirken.
Und Millionen von Sites, mit Liebe und Herz erstellt, hilfsbereit, Integrität ausstrahlend,
belegen jeden Tag, was Internet-Anwender dazu veranlasst, einer Site Vertrauen zu schenken.
Vertrauen, das Voraussetzung jeder Geschäftsbeziehung ist.
Hinzukommt, dass Vertrauen regelmässig zu Referenzen fü hrt, ausgedrü ckt in einer ständig
wachsenden Zahl von Links auf Ihre Site - und moderne Suchmaschinen-Algorithmen
berü cksichtigen auch die sog. Link-Popularitä t[1] bei der Ermittlung der Rangfolge Ihrer
Seiten.
Wenn Sie trotzdem glauben, dass Delegation das Problem löst, dass Hype und Behauptungen
schneller und auch auf Dauer wirksamer sind, als engagierter Einsatz und die Schaffung einer
Vertrauensbasis, bedanke ich mich hier fü r Ihren Besuch.
Wenn Sie andererseits bereit sind, potentiellen Kunden etwas Zeit zu schenken, sehen Sie auf
der nächsten Seite, wie Suchmaschinen die Rangfolge bestimmen.
Weiter >>
Glossar: Link-Popularität
Toolbox-Startseite
Top10-Plazierung
Jetzt Kaufen
Gratis-Newsletter
Kunden-Login
Testen Sie Ihre Site
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler erklä rt detaillierte Rangfolgenbestimmung der Suchmaschinen. Da
die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier
anzufangen.
1.2. Wie Suchmaschinen die Rangfolge bestimmen
Die Erstellung von Seiten, die bei relevanten Anfragen auf einer der besseren Positionen
ausgegeben werden, setzt Intim-Kenntnisse der Suchmaschinen-Methodik - d.h. der
Bestimmung der Rangfolge - voraus.
Suchmaschinen-Methodik lässt sich präzise ermitteln. Sie mü ssen nur feststellen, welche
Worthä ufigkeiten[1] und welche HTML-Tags[2] zu bevorzugter Bewertung bei den
Suchmaschinen fü hren. Genau ermitteln lassen sich diese Werte, wenn Sie eine grössere Zahl
von Seiten, die fü r oft gefragte Suchbegriffe unter den ersten zehn Plätzen ausgegeben werden,
genau analysieren.
Da niemand ausreichend umfangreiche Analysen von Hand erstellen kann, und ich seit Jahren
Spider und Suchmaschinen-Software, oft fü r spezialisierte Research-Zwecke, entwickle,
erfolgen diese Analysen hier maschinell. Hierfü r werden jede Woche hunderttausende von
Seiten, die auf den ersten zehn Plätzen ausgegeben werden, systematisch ausgewertet.
An jede hier beobachtete Suchmaschine werden einmal pro Woche 1000 Suchanfragen
gerichtet. Die auf diese Anfragen ausgegebenen ersten 10 Ergebnisse werden aufgerufen und
ausgewertet. Die fü r jede Suchmaschine durchgefü hrte Analyse ermittelt
suchmaschinenspezifische Fakten: wie beeinflussen Wortzahlen, Worthäufigkeiten,
Wiederholungen, Betonungen, HTML-Syntax und andere Faktoren die Rangfolge der
Suchmaschinen-Ergebnisse, welche Durchschnittswerte und welche Schwankungsbreiten
werden beobachtet, und welche HTML-Tags sind ausschlaggebend.
Diese Information wird tabellarisch nach Suchmaschinen und Position aufbereitet und hier
wöchentlich fortgeschrieben. Historische Daten zeigen, welche Komponenten der
Gewichtungsfaktoren statisch sind und welche von Zeit zu Zeit verändert werden und so die
Bestimmung der Rangfolge verändern.
Eine Ü bersicht ü ber die fü r jede Suchmaschine ermittelten Daten wird anhand einer BeispielAnalyse erklärt. Eine interaktive Ranking-Analyse erlaubt den Vergleich einer beliebigen
Seite mit aktuellen Ranking-Daten einer vorgegebenen Suchmaschine.
Nur wenn Sie die aktuellen Charakteristiken der wichtigen Suchmaschinen kennen, die
meistgefragten relevanten Suchbegriffe in Ihre Seiten einbinden, wenn Sie von langjähriger
Erfahrung profitieren und Analyse-Tools aus der Werkstatt des Suchmaschinen-Entwicklers
einsetzen, wird die Aufgabenstellung verständlich, nachvollziehbar und einfach zu bewältigen.
Was Sie mit Recht erwarten dü rfen - wenn Sie die gebotenen Informationen, Fakten und
Hilfsmittel beachten und nutzen - sind
1. kurzzeitige aber regelmässige Erfolge bei Suchmaschinen, die oft aktualisierte Seiten
bevorzugen,
2. eine langsam aber sicher steigende Position [gelegentlich tage- oder wochenweise
unterbrochen] in den Suchmaschinen, die "gealterte" Inhalte höher bewerten,
3. eine relativ statische Position ü ber Monate hinweg in den Suchmaschinen, die nur
geringe Teile des Web indizieren und die diese turnusmässig austauschen, sowie
4. eine nahezu dauerhafte attraktive Position in den Suchmaschinen, die ü berwiegend
Qualitätskriterien bei der Rangfolgenbestimmung anwenden und die die
fortschrittlichste Spam[3]- bzw. Missbrauchs-Bekämpfung betreiben.
Der Aufwand des Eingehens auf die Charakteristiken einzelner Suchmaschinen bei der SeitenErstellung ist umso lohnender, je wortwörtlicher Ihre Seiten die Suchbegriffe, Phrasen und
Formulierungen enthalten, die von Anwendern bei der Suche auch tatsächlich und oft genug
bei Suchmaschinen eingetippt werden.
Weiter >>
Glossar: Worthäufigkeiten, HTML-Tags, Spam
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler zeigt, wie sorgfä ltiger Einsatz der meistgefragten Suchbegriffe
qualitative Besucher maximiert. Da die in diesem Tutorial behandelten Themen aufeinander
aufbauen, wird empfohlen, hier anzufangen.
1.3. Suchmaschinen-Suchbegriffe, die Anwender immer wieder
eintippen
Suchmaschinen verstehen nie den Sinn einer Suchanfrage, sondern suchen nur nach Worten
und Wort-Aneinanderreihungen, die der Suchende eintippt. Bei jeder Suche werden nur die
Seiten berü cksichtigt, die die vom Anwender gesuchten Suchbegriffe wortwörtlich enthalten.
Verwendung häufig gefragter aber relevanter Suchbegriffe ist daher zwingende Voraussetzung
fü r die Rentabilität einer Site.
Meine Datenbank der Suchbegriffe, Phrasen und Formulierungen, die von Anwendern bei den
Suchmaschinen gesucht werden, entstand durch einen Entwicklung-Auftrag. Fü r Intersearch Ende der 90er an Abacho.de verkauft - sollte eine sog. Fuzzy Suche [Suchmodus, bei dem
Tippfehler und Rechtschreibschwächen eingetippter Suchbegriffe stillschweigend korrigiert
werden] entwickelt werden.
Bei der Analyse der Protokoll-Dateien[1] der Intersearch-Suchmaschine wurde deutlich, dass
Internet-Anwender anders suchen, als angenommen [die interaktive Suche zeigt die Vielfalt
der Formulierungen fü r fast jeden Themenbereich]. Nicht nur Tippfehler und
Rechtschreibschwächen wurden sichtbar. Vor allem das genutzte Vokabular weicht drastisch
vom Seiten-Inhalt kommerzieller Präsenzen ab: Suchende und Anbieter sprechen
augenscheinlich andere Sprachen.
Web-Anwender setzen mutig auf den eigenen Wortschatz. Produkt- und Typenbezeichnungen,
durch Marketing geprägte Formulierungen und "Buzzwords" werden kaum gesucht.
Generische Suchbegriffe, Verallgemeinerungen und Problembeschreibungen [manchmal
erstaunlich verbos] dominieren.
Konsequenz dieser Beobachtung war die auf den Namen keyDB getaufte Datenbank der
Suchbegriffe. Diese Datenbank wird seitdem fortlaufend aktualisiert. Ein Teil der Suchbegriffe
wird rund um die Uhr den sog. "Live-Suche"-Berichten zahlreicher Suchmaschinen
entnommen, die ü berwiegende Mehrzahl durch Auswertung der Protokoll-Dateien mehrerer
Suchmaschinen.
Obwohl jede "Live-Suche"-Seite nur 10 bis 50 Suchanfragen enthält und damit nur eine
Momentaufnahme wiedergibt, ist die Ü bereinstimmung mit den hier ausgewerteten Log Files
der Suchmaschinen, deren Daten mir zur Verfü gung stehen, erstaunlich hoch.
Ü berraschend war, dass schon nach wenigen Monaten täglicher Aktualisierung weniger und
weniger neue Formulierungen in die Datenbank aufgenommen wurden. Wahlkämpfe, Naturoder sonstige Katastrophen, Skandale und andere Ereignisse, die weltweit publiziert werden,
fü hren gelegentlich zu kurzzeitigen Spitzen der neu aufgenommen Suchbegriffe. Nach kurzer
Zeit sinkt die Zahl erstmals gesehener Formulierungen aber wieder, d.h. das Vokabular der
Suchenden verändert sich kaum.
Die Gesamtzahl der Suchbegriffe, Phrasen und Formulierungen liegt heute bei etwa 10
Millionen. Manche werden allerdings wesentlich häufiger als andere gesucht.
Zu wissen, wie sich Ihre Zielgruppe ausdrü ckt, dem potentiellen Kunden quasi ü ber die
Schulter zu blicken, erlaubt Ihnen die Erstellung von Seiten, nach denen die Mehrzahl Ihrer
Interessenten sucht. Relevante und häufig gesuchte Suchbegriffe mü ssen dabei wortwörtlich
und oft genug in Ihren Seiten enthalten sein, wenn diese in guter Position gefunden werden
sollen.
Eine erstklassige Suchmaschinen-Position reicht aber allein nicht, um Suchende in tatsächliche
Besucher zu verwandeln.
Weiter >>
Glossar: Protokoll-Dateien
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler beschreibt übliche Ranking-Verfahren und deren Ausnutzung zur
Positionsverbesserung. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen,
wird empfohlen, hier anzufangen.
2. Research-basierte SuchmaschinenOptimierung
Letztendlich geht es um Zahlen. Wortmengen, Worthäufigkeiten, Positionen, Wortdichte[1]
und Hervorhebung im Text sind Zahlen. Selbst das Datum der letzten Aktualisierung, Anzahl
der auf Ihre Site fü hrenden Links und deren Qualität sind Zahlen.
Weil ich Software fü r Suchmaschinen und komplette Suchmaschinen entwickelt habe, weiss
ich, auf welche Zahlen es ankommt.
Aufgrund vertraglicher Vertraulichkeitserklärungen bin ich nicht in der Lage, Kunden-Namen
zu nennen [Intersearch, Ende der 90er an Abacho.de verkauft, war der einzige Kunde, der auf
eine solche Vereinbarung verzichtete].
Es ist aber kein Geheimnis, dass ich Domanova [im Feb. 2002 verkauft] entwickelt habe, eine
Qualitäts-Suchmaschine frei von Pornografie, Spam und minderwertigen Inhalten, die sich an
den reifen Informations-Suchenden richtet.
20 Jahre Informations-Verarbeitung auf Client-Server Systemen haben mich in die Lage
versetzt, eine ansehnliche Sammlung an Tools zu entwickeln, die die maschinelle Analyse,
Auswertung und Beobachtung von Suchmaschinen erlauben. Und die erstmals fundamentale
Daten ü ber die Arbeitsweise der Suchmaschinen messen und die mich, unter Berü cksichtigung
meiner Berufspraxis, gleichzeitig in die Lage versetzen, nicht direkt ablesbare Fakten zu
ermitteln und im Feldversuch zu bestätigen.
Stets mit dem Ziel, fü r vom Anwender häufig eingesetzte Suchbegriffe und Formulierungen
eine gute Position in den Suchmaschinen zu erreichen.
Während Sie das folgende Tutorial kostenlos nutzen können, stehen Suchmaschinenspezifische Daten und Langzeit-Beobachtungen, Ranking-Analysen, Software und regelmässig
laufende Anmelde-, Ü berwachungs- und Ranking-Spider nur Kunden zur Verfü gung.
Wie bereitgestellte Recherche-Daten und Software-Tools meinen Kunden die SuchmaschinenOptimierung präzisieren, erleichtern und gleichzeitig beschleunigen, sehen Sie anhand einiger
aktueller Beispiel-Reports.
Das Suchmaschinen-Tutorial hat einen Umfang von mehr als 50 Seiten und beansprucht etwa
eine bis zwei Stunden Lesezeit.
Weiter >>
Glossar: Wortdichte
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler zeigt systematische Positionsverbesserung durch Eingehen auf
Suchmaschinen-Eigenschaften. Da die in diesem Tutorial behandelten Themen aufeinander
aufbauen, wird empfohlen, hier anzufangen.
3. Schritt-für-Schritt-Tutorial
Suchmaschinen-Optimierung
Suchmaschinen-Optimierung nennt man die Erstellung von Seiten, deren Eigenschaften
besonders auf die Charakteristiken der Suchmaschinen eingehen. Eigenschaften sind z.B.
Textlänge, Wortzahl und Häufigkeit, sowie Benutzung der HTML-Tags, die von
Suchmaschinen besonders hoch bewertet werden. Insgesamt gibt es mehr als drei dutzend
Merkmale, die von Suchmaschinen bei der Seitenbewertung und zur späteren Bemessung der
Relevanz einer Suchanfrage berü cksichtigt werden können. Meist sind aber nur zwei oder drei
dieser Merkmale ausschlaggebend.
Suchmaschinen, die Suchanfragen mit erstklassigen Ergebnissen befriedigen, erfreuen sich
steigender Marktanteile: die Mehrzahl der Anwender verlangt relevante Suchergebnisse.
Suchmaschinen, die sich durch Suchmaschinen-Optimierung - oder gar durch simple Tricks
wie endlose Wortwiederholungen - leicht beeinflussen lassen, die also Ergebnisse liefern, die
das Informationsbedü rfnis der Suchenden nicht oder nur mangelhaft befriedigen, verzeichnen
Stagnation. Bestenfalls.
Professionelle Site-Betreiber mü ssen daher bei der Optimierung von Seiten besonders auf die
Eigenschaften der schnell wachsenden Suchmaschinen eingehen, wenn deren rapide
Expansion genutzt werden soll. Mehr noch, Sie sind - aus Eigennutz - gezwungen, die Ziele
der Suchmaschinen, nämlich die Lieferung relevanter Ergebnisse, zu unterstü tzen. Nur
verantwortungsvolle Optimierung ist dauerhaft erfolgreich.
Die Unterstü tzung der Suchmaschinen widerspricht keineswegs Ihrem Unternehmensziel: nur
wenn Suchergebnisse relevant sind, wenn das Informationsbedü rfnis der Suchenden korrekt
und qualifiziert befriedigt wird, werden Besucher zum Kunden.
Deshalb muss sich Suchmaschinen-Optimierung darauf konzentrieren, nur relevante,
tatsä chlich auf der Prä senz beantwortete Themen, Suchbegriffe und Formulierungen so
zu betonen und hervorzuheben, dass Suchmaschinen Ihre Seiten für diese Suchbegriffe
als besonders zutreffend einstufen.
Suchmaschinen-Optimierung ist nicht attraktiv, weil Sie damit die preiswerteste Möglichkeit
nutzen, potentielle Kunden zu finden.
Sondern vor allem, weil Suchmaschinen - je nachdem, welcher der vielen Untersuchungen Sie
glauben - fü r 75 bis 85% aller Anwender Ausgangspunkt der Informationsbeschaffung sind.
Eine effiziente Suchmaschinen-Position fü hrt damit zwangsläufig zu qualifizierten Besuchern.
Eine gute Suchmaschinen-Position erhöht den Bekanntheitsgrad, unterstü tzt Branding und
baut Vertrauen auf. Bei vielen Produkten und Dienstleistungen ist die Korrelation zwischen
Suchmaschinen-Position und Umsatz direkt. Indirekt fördert der Bekanntheitsgrad die Zahl der
qualifizierten Links auf Ihre Präsenz und damit bei Suchmaschinen, die Link-Popularität
berü cksichtigen, zu einer anhaltenden Verbesserung der Position.
Der wichtigste Vorteil der Suchmaschinen-Optimierung einer Web Site ist die Verdrängung
Ihrer Mitbewerber. Wenn Ihre Seiten öfters als die Ihrer Konkurrenten gefunden werden,
verbessern Sie Ihre Marktposition zu Lasten der Mitbewerber. Mit der Zeit assoziieren
Interessenten und Kunden Ihren Namen automatisch mit den wichtigsten Suchbegriffen Ihrer
Branche.
Leider ist jede Kette nur so stark wie ihr schwächstes Glied. Nur wenn Sie bei der
Suchmaschinen-Optimierung auf die entscheidenden Charakteristiken der Suchmaschinen und
alle Anforderungen ihrer potentiellen Besucher eingehen, können Sie erwarten, dass Ihre Site
in Suchmaschinen gefunden und dass diese auch von Ihren Besuchern ausgiebig genutzt wird.
Suchmaschinen verarbeiten, bewerten und sortieren Informationen, die in Ihren Seiten
enthalten sind. Vor der Anmeldung Ihrer Seiten bei den Suchmaschinen mü ssen diese Seiten
so gestaltet werden, dass sie optimale Ergebnisse produzieren.
Wenn Suchmaschinen-Optimierung nicht dazu fü hren soll, dass Sie in die Sperrlisten der
Suchmaschinen rutschen, mü ssen Sie deren Spielregeln akzeptieren: Suchmaschinen sitzen am
längeren Hebel.
Die folgenden Kapitel erklären, was bei der Suchmaschinen-Optimierung in welcher
Reihenfolge berücksichtigt werden muss. Und warum. Volles Verständnis und korrekte
Anwendung sind Voraussetzung fü r eine gute Suchmaschinenposition. Jede Abweichung ist
eine Barriere, die die Erfolgszahlen reduziert.
Beobachtet und regelmässig analysiert werden hier nur Suchmaschinen, die im deutsch- bzw.
englischsprachigen Raum signifikante Bedeutung haben. Die Liste der beobachteten
Suchmaschinen wird von Zeit zu Zeit den Markterfordernissen angepasst.
Das auf der nächsten Seite beginnende Schritt-fü r-Schritt Tutorial behandelt die folgenden
Schwerpunkte:
l
l
l
l
3. Schritt-fü r-Schritt-Tutorial Suchmaschinen-Optimierung
4. Anmeldung bei Suchmaschinen und Verzeichnissen
¡ 4.1. Anmeldung bei Verzeichnissen
¡ 4.2. Anmeldung bei Suchmaschinen
n 4.2.1. Wie Suchmaschinen Seiten finden
n 4.2.2. Wie Suchmaschinen Text indizieren
¡ 4.3. Suchmaschinen, die Daten kaufen
¡ 4.4. Suchmaschinen, die Position verkaufen
¡ 4.5. Welche Suchmaschinen sind die wichtigsten
5. Besuchermaximierung durch Zielgruppengerechte Suchmaschinenoptimierung
¡ 5.1. Seitenoptimierung zur Erhö
hung der Relevanz
¡ 5.2. Browser-Berü cksichtigung bei der Suchmaschinen-Optimierung
¡ 5.3. Wie Ihr Image die Suchmaschinen-Position beeinflusst
¡ 5.4. Texterstellung fü r Suchmaschinen
¡ 5.5. Braucht jede Suchanfrage eine eigene Seite?
¡ 5.6. Navigationslinks fü r Suchmaschinen-Optimierung
¡ 5.7. Suchmaschienen und kreative Sprachgestaltung
¡ 5.8. Umlaute u. GROSS- und kleinschreibung bei der SuchmaschinenOptimierung
¡ 5.9. Singular und Plural bei der Suchmaschinenoptimierung
6. Wie korrekte Seiten-Gestaltung die Aufnahme in Suchmaschinen erleichtert
¡ 6.1. Wie HTML-Code die Suchmaschinen-Position beeinflusst
¡ 6.2. Wie HTML-Gestaltung die Suchmaschinenposition steuert
¡ 6.3. Suchmaschinenoptimierung und verbotene HTML-Tricks
6.4. Warum Suchmaschinen und Flash sich nicht vertragen
6.5. Wie Suchmaschinen JavaScript interpretieren
¡ 6.6. Wie Frames die Suchmaschinen-Position riskieren
¡ 6.7. Warum Suchmaschinen dynamisch erstellte Seiten zurü ckweisen
7. Wie das eigentliche Ranking bei Suchmaschinen erfolgt
¡ 7.1. Wie Suchbegriffe hö
here Bewertung erhalten
¡ 7.2. HTML-Tags fü r optimale Suchmaschinen-Positionen
¡ 7.3. META-Tags bei der Suchmaschinenoptimierung
¡ 7.4. Suchmaschinen-Optimierung und externe Faktoren
n 7.4.1. Link-Popularität: warum nicht alle Referenzen gleich sind
n 7.4.2. Wie Suchmaschinen Verzeichnisse bei Ermittlung der
Linkpopularität auswerten
n 7.4.3. Wie Klick-Verhalten der Anwender Suchmaschinenranking
beeinflusst
n 7.4.4. Strafpunkte beim Suchmaschinen-Ranking vermeiden
n 7.4.5. Wie Dritte Ihre Suchmaschinen-Position gefährden
¡ 7.5. Ranking-Verfahren der Suchmaschinen verstehen und nutzen
¡ 7.6. Wie Suchmaschinen Dubletten erkennen
¡ 7.7. Wie gedankenlos erstellte Dubletten zur Suchmaschinen-Sperre fü hren
¡ 7.8. Zusätzliche Domain-Namen bei der Suchmaschinenoptimierung nutzen
¡ 7.9. Verbesserung der Suchmaschinen-Position durch sinnvolle Dateinamen
¡ 7.10. Warum die Suchmaschinenposition nie permanent ist
¡ 7.11. Reaktion auf veränderte Ranking-Methoden der Suchmaschinen
¡ 7.12. Suchmaschinen-Tricks, kurzfristige Erfolge und langfristige Sperren
¡ 7.13. Verbotener Suchmaschinentrick: Suchbegriffe in der Hintergrundfarbe
¡ 7.14. Verbotener Suchmaschinentrick: Unkonventionelle Text-Unterbringung
¡ 7.15. Verbotener Suchmaschinentrick: Unsichtbare Links fü r Brü ckenseiten
¡ 7.16. Verbotener Suchmaschinen-Trick: Link-Farmen zur Manipulation der
Linkpopularität
¡ 7.17. Verbotene Suchmaschinen-Tricks: Seitenaustausch, Refresh und Redirects
¡ 7.18. Suchmaschinen: Verdrängungswettbewerb durch Spam
¡ 7.19. Wie man in die Suchmaschinen-Sperrlisten rutscht
8. Wie Sie Suchmaschinen-Spider steuern
¡ 8.1. Steuerung der Suchmaschinen-Spider durch das robots.txt-File
¡ 8.2. META-Tags fü r Suchmaschinen-Spider
¡ 8.3. Suchmaschinen-Spider durch die Server-Konfiguration steuern
¡ 8.4. Wie Suchmaschinen den HTTP-Header auswerten
9. Die Anmeldung bei Verzeichnissen
¡ 9.1. Mindestvoraussetzung der Verzeichnisse
¡ 9.2. Manuelle Anmeldung bei Verzeichnissen
10. Erfolgreiche Suchmaschinen-Anmeldung
¡ 10.1. Wie wichtig ist der Suchmaschineneintrag
¡ 10.2. Vorteile der bezahlten Suchmaschinen-Anmeldung
¡ 10.3. Wie lange mü ssen Sie warten, bis Suchmaschinen Ihre Seiten indizieren
¡ 10.4. Wie lange mü ssen Sie warten, bis Seiten in den Suchmaschinen sichtbar
werden
¡ 10.5. Manuelle oder maschinelle Suchmaschinen-Anmeldung
¡ 10.6. Bei wievielen Suchmaschinen sollte man sich anmelden?
11. Suchmaschinenoptimierung mit Präzision
¡ 11.1. Suchbegriffe und Keywords
n 11.1.1. keyDB-Datenbank
n 11.1.2. keyAlert Benachrichtigung
¡ 11.2. Ranking-Analysen wichtiger Suchmaschinen
¡ 11.3. Industrielle Analyse-Tools zur Site- und Erfolgskontrolle
n 11.3.1. Site-Status
¡
¡
l
l
l
l
l
¡
¡
¡
n 11.3.2. Seiten-Status
11.4. Suchbegriffs-Analyse von Web-Seiten
11.5. Erfolgskontrolle bei der Suchmaschinenoptimierung
n 11.5.1. webRank
n 11.5.2. top10
11.6. Interaktive Tools fü r die Suchmaschinen-Optimierung
Das Schritt-fü r-Schritt Tutorial erklärt gleich zu Beginn wichtige Aspekte der SuchmaschinenAnmeldung, die viel zu oft missachtet oder falsch verstanden werden und deshalb oft die
erfolgreiche Anmeldung verhindern.
Weiter >>
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler zeigt, wie optimierte Seitengestaltung Suchmaschinen die
Seitenbearbeitung erleichert. Da die in diesem Tutorial behandelten Themen aufeinander
aufbauen, wird empfohlen, hier anzufangen.
4.2.2. Wie Suchmaschinen Text indizieren
Suchmaschinen sehen Ihre Seiten so, wie sie sind - nicht wie sie in einem grafischen Browser
präsentiert werden. Wenn Sie den Unterschied nicht kennen, wird es höchste Zeit, dass Sie
sich den HTML-Code Ihrer Seiten genauer ansehen.
Hierfü r eignen sich zum flü chtigen Ü berfliegen z.B. more oder zum genaueren Studium ein
Editor wie nedit, vi, emacs oder jeder andere, der Dateien zeigt, wie sie sind, ohne HTML zu
interpretieren. Im Zweifelsfalle hat nahezu jeder Browser eine Menu-Option, die einen Blick
auf die nicht interpretierte HTML-Seite erlaubt [diese Darstellung entspricht aber nicht immer
100%ig dem HTML-Quellcode].
HTML-Seiten oder Dateien enthalten sog. HTML-Tags, spezielle in <Klammern> gesetzte
Markierungen, denen eine Funktion zugewiesen ist, sowie die eigentliche Information.
Da mehr als drei Viertel aller Seiten HTML-Fehler, d.h. nicht korrekt oder zweifelsfrei
interpretierbare HTML-Tags, enthalten, kommt es einerseits häufig zu Browser-Abstü rzen und
andererseits zu Problemen bei der Text-Bewertung.
Suchmaschinen, bei denen diese Vorgänge automatisiert rund um die Uhr und ohne
menschliche Hilfe erfolgen mü ssen, haben nur zwei Möglichkeiten:
l
l
Man entfernt einfach alle HTML-Tags umgebenden Klammern und dazwischen
vorgefundene Tags, um dann den verbleibenden Text ohne Beachtung evtl.
Hervorhebungen zu indizieren.
Oder man versucht, die in einer Seite enthaltenen HTML-Tags zu interpretieren und in
Blöcke zu zerlegen, die je nach HTML-Tag unterschiedlich gewichtet werden.
Probleme entstehen, sobald Seiten inkorrekte HTML enthalten. Software kann nicht vermuten,
was ein Autor meinte, sondern nur lesen, was in einer Datei enthalten ist. Man kann zwar
naheliegende Schlü sse ziehen, nie aber mit absoluter Sicherheit die tatsächliche aber nicht
ausgefü hrte Absicht eines Datei-Erstellers feststellen.
Enthält z.B. eine Seite eine Kommentar-Einleitung <-- ohne den entsprechenden Abschluss -->
des Kommentars, lässt sich nicht sagen, an welcher Stelle die Anbringung beabsichtigt war,
aber unterlassen wurde.
Suchmaschinen können Seiten mit inkorrekter Syntax schlecht zurü ckweisen, da man sonst
nur minimale Datenbestände hätte und somit kaum Suchergebnisse produzieren könnte.
Und da es in der menschlichen Natur liegt, dass kaum jemand an der eigenen Unfehlbarkeit
zweifelt, werden auf dem Web bereitgehaltene kostenlose Validatoren[1], d.h. Programme, die
die Korrektheit der HTML-Konstruktion ü berprü fen, selten genutzt.
Schliesslich sieht im eigenen Browser [bis zum nächsten Absturz] alles recht passabel aus.
Und niemand weiss, dass solche Seiten manchmal reduzierte Bewertung erfahren, weil eine
korrekte Bearbeitung einfach nicht möglich ist.
Eingangs lasen Sie, Suchmaschinen sehen Seiten so, wie sie sind. Das ist eine Vereinfachung.
Präziser ist, wie sie von Ihrem Web Server geliefert werden. Die Differenzierung ist wichtig,
wenn Sie mit sog. Server Side Includes[2] arbeiten, kleine Text-Passagen oder Scripts, die vor
Beantwortung eines Seiten-Abrufs auf Ihrem Server zu einer zu liefernden Datei
zusammengefü gt werden - durch Kombination von Include-Dateien mit Schablonen oder
durch Einfü gung der Ergebnisse aufgerufener Scripts mit solchen.
Ein meist nicht bekanntes Beiprodukt der Anwendung von Server Side Includes ist die
unbeabsichtigte Kennzeichnung des gelieferten Fertigprodukts - der auf dem Server erst durch
den Abruf erstellten Datei - als dynamisch erstellte Seite. Je nach Art und Konfiguration des
Servers wird meist kein oder das aktuelle Datum als das der "letzten Aktualisierung" dieser
Seite im HTTP-Header [genauer im Kapitel Web Server behandelt] geliefert. Gleichzeitig fehlt
die bei normalen HTML-Seiten erfolgende Angabe der Dateigrösse.
Problematisch ist dies bei Suchmaschinen, die [aus nicht veröffentlichten Grü nden] "gealterte"
Seiten bevorzugen oder die, wegen der potentiellen Unendlichkeit der Vielzahl der SeitenVariationen bei dynamisch erzeugten Inhalten, solche Dateien nur begrenzt oder gar nicht
aufnehmen.
Nicht alle Suchmaschinen betreiben den Aufwand des Spiderns zur Datenbeschaffung. Seit ein
paar Jahren gibt es Suchmaschinen, die Daten kaufen.
Weiter >>
Glossar: Validatoren, Server Side Includes
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler beschreibt Methoden der zielgruppengerechten RelevanzVerbesserung bei der Suchmaschinen-Optimierung. Da die in diesem Tutorial behandelten
Themen aufeinander aufbauen, wird empfohlen, hier anzufangen.
5. Besuchermaximierung durch
Zielgruppengerechte Suchmaschinenoptimierung
Millionen von Anwendern, und jeder ein potentieller Kunde. So oder so ähnlich denkt der
erstmals eine Site Entwickelnde. Das Hauptziel jedes Site-Verantwortlichen ist zunächst die
Maximierung des Verkehrsaufkommens.
Es gibt zahlreiche Methoden, die das absolute Verkehrsaufkommen eines Servers in die Höhe
treiben. Alle verdeutlichen, dass der Betreiber kein Gewissen hat, und alle fü hren zur
entsprechenden Beurteilung des Unternehmens durch die Mehrzahl Anwender. Das Web ist
damit wahrscheinlich die letzte Region unserer Zivilisation, wo sich ein Gewissen bezahlt
macht.
Meiner Erfahrung nach ist es vergebene Mü he, hier zu erklären, wie Anwender ü ber
Newsgruppen, email-Newsletter und diverse andere Kanäle Informationen ü ber Unternehmen
austauschen. Ü ber unseriöse wie auch empfehlenswerte, chronologisch aufgezeichnet und
nachschlag- und nachlesbar seit Anfang der Achtziger.
Site-Betreiber, die darü ber lächeln und die glauben, seit Jahren bekannte Erfahrungen ü ber das
Anwender-Verhalten ignorieren zu können, zahlen Lehrgeld. Wie unzählige und oft
spektakuläre "Dot.com-Pleiten" zeigen, oft in Millionen-Höhe - und trotz hohem
Verkehrsaufkommen.
Dauerhafte Umsätze, Voraussetzung der Gewinnerzielung, lassen sich nämlich nur addieren,
wenn dieser "Verkehr" ein tatsächliches Interesse an den auf Ihrer Site gebotenen Produkten
oder Dienstleistungen hat.
Jeder, der durch Täuschungsmanöver Besucher auf eine Seite lockt, die keine zur eigentlichen
Suche des Anwenders relevanten Informationen bietet, lernt die Wunderwaffe des NetzAnwenders kennen: den Zurü ck-Button, oder, wenn der Site-Inhaber versucht, diese Funktion
durch JavaScript-Manöver oder ein sofortiges META-Refresh[1] auszuschalten [und sich damit
noch unbeliebter macht], die History-Liste.
Wer Autozubehör vertreibt, sollte deshalb keine seiner Seiten fü r den Suchbegriff "Auto"
optimieren. Autos kann man verschrotten, ausbeulen, finanzieren, exportieren, karambolieren,
mieten, versteigern, veredeln, abschleppen, versichern, frisieren und sammeln. Wer bei einer
Suchmaschine den Begriff "Auto" eingibt, sieht schnell, dass er nur durch Präzisierung der
Anfrage zum Ziel kommt.
Während zwar ein beachtlicher Teil aller Suchanfragen aus nur einem Wort besteht, ist die
Zielsetzung, fü r solche Begriffe einen der besseren Plätze in den Suchmaschinen zu belegen,
vergebene Mü he:
1. Eine fü r Einwort-Suchanfragen optimierte Seite konkurriert mit einer grossen Zahl
ähnlicher, ü berwiegend irrelevanter, Seiten.
2. Der laufende Optimierungsaufwand fü r solche Begriffe ist ob der grösseren Zahl der
konkurrierenden Seiten um mehrere Grössenordnungen höher.
3. Und - das ist der ausschlaggebende Grund - die ein solches Ergebnis aufrufenden
Besucher sind ü berwiegend nicht qualifiziert. Die Chance, dass Ihr Angebot das
eigentliche, in der aus einem Wort bestehenden Suchanfrage aber nicht präzisierte,
Interesse eines Besuchers deckt, ist verschwindend gering.
Protokoll-Auswertungen der Suchmaschinen zeigen dann auch, dass auf die meisten EinwortAnfragen eines Suchenden schnell präzisierte, die Thematik genauer einkreisende, Anfragen
folgen.
Hinzukommt, dass sich genau ermitteln lässt, welche Suchanfragen der Teil Ihrer Besucher,
der letztendlich zum Kunden wird, an die Suchmaschinen richtete, und dass diese Ermittlung
fast ü berall unterbleibt. Sie setzt Verständnis der Web-Protokolle, der grundlegenden Abläufe,
spezialisierte Software auf dem Server und einen ausreichend dimensionierten EntwicklungEtat voraus.
Der Aufruf einer Seite ist, auch wenn diese von einem Server am anderen Ende der Welt
kommt, ein Vorgang, der kaum Initiative oder Aufwand bedingt. Der erste Eindruck
entscheidet. Wenn die aufgerufene Seite nicht vollends den Erwartungen des Anwenders
entspricht, haben Sie verloren. Bleibend.
Seiteninhalte mü ssen deshalb so gestaltet werden, dass der Besucher beim Aufruf einer
Fundstelle auf den ersten Blick die Relevanz des Suchmaschinen-Ergebnisses erkennt.
Weiter >>
Glossar: META-Refresh
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler über die Notwendigkeit relevanter Suchbegriffe bei der
Suchmaschinen-Optimierung. Da die in diesem Tutorial behandelten Themen aufeinander
aufbauen, wird empfohlen, hier anzufangen.
5.4. Texterstellung f ür Suchmaschinen
Sie wollen wissen, wie Texte Besucherzahlen steuern. Sie wären längst ü ber alle Berge, wü rde
ich hier ü ber meine Laufbahn, Zielsetzung, Auszeichnungen oder zurü ckgewiesene JobOfferten schreiben. Deshalb gehören Mission Statements und Corporate Identity Balsam nicht
auf eine Web Site - zumindest nicht an prominenter Stelle.
Ihre Aufgabe ist die Erstellung von Texten, die das Informationsbedü rfnis des Besuchers
befriedigen. In einer Sprache, die er versteht - weil er sie selbst benutzt. Formulierungen, die
nicht versuchen, mangelndes Verständnis Ihrer Marketing-Texter durch Hype,
Verschleierungen, importierte Modeausdrü cke und nichtssagende Akronyme zu verschleiern.
Auch Suchmaschinen wollen wissen, "was hier zu holen ist". Mehr noch, sie wissen, welche
Worte inhaltliche Bedeutung besitzen und welche im normalen Sprachgebrauch nicht mehr als
reiner Ballast sind. Methoden der automatischen Klassifizierung heterogener
Informationsquellen unterliegen fortlaufender Entwicklung. Seiten ohne eigentliche
Aussagekraft werden bei Suchmaschinen, die jeder Seite oder jede Präsenz einem
Themenbereich zuordnen, entweder entsprechend bewertet oder gar nicht bearbeitet.
Je präziser, aussagefähiger und verständlicher Ihre Texte sind, desto genauer können
Suchmaschinen diese beurteilen. Suchmaschinen verarbeiten nur Text - und Links zu anderen
Texten.
Wie Anwender sich ausdrü cken und welche Formulierungen von diesen ü berwiegend benutzt
werden, können Sie vielleicht Ihren Server-Logs entnehmen. Jeder Besuch, der durch eine
Anfrage bei einer Suchmaschine ausgelöst wurde, hinterlässt in der Protokoll-Datei neben den
technischen Spuren auch die genaue Formulierung der Suchanfrage. Oft zeigt die Auswertung
der Protokolldateien, dass sich die Mehrzahl der ü ber Suchmaschinen gewonnenen Besucher
ü ber nicht relevante Anfragen auf eine Site verirrte. Veränderungen der Seiteninhalte durch
Anbringung relevanter oft gesuchter Formulierungen mit der entsprechenden Häufigkeit bietet
schnelle Abhilfe.
Eine umfassende Ü bersicht der gebräuchlichen Suchanfragen fü r Ihren Themenbereich bietet
Ihnen die keyDB-Datenbank, die rund um die Uhr mit Suchanfragen, so wie Anwender sie in
die Suchschlitze der Suchmaschinen eingeben und auch die Häufigkeit festhält, gefü ttert wird
und die Kunden zur Erstellung relevanz-optimierter Inhalte dient.
Ohne wortwörtlich ü bernommene Phrasen und Formulierungen kann ihre Präsenz nie ihr
volles Potential ausschöpfen. Denn nur, wenn fü r jede der vom Anwender genutzten
Fragestellungen eine Ihrer Seiten auf einem der besseren Plätze erscheint, maximieren Sie die
Zahl qualifizierter Besucher - Leute, die soeben ein Interesse an Ihren Produkten oder
Dienstleistungen geäussert haben.
Und nur, wenn die gefundene Seite die Interessen des Anwenders in einer von ihm
verstandenen Ausdrucksweise befriedigt, besteht Aussicht auf mehr. Wenn Stil und Vokabular
zwar den Ansprü chen Ihrer Investoren und Verbandskollegen entsprechen, den Vorstellungen
potentieller Kunden aber nicht gerecht werden oder diese gar ü berfordern, können Sie sicher
sein, dass das Gesuchte woanders gefunden wird.
Wenn Sie bei der Wahl der Suchbegriffe gleichzeitig die Häufigkeit der Keywords[1] im
Datenbestand der Suchmaschinen berü cksichtigen, wird die Optimierung vereinfacht: es ist
einfacher, eine Seite fü r eine häufig gesuchte aber selten vorkommende Formulierung zu
optimieren, als fü r gleich oft gesuchte aber in fast allen relevanten Seiten vorkommende
Wörter. Meinen Kunden bereitgestellte Analyse-Software berü cksichtigt daher nicht nur die
Suchhäufigkeit, sondern auch wie oft solche Suchworte in Web-Seiten enthalten sind.
Die Suche in der keyDB-Datenbank zeigt schnell, dass fast jeder Suchbegriff in hunderten von
verschiedenen Formulierungen erscheint [von denen die 500 häufigsten gezeigt werden],
wobei etwa das erste Dutzend 95% aller relevanten Anfragen darstellt. Braucht deshalb jede
Suchanfrage eine Suchmaschinen-spezifische Seite?
Weiter >>
Glossar: Keywords
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler zeigt, wie hä ufig gesuchte Suchbegriffe bei der Seitengestaltung
berücksichtigt werden müssen. Da die in diesem Tutorial behandelten Themen aufeinander
aufbauen, wird empfohlen, hier anzufangen.
5.5. Braucht jede Suchanfrage eine eigene Seite?
Es liegt auf der Hand, dass die erfolgreiche Implementierung auf eine Vielzahl von
Formulierungen eingehen muss. Dies zwingt zur Erstellung mehrerer Seiten mit inhaltlicher
nur gering voneinander abweichender Bedeutung, bei denen differenzierte Ausdrucksweisen
aber die Zahl der potentiellen Besucher maximieren.
Problem: Suchmaschinen versuchen, ihren Datenbestand sauber zu halten. Die Bemü hungen
der Suchmaschinen, kaum voneinander abweichende Texte, in der Praxis Gateway oder
Doorway Pages[1] genannt, als solche zu erkennen und zurü ckzuweisen, zeigen bei den
grösseren seit geraumer Zeit Frü chte und auch kleinere werden hier nachziehen mü ssen.
Suchergebnisse, die ü berwiegend aus Spam bestehen, fü hren nur zur Anwender-Verärgerung
und damit zum Wechsel der von einem Anwender frequentierten Suchmaschine.
Jede Methode der Text-Erstellung, bei der inhaltliche Schablonen geringfü gig variiert werden,
wird damit zum Bumerang. Vergessen Sie nicht, dass Suchmaschinen ü ber einen Millionen
von Dateien umfassenden Korpus verfü gen, der zu Vergleichszwecken herangezogen wird.
Typische Datei- oder Dokument-Eigenschaften, Abweichungen und Toleranzen sind seit
langem bekannte Grössen.
Gateway-Seiten können nur dann lukrativ eingesetzt werden, wenn sie von Grund auf neu
erstellt werden. Selbst bei einfacheren Suchmaschinen, die heute noch viele
Missbrauchsversuche nicht erkennen, steht der Fortschritt nicht still. Was nicht richtig
funktioniert, wird irgendwann als reparaturbedü rftig erkannt.
Die wirkliche Kunst beim Einsatz von Gateway Seiten besteht in der Verlinkung dieser, so
dass Besucher Ihrer Seiten beim Verfolgen zahlreicher Links nicht den Eindruck haben,
wiederholt mit gleichen oder ähnlichen Inhalten konfrontiert zu werden.
Es ist einfacher, eine Site völlig neu zu organisieren, als eine vorhandene Präsenz schrittweise
den Erfordernissen der Suchmaschinen und Anwender anzupassen und möglicherweise mit
mehr als einer Layout-Version zu leben.
Auch wenn die folgende Liste, die systematisch zeigt, welche Schritte in welcher Reihenfolge
zum optimalen Ergebnis fü hren, auf den ersten Blick umfangreich erscheint, ist strikte
Befolgung angebracht. Der Arbeitsaufwand ist nicht oder nur unwesentlich grösser als der
einer ungeplanten Site-Entwicklung. Die Systematik verhilft andererseits zur Maximierung des
Erfolgs, da jede Stufe optimal realisiert werden kann.
Konzeption
Ermitteln, welche Informationen auf der Site präsentiert werden sollen.
Gliederung
Erarbeitung einer systematischen Gliederung der Information, die später bei der
Verlinkung der Seiten berü cksichtigt wird. Struktur muss logisch und plausibel
organisiert werden und permanente Knotenpunkte [sh. Navigation, nächste Seite]
etablieren.
Text-Erstellung
Zusammenhängende Erstellung der eigentlichen Inhalte, wobei zunächst nur Anwender-
Interessen berü cksichtigt werden sollten.
Seiten-Aufteilung
Verteilung des Gesamtinhalts auf einzelne Seiten entsprechend der thematischen
Gliederung.
Suchbegriffs-Analyse
Durch ausgiebiges Suchen in der Datenbank der Keywords und Suchbegriffe [keyDB],
Auswertung von Kunden-emails, Korrespondenz und vorhandenen Protokoll-Dateien
und ggfls Besuch themenspezifischer Verzeichnisse oder Internet-Präsenzen feststellen,
welche Suchbegriffe in Ihren Texten plaziert werden mü ssen - Wortschatz und
Ausdrucksweise potentieller Kunden sind ausschlaggebend. Obendrein kann der Inhalt
von Web-Seiten geprü ft werden, die durch einen Link auf Ihre Site oder die Ihrer
Mitbewerber verweisen.
Keyword-Zuordnung
Sicherstellen, dass jeder Einzelseite mindestens eine der wichtigen Suchformulierungen
zugeordnet wird.
Keyword-Expansion
Fü r Suchbegriffe und Phrasen, die im neu erstellten Text nicht untergebracht werden
können, zusätzliche Seiten anfertigen und logisch in die Gliederung einbinden.
Seiten-Optimierung
In den aktuellen Ranking-Auswertungen die Charakteristiken der wichtigen
Suchmaschinen feststellen und jede Seite so anpassen, dass alle gemessenen Faktoren
wie Textlänge, Wortdichte, Häufigkeiten usw diesen Kriterien entsprechen und dabei
die von den Suchmaschinen höher bewerteten HTML-Tags zur Einbindung der
Suchformulierungen nutzen.
Verlinkung
Anbringung relevanter Navigations-Links entsprechend der vorher erstellten Struktur.
Die grafische Gestaltung, das Layout, darf erst erfolgen, wenn die im nächsten Kapitel
gegebenen Hinweise relevanter Navigations-Links berü cksichtigt wurden.
Weiter >>
Glossar: Doorway Pages
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler erklä rt wie Suchmaschinen verbotene HTML-Tricks erkennen und
behandeln. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird
empfohlen, hier anzufangen.
6.3. Suchmaschinenoptimierung und verbotene HTML -Tricks
Suchmaschinen werden ständig weiterentwickelt. Die ursprü ngliche Entwicklung
konzentrierte sich darauf, trotz massiver und rapide wachsender Datenbestände schnell und
möglichst zutreffend Ergebnisse zu liefern. Während auch hier ständig neue und verbesserte
Algorithmen entwickelt werden, hat man bei den meisten Suchmaschinen heute erkannt, dass
die Mehrzahl aller Site-Betreiber ungeduldig ist und gedankenlos oder gar rü cksichtslos
handelt.
Weil Suchmaschinen den längeren Hebel haben, machen sie davon Gebrauch. Suchmaschinen
haben Vergleichsdaten und Vergleichsmöglichkeiten, die die Phantasie selbst kreativster SiteVerantwortlicher ü berfordern. Jeder sog. Trick wird irgendwann erkannt und fü hrt zur Sperre.
Je nach Suchmaschine wird die entsprechende Domain oder IP-Adresse gesperrt - manchmal
nur vorü bergehend. Andere sperren permanent. Einen Mangel an Seiten, Domains oder IPAdressen gibt es aus Sicht der Suchmaschinen nicht. Kapazitäten mü ssen ohnehin ständig
erweitert werden.
Alle sog. "Tricks" und andere von Nicht-Informatikern empfohlene Ü berlistungs-Versuche
fü hren immer zu reduzierter Bewertung oder vollständiger Zurü ckweisung entsprechender
Seiten.
Weil Suchmaschinen Ihnen keine Einspruchsmöglichkeit geben und Sie nicht ü ber eine evtl.
Zurü ckweisung oder Sperre Ihrer Seiten oder Domain informieren, ist es doppelt wichtig,
sicherzustellen, dass Ihre Seiten syntaktisch korrekt erstellt werden und vollends der
Spezifikation entsprechen:
Manchmal fü hren unbeabsichtigte Fehler beim Seitenaufbau dazu, dass bisher nicht realisierte
Fehler oder Mängel der Suchmaschinen-Software dazu fü hren, eine Seite oder komplette
Domain zu sperren, weil sie plötzlich unberechtigt Suchergebnisse dominiert. Die
Qualitätskontrolleure der Suchmaschinen sehen nicht, dass Sie einen Fehler gemacht haben
und gehen davon aus, dass die Ausnutzung des Software-Mangels bewusst erfolgte.
Erfahrungsgemäss ist diese Vermutung in mehr als 99 von 100 Fällen korrekt.
Der Einsatz korrekt erstellter Seiten eliminiert dieses Risiko nicht nur, sondern verhilft Ihnen
bei den besseren Suchmaschinen mittelfristig zu besserer Bewertung.
Und weil Anwender Information, qualitative und relevante Suchergebnisse bevorzugen,
steigen die Zugriffszahlen von Suchmaschinen wie Google, während andere statische oder
schwindende Marktanteile erfahren.
Obwohl die meisten Kunstgriffe die Suchmaschinenposition nur verringern, gibt es ein paar
bei Designern beliebte Techniken, die die Aufnahme in die Suchmaschinen völlig verhindern.
Weiter >>
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler analysiert übliche Ranking-Verfahren und wie Berücksichtigung
zur Positionsverbesserung führt. Da die in diesem Tutorial behandelten Themen aufeinander
aufbauen, wird empfohlen, hier anzufangen.
7. Wie das eigentliche Ranking bei
Suchmaschinen erfolgt
Suchmaschinen verarbeiten jeden Tag Millionen von neuen oder aktualisierten Seiten um
Millionen von Anfragen möglichst treffend beantworten zu können. Das setzt voraus, dass
maschinell und ohne menschliches Zutun ermittelt wird, welche Seiten welche Themen
besonders "qualifiziert" behandeln.
Relevanz wird, im Gegensatz zu binären Zuständen, von jeder Suchmaschine und jedem
Anwender anders beurteilt. Während niemand ein wenig schwanger sein kann und eine
Sicherung entweder an- oder ausgeschaltet ist, hat Relevanz unendlich viele Abstufungen.
Suchmaschinen versuchen einmal, das dominierende Thema einer Seite zu ermitteln.
Gleichzeitig werden diverse die Qualität oder Autorität einer Seite messenden Faktoren
ermittelt und Vergleiche mit Seiten verwandter Inhalte angestellt.
Sog. Splash-Pages[1], Seiten, auf denen nur die Aufforderung steht, die Site zu betreten,
verschenken wertvolle Chancen. Wenn solche Seiten noch JavaScript oder andere
systemspezifische Techniken oder Formate voraussetzen, ist die Suchmaschinen-Anmeldung
ü berflü ssig. Die Hauptseite enthält keinen [aussagefähigen] Text, und Links sind fü r
Suchmaschinen [und viele Anwender] unsichtbar.
Aufgabe des Site-Entwicklers ist daher die Gestaltung von Seiten, die die Suchbegriffe, die in
Suchmaschinen gefunden werden sollen, besonders hervorheben.
Weiter >>
Glossar: Splash-Pages
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler zeigt, wie relevante Suchbegriffe zu einer höheren Bewertung Ihrer
Seiten bei Suchmaschinen verhelfen. Da die in diesem Tutorial behandelten Themen
aufeinander aufbauen, wird empfohlen, hier anzufangen.
7.1. Wie Suchbegriffe h öhere Bewertung erhalten
Was wichtig ist, wird hervorgehoben. Der grafisch orientierte Designer schreibt Typ und
Grösse der zu verwendenden Schrift vor, entweder durch den <Font>-Tag, oder
fortschrittlicher durch Einsatz von Style Sheets. Er weiss, welche Darstellung dem Firmenbild
und der Botschaft gerecht wird.
Er weiss nicht, ob diese Schrift auf dem Mac-, Unix, BeOS oder sonstigen System des
Besuchers verfü gbar ist und von dessen Browser benutzt werden kann oder darf. Und er weiss
nicht, dass er es nicht weiss.
Der Informatiker hebt wichtige Passagen durch Markierung hervor, die eine semantische
Bedeutung symbolisiert und damit erreicht, dass so markiertem Text von vielen
Suchmaschinen eine höhere Bedeutung als dem Rest zugeordnet wird.
Während die Mehrzahl aller HTML-Elemente[1] Präsentations-Charakter haben, gibt es ein
paar, <H1> bis <H6>, <em> und <strong>, <code> und <cite> usw., deren Anwendung von
mehreren Suchmaschinen honoriert wird.
Suchmaschinen, die die Bedeutung der wenigen semantischen Tags berü cksichtigen, teilen
Seiten in virtuelle Container auf, die Ü berschriften, Paragraphen, Tabellenzellen usw
enthalten, wobei semantisch markierten Text-Passagen eine höhere Bewertung zugeordnet
wird.
Andere sehen den Text als eine lange Wortsammlung.
Ein fast ü berall besonders hoch bewerteter HTML-Tag ist der Titel einer Seite. Titel einer
Seite ist nicht die erste im Browser erkennbare Ü berschrift, sondern die durch <TITLE> gleich
zu Beginn einer Datei markierte und von den meisten Browsern im oberen Fensterrand
gezeigte Text-Passage.
Nachdem bei der Seitenbearbeitung alle HTML-Elemente, Zeichensetzung und Sonderzeichen
wie © , $, @ usw entfernt und wichtigen Passagen ggfls besondere Bedeutung zugeordnet
wurde, wird der reine Text indiziert. Hierbei werden ü berall Worthäufigkeiten berü cksichtigt,
oft zusätzlich auch die Position einzelner Worte. Bei vielen Suchmaschinen ist die sog.
Wortdichte und Verteilung und auch die Zahl und Häufigkeit direkter Wiederholungen mit
ausschlaggebend.
Die Wortdichte, d.h. die prozentuale Häufigkeit eines Wortes, sollte sich im "ü blichen"
Rahmen bewegen. Ü blichkeit ist abhängig von Thematik und Zielgruppe. Wissenschaftliche
Abhandlungen zeigen fü r Begriffe, die Gegenstand der Arbeit sind, typische Wortdichten von
zwei bis etwa sieben Prozent.
Texte auf kommerziellen Präsenzen sind meist kü rzer und haben einen geringeren Wortschatz.
Hier sieht man Wortdichten bis zu 15%, die aber bereits als extrem gelten. In einer Seite, die
nur 5 verschiedene Wörter enthält, hat jedes Wort eine Wortdichte von 20%.
Manche Suchmaschinen gehen davon aus, dass Wörter, die gleich am Anfang der Datei
gefunden werden, wichtiger sind, als solche, die erst später im Text auftauchen. Andere
messen die Distribution fü r jedes oft genug vorkommende Wort, d.h. wie gleichmässig ein
Begriff ü ber den Text verteilt wurde.
Extreme Wortdichten, unregelmässige oder geballte Verteilung und vielfache sofortige
Wiederholung fü hren dort, wo sie berü cksichtigt werden, zu reduzierter Bewertung oder
Zurü ckweisung der Seite.
Genaue Normwerte und Schwankungsbreiten fü r diese und eine Vielzahl anderer
massgeblicher Faktoren der auf den ersten 10 Plätzen ausgegebenen Seiten sehen Kunden nach
Suchmaschinen gegliedert in den einmal wöchentlich aktualisierten Ranking-Analysen im
Kunden-Bereich. Welche Daten fü r jede Suchmaschine ermitteltet werden, wird anhand einer
Beispiel-Analyse erklärt. Eine interaktive Ranking-Analyse erlaubt den Vergleich einer
beliebigen Seite mit aktuellen Ranking-Daten.
Die folgenden HTML-Tags mü ssen bei der Suchmaschinen-Optimierung berü cksichtigt
werden:
Weiter >>
Glossar: HTML-Elemente
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler nennt für die Suchmaschinen-Position wichtige HTML-Syntax. Da
die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier
anzufangen.
7.2. HTML-Tags für optimale Suchmaschinen -Positionen
Je korrekter Ihre Seiten sind, desto genauer lassen sie sich verarbeiten, auswerten und ranken.
Korrekt ist hierbei nicht ein manierliches Aussehen in Ihrem Browser, sondern eine
hundertprozentig der HTML-Spezifikation entsprechende Anbringung einzelner HTML-Tags.
Beim Spidern der Sites betreuter Kunden erfolgt daher eine automatische Ü berprü fung aller
Seiten, so dass Fehler berichtigt werden können, bevor sie sich nachteilig auf die
Suchmaschinen-Position auswirken.
Die wichtigsten HTML-Tags aus Sicht der Suchmaschinen können an den Fingern einer Hand
abgezählt werden.
Jede Seite muss einen die wichtigsten Suchbegriffe oder Phrasen der Seite enthaltenden Titel
haben, der im Kopf der Datei mit dem <TITLE>-Tag gekennzeichnet wird.
Der eigentliche Text, untergebracht im <BODY> oder Körper der Seite, wird in mit <P>
gekennzeichnete Paragraphen aufgeteilt. Wichtige Begriffe sollten mit <STRONG> oder
<EM> und nicht etwa <b> oder <i> markiert werden. Diese Begriffe sollten ebenfalls in den
Ü berschriften erscheinen, die mit einem der sechs dafü r vorgesehenen Tags [nach Bedeutung]
<H1> bis <H6> gekennzeichnet werden.
In den letzten zwei Jahren haben Link-Texte[1], d.h. die Beschreibung eines Links zwischen
<a href="..."> und dem den Link abschliessenden </a>, ebenfalls an Bedeutung gewonnen.
Während Google und andere auf Link-Popularität setzende Suchmaschinen Link-Texte den
Zielseiten zurechnen, gehen manche von der Ü berlegung aus, dass eine Seite, die einen oder
mehrere Links mit ähnlichen Link-Beschreibungen auffü hrt, ein der Link-Beschreibung
entsprechendes Thema behandelt.
Nicht eigentlicher Bestandteil der Seite aber dennoch gelegentlich ausgewertet wird die
eigentliche URL, manchmal vollständig, oder bei manchen Suchmaschinen auch auf Domain,
Pfad oder Dateinamen begrenzt. Diese Berü cksichtigung kann teilweise nur unter bestimmten
Bedingungen erfolgen, z.B. wenn die in Dateiname oder Domain genannten Wörter auch im
Seitentext oder in auf diese URL fü hrenden Links vorkommt. Auch diese Entscheidung basiert
auf der Erfahrung, dass viele Autoren das Haupt-Thema einer Seite in den Dateinamen
ü bernehmen oder eine thematische Domain wählen.
Content Management-Systeme sind hier meist im Nachteil, da URLs maschinell generiert
werden und aus meist bedeutungslosen alphanumerischen Zeichenketten bestehen.
Wie oft der Suchbegriff oder die Formulierung, fü r die eine Seite optimiert wird, im Titel, den
Ü berschriften und anderen Tags genannt werden muss, ist von Suchmaschine zu
Suchmaschine verschieden. Eine tabellarische Ü bersicht, die wöchentlich aktualisiert wird,
zeigt Kunden fü r diese und zahlreiche andere Faktoren die gemessenen Werte fü r tausende auf
den ersten 10 Plätzen jeder Suchmaschine ausgegebenen Seiten.
Frü her oft berü cksichtigte META-Tags haben bei der Suchmaschinenoptimierung heute nur
noch geringe Bedeutung.
Weiter >>
Glossar: Link-Texte
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler erklä rt, warum der Einsatz von META-Tags oft negative Folgen
hat. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen,
hier anzufangen.
7.3. META-Tags bei der Suchmaschinenoptimierung
Meta Tags[1] wurden in den späten Neunzigern als Hilfsmittel zur Seitenbewertung
eingefü hrt. Suchmaschinen gingen dazu ü ber, die in der sog. META-Description[2] enthaltene
Beschreibung nicht nur zu Darstellungszwecken gelieferter Ergebnisse zu nutzen, sondern sie
gleichzeitig in Verbindung mit den Meta Keywords als signifikanten Teil der Seite zu
bewerten.
META-Tags sind von der Definition her nichts anderes als META-Daten, d.h. Information
ü ber Daten. Der ursprü ngliche Verwendungszweck war die inhaltliche Zusammenfassung
einer Seite und die Unterbringung von im Text nicht oder nicht ausreichend häufig
vorkommenden Synonymen. META-Daten sind nur glaubwü rdig, wenn sie von ausreichend
qualifizierten und vor allem unabhängigen Dritten erstellt werden.
Beschreibungen, die Sie in manuell erstellten Verzeichnissen finden, sind ebenfalls METADaten: bibliothekarisch geschulte Mitarbeiter eines Verzeichnisses erstellen unabhängig und
neutral eine Beschreibung Ihrer Präsenz. Bibliothekare, die einen Katalog vorhandener Bü cher
oder Schriftstü cke erstellen, schaffen META-Daten, die Suchenden zu Dienste stehen. Sie
werden durch neutrale und qualifizierte Mitarbeiter erstellt und haben Glaubwü rdig- und
Aussagefähigkeit und bieten daher Nutzen.
Wie vieles, was auf dem Web in der Absicht der Hilfestellung geboten wird, wurden METADaten schnell missbraucht. Während die Anbringung von META-Tags heute noch von Vielen
empfohlen wird, wobei die Bauenfängermentalität der selten die wirkliche Arbeitsweise einer
Suchmaschine verstehenden Autoren offensichtlich wird, haben sich auch META-Tags
inzwischen als sinnvolles Mittel zur Charakter-Beurteilung eines Autors erwiesen.
Suchmaschinen machen davon regen Gebrauch.
META-Tags, deren Inhalt sich nicht mit dem primären Inhalt einer Seite [oder auch Präsenz]
vereinbaren lässt, lassen Warnleuchten aufblinken. Werden META-Keywords mit Begriffen
vollgestopft, die vollends themenfremd sind, aber gleichzeitig häufig gesucht werden, ist
offensichtlich, dass der Autor versucht, Besucher auf die Site zu lotsen, die kein ursächliches
Interesse an der gebotenen Information haben sondern an den in META-Tags nicht sichtbar
aufgefü hrten Begriffen und Themen.
Solche Seiten werden je nach Ranking-Logik entweder zurü ckgewiesen [und ggfls einer
Sperrliste hinzugefü gt] oder erfahren die niedrigste mögliche Bewertung.
META-Tags sind heute nur noch dort sinnvoll, wo der Seitenaufbau die Entnahme einer
attraktiven und den Besucher von der Relevanz einer Fundstelle ü berzeugenden Passage
verhindert, z.B. wenn aus Präsentationsgrü nden Texte in mehrere Spalten [in Tabellen-Form]
unterteilt werden. Ein entsprechender Meta Tag, der eine von Ihnen gewählte Description
[Beschreibung der Seite] enthält, die auch im Text der Seite vorkommt, vergrössert in solchen
Fällen die Chance, dass eine von Ihnen gewählte Text-Passage als Suchergebnis gezeigt wird.
Weil ein besserer Seitenaufbau nur positive Auswirkungen haben kann, sind META-Tags aber
nicht mehr als eine Notlösung. Keywords sollten tatsächlich nur die wichtigsten in dieser Seite
vorkommenden Begriffe enthalten, wobei die Zahl der aufgefü hrten Begriffe selbst bei
aggressiver Seitenerstellung nie ein Dutzend ü berschreiten darf. Der Verzicht auf Meta
Keywords hat heute keine nachteilgen Folgen.
Wenn Sie aus Design- oder anderen Grü nden nicht auf den Einsatz von META-Tags
verzichten können, muss jede Seite selbstverständlich eine eigene wohl ü berlegte
Beschreibung [Description] haben. Werden obendrein META-Keywords genutzt, gilt auch
hier: nur fü r diese Seite relevante Begriffe angeben.
Inzwischen berü cksichtigen mehrere Suchmaschinen externe Faktoren beim
Suchmaschinenranking.
Weiter >>
Glossar: Meta Tags, META-Description
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler über seriöse Schritte zur wirksamen Verbesserung der
Suchmaschinen-Position. Da die in diesem Tutorial behandelten Themen aufeinander
aufbauen, wird empfohlen, hier anzufangen.
7.5. Ranking-Verfahren der Suchmaschinen verstehen und
nutzen
Fü r die Bewertung einer Seite und die anschliessende Indizierung wird zunächst eine nach
Häufigkeiten sortierte Liste der Worte erstellt [u.U. auch Phrasen wie "New York"].
Gleichzeitig wird bei Suchmaschinen, die die Phrasen-Suche unterstü tzen, die Position aller
Wörter festgehalten, so dass sich später genaue Wortfolgen in massiven Datenbeständen
schnell wiederfinden lassen.
Damit lassen sich auch zu häufige direkte Wiederholungen von Begriffen oder Wortfolgen,
von meist sich selbst ü berlistenden Bauernfängern in kleiner Schrift in der Hintergrundfarbe
einer Seite plaziert, ohne grossen CPU-Aufwand ermitteln.
Fü r jedes Wort wird die dann Häufigkeit festgehalten, teilweise auch die Wortdichte, die bei
manchen Suchmaschinen zur Qualitätsermittlung normiert wird. Wörter, die im Titel, den
Ü berschriften und anderen semantisch betonten Stellen vorkommen, erhalten zusätzliche
Gewichtung.
Sog. Stop-Worte[1], d.h. besonders häufig vorkommende Bindeworte ohne eigene Bedeutung "der, die, das usw" und je nach Suchmaschine hunderte oder zigtausende andere - werden,
wenn keine Phrasensuche unterstü tzt wird, aus der Liste der zu indizierenden Worte entfernt.
Unterstü tzt die Suchmaschine die Phrasensuche, wird fü r Stop-Worte nur die Position
festgehalten.
Fortschrittlichere Suchmaschinen haben zusätzliche Logik, die die Bedeutung bzw.
Aussagekraft einzelner Begriffe auswertet.
Verallgemeinerungen ohne spezifische Aussage werden so präzisen Informationen
untergeordnet. Automatische Verfahren der Klassifizierung eines Seiten-Inhalts [oder aller
Seiten einer Präsenz] erlauben obendrein Rü ckschlü sse darauf, ob ein Autor sich tatsächlich
mit einem Thema befasst oder ob im Text oft gesuchte aber nicht zum Thema gehörende
Begriffe untergebracht wurden.
Term Vector[2] und Document Vector[3]-Algorithmen haben, wie viele Bereiche des
Information Retrieval, in den letzten Jahren neue Anstösse durch die Notwendigkeit der SpamBekämpfung bzw Mü ll-Entsorgung erhalten.
Die Bearbeitung von Informationen aus nicht bekannten Quellen, denen man
erfahrungsgemäss oft unredliche oder unehrenhafte Absichten unterstellen muss, zwingt
Suchmaschinen aus reinem Selbsterhaltungstrieb, wählerischer zu werden.
Die Ranking-Methoden einzelner Suchmaschinen werden selten veröffentlicht. Während
bestimmte Algorithmen, wie etwa Google's PageRank in der IR-Literatur dokumentiert sind
und manche Suchmaschinen [oft zweifelhafte] Patente besitzen, werden alle ü ber
Konfigurations-Einstellungen gesteuert, bei der zahlreiche Parameter angepasst werden
können.
Veränderte Ranking-Verhalten sind daher nicht immer Konsequenz neuer Software sondern
nur einer angepassten Konfiguration, wenn Erfahrungswerte zeigen, dass gewisse Parameter
anpassungsbedü rftig sind.
Exakte Normwerte, gemeinsame Nenner und Schwankungsbreiten lassen sich nur ermitteln,
wenn man regelmässig eine ausreichend grosse Zahl von Seiten analysiert, die fü r eine
bekannte Gruppe von Suchbegriffen auf den ersten zehn Plätzen ausgegeben werden.
Die hier angebotenen Ranking-Analysen basieren daher auf mindestens 1000 Suchanfragen je
Suchmaschine. Bei der Hälfte dieser Anfragen werden sehr häufig gesuchte Wörter gesucht,
der Rest nutzt Begriffe aus dem mittleren Bereich der nach Anfrage-Häufigkeit sortierten
Datenbank der Suchbegriffe.
Abruf und Analyse der Seiten, die als Ergebnis auf diese 1000 Anfragen je Suchmaschine
ausgegeben werden, erfolgt maschinell. Insgesamt werden so wöchentlich rund 180,000 bis
220,000 Seiten untersucht [Ü berschneidungen der Suchergebnisse reduzieren die Zahl der
insgesamt zu prü fenden Seiten].
Gepaart mit den in langjähriger Praxis gesammelten Erfahrungen, die Kunden zur Verfü gung
stehen, zeigen die jede Woche nach Suchmaschinen unterteilten tabellarischen Aufstellungen,
wie die Beschaffenheit von Seiten sein muss, die auf einem der ersten Plätze gefunden werden
sollen. Gemessen werden u.a. Faktoren wie Wortzahl, Wort-Dichte und Distribution, ob und
welche semantischen HTML-Tags wie vorteilhaft sind und ob Domain-, Pfad- oder
Dateinamen berü cksichtigt werden.
Da in der Praxis bei allen hier beobachteten Suchmaschinen nur zwei oder drei Merkmale fü r
die Bewertung ausschlaggebend sind, kann schon die Umbenennung einer Seite, ein
ausfü hrlicherer Titel, die Einfü gung wichtiger Suchbegriffe in z.B. <H1>-Tags oder die
Anhebung oder Reduzierung der Wortdichte eine wesentliche Positions-Verbesserung
auslösen.
Alle fü r einen Suchbegriff optimierte Seiten mü ssen aber so erstellt werden, dass sie von den
Suchmaschinen nicht als Dublette eingestuft werden, wenn Sie Sperrung vermeiden wollen.
Weiter >>
Glossar: Stop-Worte, Term Vector, Document Vector
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler zeigt, wie Suchmaschinen Dubletten erkennen und welche
Konsequenzen ausgelöst werden. Da die in diesem Tutorial behandelten Themen aufeinander
aufbauen, wird empfohlen, hier anzufangen.
7.6. Wie Suchmaschinen Dubletten erkennen
Dubletten-Erkennung ist fü r Suchmaschinen mit halbwegs fortschrittlicher Technologie kein
Problem. Dubletten sind, aus Sicht der Suchmaschinen, nicht nur tatsächliche Kopien einer
Datei abgelegt unter anderem Dateinamen, sondern inhaltlich ü bereinstimmende oder nur
geringfü gig voneinander abweichende Seiten.
Dubletten sind aber nicht nur auf einem Server mehrfach untergebrachte Seiten, sondern auf
dem Web mehrfach gefundene Seiten.
Die eigentliche Erkennung einer doppelten Seite ist vergleichsweise einfach. In der Praxis
wird fü r einen Datensatz eine Chiffriersumme nach einem Verfahren errechnet, das
sicherstellt, dass jede Informationseinheit eine eigene Chiffriersumme erzeugt. Hiefü r eignet
sich z.B. das von RSA Data Security, Inc. gebotene MD5-Verfahren, das nur wenige CPUZyklen beansprucht, um eine Chiffriersumme zu berechnen. Unabhängig von der Länge einer
Dateneinheit ist jede Chiffriersumme 16 Bytes lang.
Unterschiede gibt es nur bei der Basis der Berechnung der Chiffriersumme. Nimmt man die
von einem Web Server abgerufene HTML-Seite im Rohzustand, fü hrt die Anbringung eines
einzigen Leerzeichens oder die Veränderung eines einzigen Buchstabens in der Datei zu einer
anderen Chiffriersumme.
Suchmaschinen setzen deshalb auf eine andere Basis: man nimmt den inhaltlichen
Schwerpunkt einer Datei als Berechnungsgrundlage, z.B. das mittlere Drittel der nach
Häufigkeiten sortierten Wortliste, wie bei AltaVista's Term Vector-Ermittlung.
Dubletten im technischen Sinne sind auch Seiten, die ü ber mehrere URLs erreicht werden
können. Kann eine Datei z.B. ü ber www.domain.com/datei.html und ü ber
domain.com/datei.html erreicht werden, haben Sie eine Dublette erzeugt, obwohl die Datei
nur einmal existiert.
Suchmaschinen, die nicht erkennen, dass www.domain.com und domain.com auf den gleichen
Server fü hren, können hier Spam vermuten. Es empfiehlt sich daher, nur eine der beiden
möglichen Domainnamen zu propagieren, mehr noch, den Server so zu konfigurieren, dass
Seiten nur ü ber eine der beiden Domains abgerufen werden können, während die andere ein
Redirect auf die wü nschenswerte auslösen sollte.
Eine weitere Dublette entsteht unbeabsichtigt, wenn Sie von manchen Ihrer Seiten auf die
Hauptseite ohne Dateiname und von anderen unter Angabe des Dateinamens verweisen:
www.xyz.com/ und www.xyz.com/index.html sind zwei verschiedene URLs die auf den
gleichen Inhalt verweisen.
Dubletten im rechtlichen Sinne erzeugen Sie, wenn Sie mit sog. Subdomains arbeiten, einer
Einheit, die von Marketing-Leuten gerne eingesetzt wird und dem Begriff Subdomain mangels
technischem Verständnis eine nicht beabsichtigte Bedeutung geben. Gemeint ist mit der Praxis
die zusätzliche Nutzung diverser Domainnamen, wobei ein Server so konfiguriert wird, dass
diese Domains auf Unterverzeichnisse einer Sammelpräsenz verweisen.
Verständlich wird die von Nichttechnikern geü bte Praxis, wenn Sie sich verdeutlichen, dass
www.bekleidung.com die folgenden Verzeichnisse auf dem Server betreibt:
/hosen/
/jacken/
/schuhe/
und die folgenden URLs durch Anmeldung oder eigenständiges Spidern der Suchmaschinen
indiziert wurden:
www.bekleidung.com/hosen/
www.bekleidung.com/jacken/
www.bekleidung.com/schuhe/
"Sub-Domains" im Marketing-Sinn entstehen, wenn zusätzlich www.hosen.com ,
www.jacken.com und www.schuhe.com als Domain registriert werden und jede der
zusätzlichen Domains auf ein oder mehrere Unterverzeichnisse des unter
www.bekleidung.com betriebenen Servers zeigen, wenn also www.hosen.com/ die Seiten
liefert, die unter www.bekleidung.com/hosen/ ebenfalls abgerufen werden können usw.
Sub-Domains im technischen Sinne sind in der das Thema Netz-Topologie behandelnden
Fachliteratur dokumentiert.
Oft kommt es zur Sperre aber nur, weil Suchmaschinen gedankenlos erstellte Dubletten
entdecken.
Weiter >>
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler zeigt, wie unbeabsichtigte doppelte Seiten und deren
Konsequenzen verhindert werden. Da die in diesem Tutorial behandelten Themen aufeinander
aufbauen, wird empfohlen, hier anzufangen.
7.7. Wie gedankenlos erstellte Dubletten zur Suchmaschinen Sperre führen
Unü berlegt oder gelegentlich gar rü cksichtslos handelnde Web-Verantwortliche, die
Suchbegriffe mit aussergewöhnlich hohem Wettbewerb einsetzen, versuchen oft mit Gewalt,
einen der besseren Plätze zu belegen. Und haben damit gelegentlich noch kurzfristig Erfolge
bei kleineren Suchmaschinen mit minimaler Technik.
Nicht gerechtfertigter oder durch zweifelhafte Massnahmen erzielter Erfolg auf dem Web ist
aber erstaunlich kurzlebig, vor allem wenn man berü cksichtigt, dass dieser nur bei
Suchmaschinen mit relativ simpler Logik erzielt wird.
Wer Software einsetzt, um hunderte oder gar tausende von ähnlichen Seiten zu erstellen, die
sich nur durch die Häufigkeit des angestrebten Suchbegriffes unterscheiden und inhaltlich
keine differenzierte Aussage enthalten, ü bersieht, dass selbst einfache Suchmaschinen wissen,
welche Suchbegriffe und Formulierungen besonders hohem Wettbewerb ausgesetzt sind.
Regelmässige Stichproben durch Qualitätskontrolleure und sog. Spam-Bekämpfer zeigen, wer
sich durch Manipulationsversuche ungerechtfertigte Vorteile erschleichen konnte und fortan
gesperrt wird.
Aber auch wenn Qualitätskontrolleure durch Urlaub, Krankheit oder Arbeitsü berlastung den
Möchtegern-Bauernfängern nicht sofort auf die Schliche kommen, mü ssen diese mit der
Aufmerksamkeit der Mitbewerber rechnen. Viele Site-Betreiber, die selbst seriös arbeiten,
sind bei Suchmaschinen wie z.B. Fireball dafü r bekannt, dass jeder Verstoss der Konkurrenz nicht ohne Eigennutz - gemeldet wird.
Genauso bekannt sind allerdings auch Web-Verantwortliche, die ständig versuchen, neue
Tricks aus dem Hut zu ziehen und Mitbewerber, die sich genauso verhalten, anschwärzen.
Da manche Suchmaschinen dem Domainnamen beim Ranking berü cksichtigen, mü ssen beim
Einsatz zusätzlicher Domainnamen zum Zweck der Suchmaschinenoptimierung Dubletten um
jeden Preis verhindert werden.
Weiter >>
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler zeigt, warum Anpassung von Web-Seiten auf verä nderte RankingMethoden wirkungslos ist. Da die in diesem Tutorial behandelten Themen aufeinander
aufbauen, wird empfohlen, hier anzufangen.
7.11. Reaktion auf ver änderte Ranking-Methoden der
Suchmaschinen
Schon das letzte Kapitel zeigte, warum Seitenanpassung bei Veränderung der RankingMethode der Suchmaschinen zum Bumerang werden kann. Das AltaVista-Beispiel ist aber
kein Einzelfall. Oft werden veränderte Konfigurations-Parameter oder Algorithmen nach
kurzer Zeit wieder durch die ursprü nglichen ersetzt, weil die Praxis nicht immer theoretische
Modelle bestätigt.
Wer auf jede Methodik-Veränderung mit Seiten-Anpassungen reagiert, hinkt ständig hinterher.
Besser ist es, bei deutlichen Veränderungen der Charakteristiken einer Suchmaschine eine
diesen Eigenschaften entsprechende neue Seite unter neuer URL zu erstellen und wie eine
neue Umgehungsstrasse zu verlinken.
Die bisherige Seite wird fü r Besucher Ihrer Site, die systematisch alle Links verfolgen,
dadurch zwar unsichtbar, nicht aber fü r Suchmaschinen. Eine einmal im Bestand gehaltene
[und somit als aufnahmewü rdig beurteilte] Seite wird nicht immer daraufhin geprü ft, ob sie
noch durch Links erreicht werden kann [manche Suchmaschinen haben gar Schwierigkeiten,
auf Ihrem Server gelöschte Seiten und nicht mehr verlinkte Seiten aus den Datenbeständen zu
entfernen]. Und wo eine solche Prü fung erfolgt, haben externe Links mehr Gewicht als
interne.
Der Vorteil dieser Verfahrensweise liegt auf der Hand: werden neue Konfigurationen oder
Algorithmen wieder durch ältere ersetzt, erscheint die unveränderte Seite wieder ohne Ihr
Zutun auf einer ähnlichen oder vielleicht gar der gleichen Position wie vor der Umstellung.
Datenaustausch ist ein weiterer Grund, warum etablierte Seiten manchmal anscheinend
grundlos untergehen - auch hier selten permanent. So wird bei Excite immer wieder
beobachtet, dass fü r eine Suchanfrage wochenlang eine statische Ergebnisfolge ausgegeben
wird, die dann durch eine völlig neue abgelöst wird. Mehrere Wochen später wird das neue
wieder durch das alte Set ersetzt. Betroffen sind hier ü berwiegend Suchmaschinen, die
kleinere Datenbestände verwalten und Aktualität durch regelmässigen Austausch von
Teilbeständen fast schon simulieren.
In der Zeit vom 27.8. bis zum 20.10.1999 habe ich fü r viele Suchmaschinen gemessen, wie
stabil eine einmal erreichte Position ist. Zu diesem Zweck wurden fü r häufig gesuchte Begriffe
wie Marketing, mp3, Chat usw. automatisierte Anfragen an Suchmaschinen gerichtet.
Die ersten zehn Ergebnisse wurden am 27.8. notiert. Anschliessend wurde täglich geprü ft, wie
oft die am ersten Tag des Beobachtungszeitraums an erster Stelle einer Anfrage ausgegebene
Seite auch weiterhin zumindest unter den ersten zehn ausgegebenen Ergebnissen erschien.
Wie sicher ist die Suchmaschinen-Position
Prozent:
0%
Acoon.de
AllTheWeb
100%
AltaVista
AOL
AOL.de
AOL.co.uk
Excite
Excite.de
Excite.co.uk
Fireball.de
HotBot
InfoSeek.de
Lycos.co.uk
Lycos.de
Mirago.co.uk
NorthernLight
Sear.ch
Search.ch
WebCrawler
Zeitraum: 27.8. bis 20.10.1999
Eine fortlaufende Ü bersicht zeigt Kunden täglich, wie häufig Suchmaschinen heute Ranking
oder Datenbasis verändern und, unterteilt nach Suchmaschinen, welche Sites fü r eine
Suchformulierung immer wieder unter den ersten 10 Ergebnissen erscheinen.
Die Versuchung, auf Suchmaschinen-Tricks und Kunstgriffe zurü ckzugreifen, ist gross. Ihr
muss, wenn Sie nicht die permanente Sperre riskieren wollen, trotzdem widerstanden werden.
Weiter >>
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.
Suchmaschinen-Entwickler über Prä zision bei der Suchmaschinen-Optimierung. Da die in
diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen.
11. Suchmaschinenoptimierung mit Präzision
Präzise, auf Anhieb sitzende Suchmaschinenoptimierung und damit eine erstklassige
Position ist nur möglich, wenn
1. Ihre Web-Seiten die Suchbegriffe enthalten, die von Ihren Anwendern besonders häufig
gesucht werden, und wenn diese Formulierungen an den entscheidenden Stellen Ihrer
Seiten genannt werden.
2. Ihre Seiten so aufgebaut sind, wie die von den wichtigsten Suchmaschinen heute zuerst
ausgegebenen Seiten [und damit den ausschlaggebenden Charakteristiken der
Suchmaschinen entsprechen].
Als Betreiber einer kommerzieller Präsenz können Sie hier sofortigen Zugriff auf
Datenbanken und Tools kaufen, die Ihnen entscheidende Fakten fü r die
Suchmaschinenoptimierung Ihrer Seiten geben und die systematische Verbesserungen
ermöglichen. Als Kunde erhalten Sie:
1. Zugriff auf die keyDB-Datenbank. Diese rund um die Uhr aktualisierte Datenbank
enthält ca 10 Mio Suchbegriffe und Formulierungen, wie sie von Web-Anwendern bei
Suchmaschinen eingetippt werden. Damit sehen Sie auf Anhieb, wonach die Mehrzahl
Ihrer potentiellen Kunden sucht. Nur wenn diese Begriffe im Text Ihrer Seiten
enthalten sind, werden diese gefunden.
2. Eine wöchentliche Zusammenstellung aller fü r Ihre Präsenz relevanten neuen
Suchbegriffe und Formulierungen, damit Sie auf Trends und Entwicklungen schnell
reagieren können.
3. Eine wöchentliche Ranking-Analyse, die Ihnen zeigt, welche Suchmaschinen worauf
Wert legen. Wird fü r alle Suchmaschinen erstellt, die fü r deutsch- und
englischsprachige Präsenzen marktbedeutend sind.
4. 14tägliches Spidern Ihrer Seiten, wobei gleichzeitig eine HTML-Prü fung, Erstellung
eines Site- und eines Seiten-Status-Reports erfolgt, damit mögliche Fehler, z.B.
fehlerhafte oder nicht mehr existierende Links auf fremde Seiten, korrigiert werden
können.
5. Eine 14tägliche Suchbegriffs-Analyse, die Ihnen zeigt, ob Sie die vorgegebenen
Suchbegriffe hä ufig genug einsetzen und welche Seiten angepasst werden müssen.
Wird fü r jede Ihrer Seiten und jeden vorgebenen Suchbegriff erstellt.
6. Ein wöchentlicher WebRank-Report, der Ihnen fü r die von Ihnen vorgegebenen
Suchbegriffe zeigt, welche Position Sie bei welchen Suchmaschinen belegen.
7. Tä gliche Überprüfung und Fortschreibung Ihrer Suchmaschinen-Position fü r den
wichtigsten Suchbegriff bei allen beobachteten Suchmaschinen. So erkennen Sie sofort,
wenn Mitbewerber Ihre Position streitig machen.
8. Zugriff auf detaillierte Informationen im Kunden-Bereich.
Die nächsten sechs Seiten informieren ausfü hrlich ü ber den gebotenen Service. Die dabei
berü cksichtigten Suchmaschinen und deren Einschränkungen finden Sie in der
Suchmaschinen-Liste.
Häufig gefragte Suchbegriffe und Formulierungen können interaktiv recherchiert werden.
Weiter >>
Toolbox-Startseite
Kunden-Login
Top10-Plazierung
Testen Sie Ihre Site
Jetzt Kaufen
Gratis-Newsletter
Suchmaschinen-News Glossar
Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.

Documentos relacionados