1. Suchmaschinen: Anmeldung, Optimierung und
Transcrição
1. Suchmaschinen: Anmeldung, Optimierung und
1. Suchmaschinen: Anmeldung, Optimierung und Suchbegriffe Web-Verantwortliche gehen davon aus, dass ein paar META-Tags und die SuchmaschinenAnmeldung reichen, um von Interessierten gefunden zu werden. Sie machen sich selten Gedanken darü ber, l l l nach welchen Kriterien Suchmaschinen potentielle Ergebnisse - oft zehn- oder hunderttausende von Seiten fü r eine Suchanfrage - sortieren, dass 80% aller Suchenden nie mehr als die ersten 30 Ergebnisse in Erwägung ziehen, wie sich Suchende ausdrü cken, welche Begriffe und Formulierungen Anwender bei den Suchmaschinen tatsächlich eintippen. Wer Suchmaschinen erfolgreich nutzen will, wer erwartet, dass seine Seiten regelmässig unter den ersten 10, 20 oder 30 Ergebnissen erscheinen, muss bei Seitengestaltung und TextErstellung durch sog. Suchmaschinen-Optimierung die interne Arbeitsweise der Suchmaschinen wie auch die Ausdrucksweise der Suchenden berü cksichtigen. Auf dieser Site finden Sie das relevante Know How und Hintergrundwissen in Form einer "Schritt fü r Schritt"-Anleitung zur Suchmaschinen-Optimierung, zusammengestellt und regelmässig aktualisiert von jemand, der Software fü r Suchmaschinen und auch komplette Suchmaschinen entwickelt hat. Die Information basiert daher nicht auf Vermutungen, sondern nennt spezifische Fakten. Professionelle Site-Betreiber und Entwickler können zusätzlich gesammelte Erfahrungen, aktuelle Ranking-Analysen zahlreicher Suchmaschinen, Zugriff auf eine Datenbank mit Millionen von Suchformulierungen sowie die Nutzung industrieller Analyse-Tools kaufen. Interaktive Tools, die in eingeschränkter Form auch von Nicht-Kunden genutzt werden können, helfen bei spezifischen Problemen. Die folgenden Seiten informieren ausfü hrlich ü ber die Rangfolgenbestimmung der Suchmaschinen, die notwendigen Einzelschritte, bereitgestellte Daten und Analyse-Tools, meine Qualifikation und, fü r professionelle Site-Betreiber, Kosten und Geschäftsbedingungen: Weiter >> Letzte Suchmaschinen-Nachrichten AltaVista lebt doch! DirectHit abgeschaltet Suchmaschinen-Veränderungen sorgen fü r Anwender-Panik Fireball auf Sparflamme? Scientology: mengenweise heisse Luft Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler erklä rt die Vorteile der innerbetrieblichen SuchmaschinenOptimierung. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 1.1. Warum "selbstgestrickte" Suchmaschinen -Optimierung besser ankommt Die Mehrzahl aller an Suchmaschinen-Optimierung Interessierten delegiert die Aufgabe an spezialisierte Unternehmen. Es scheint einfacher, die Aufgabe an Experten abzugeben, als sich ein paar Abende mit der Materie zu befassen. Und die Resultate geben dem Auftraggeber Recht. Fü r zahlreiche Formulierungen wird die optimierte Site plötzlich tatsächlich gefunden. Und oft steigen auch die Besucherzahlen. Schade, dass sich beides nicht in der Gewinn- und Verlust-Rechnung niederschlägt. Denn jede Delegation leidet darunter, dass der wichtigste Experte nicht zum Team gehört: Sie. Niemand kennt Ihre Kunden, deren Anliegen, ihre Begehren und Sonderwü nsche so gut wie Sie. Und niemand kennt Ihren Geschäftsbetrieb so wie Sie. Niemand kann Ihre Erfahrung, Ihr Fingerspitzengefü hl und Ihre Persönlichkeit besser zum Ausdruck bringen, als Sie. Innerbetriebliche Suchmaschinen-Optimierung ist deshalb zwingend vorgeschrieben, wenn eine Präsenz nicht nur Besucher sondern vor allem Kunden finden soll. Suchmaschinen-Optimierung ist, wie Sie noch sehen werden, einmal nicht mehr als die Berü cksichtigung einer Handvoll von Mess-Zahlen bei der Seitenerstellung. Genauso wichtig wie korrekte Worthäufigkeiten ist aber auch der richtige Ton. Und den trifft selten jemand so genau, wie Sie. Dieser "Ton" ist, sobald Ihre Seiten in den Suchergebnissen auftauchen, einzig und allein ausschlaggebend. Die jü ngste InternetGeschichte zeigt, dass "professionell" erstellte Präsenzen, selbst wenn sie Millionen gekostet haben, oft versagen. Umso schneller, je aufwendiger, glänzender und geschliffener sie wirken. Und Millionen von Sites, mit Liebe und Herz erstellt, hilfsbereit, Integrität ausstrahlend, belegen jeden Tag, was Internet-Anwender dazu veranlasst, einer Site Vertrauen zu schenken. Vertrauen, das Voraussetzung jeder Geschäftsbeziehung ist. Hinzukommt, dass Vertrauen regelmässig zu Referenzen fü hrt, ausgedrü ckt in einer ständig wachsenden Zahl von Links auf Ihre Site - und moderne Suchmaschinen-Algorithmen berü cksichtigen auch die sog. Link-Popularitä t[1] bei der Ermittlung der Rangfolge Ihrer Seiten. Wenn Sie trotzdem glauben, dass Delegation das Problem löst, dass Hype und Behauptungen schneller und auch auf Dauer wirksamer sind, als engagierter Einsatz und die Schaffung einer Vertrauensbasis, bedanke ich mich hier fü r Ihren Besuch. Wenn Sie andererseits bereit sind, potentiellen Kunden etwas Zeit zu schenken, sehen Sie auf der nächsten Seite, wie Suchmaschinen die Rangfolge bestimmen. Weiter >> Glossar: Link-Popularität Toolbox-Startseite Top10-Plazierung Jetzt Kaufen Gratis-Newsletter Kunden-Login Testen Sie Ihre Site Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler erklä rt detaillierte Rangfolgenbestimmung der Suchmaschinen. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 1.2. Wie Suchmaschinen die Rangfolge bestimmen Die Erstellung von Seiten, die bei relevanten Anfragen auf einer der besseren Positionen ausgegeben werden, setzt Intim-Kenntnisse der Suchmaschinen-Methodik - d.h. der Bestimmung der Rangfolge - voraus. Suchmaschinen-Methodik lässt sich präzise ermitteln. Sie mü ssen nur feststellen, welche Worthä ufigkeiten[1] und welche HTML-Tags[2] zu bevorzugter Bewertung bei den Suchmaschinen fü hren. Genau ermitteln lassen sich diese Werte, wenn Sie eine grössere Zahl von Seiten, die fü r oft gefragte Suchbegriffe unter den ersten zehn Plätzen ausgegeben werden, genau analysieren. Da niemand ausreichend umfangreiche Analysen von Hand erstellen kann, und ich seit Jahren Spider und Suchmaschinen-Software, oft fü r spezialisierte Research-Zwecke, entwickle, erfolgen diese Analysen hier maschinell. Hierfü r werden jede Woche hunderttausende von Seiten, die auf den ersten zehn Plätzen ausgegeben werden, systematisch ausgewertet. An jede hier beobachtete Suchmaschine werden einmal pro Woche 1000 Suchanfragen gerichtet. Die auf diese Anfragen ausgegebenen ersten 10 Ergebnisse werden aufgerufen und ausgewertet. Die fü r jede Suchmaschine durchgefü hrte Analyse ermittelt suchmaschinenspezifische Fakten: wie beeinflussen Wortzahlen, Worthäufigkeiten, Wiederholungen, Betonungen, HTML-Syntax und andere Faktoren die Rangfolge der Suchmaschinen-Ergebnisse, welche Durchschnittswerte und welche Schwankungsbreiten werden beobachtet, und welche HTML-Tags sind ausschlaggebend. Diese Information wird tabellarisch nach Suchmaschinen und Position aufbereitet und hier wöchentlich fortgeschrieben. Historische Daten zeigen, welche Komponenten der Gewichtungsfaktoren statisch sind und welche von Zeit zu Zeit verändert werden und so die Bestimmung der Rangfolge verändern. Eine Ü bersicht ü ber die fü r jede Suchmaschine ermittelten Daten wird anhand einer BeispielAnalyse erklärt. Eine interaktive Ranking-Analyse erlaubt den Vergleich einer beliebigen Seite mit aktuellen Ranking-Daten einer vorgegebenen Suchmaschine. Nur wenn Sie die aktuellen Charakteristiken der wichtigen Suchmaschinen kennen, die meistgefragten relevanten Suchbegriffe in Ihre Seiten einbinden, wenn Sie von langjähriger Erfahrung profitieren und Analyse-Tools aus der Werkstatt des Suchmaschinen-Entwicklers einsetzen, wird die Aufgabenstellung verständlich, nachvollziehbar und einfach zu bewältigen. Was Sie mit Recht erwarten dü rfen - wenn Sie die gebotenen Informationen, Fakten und Hilfsmittel beachten und nutzen - sind 1. kurzzeitige aber regelmässige Erfolge bei Suchmaschinen, die oft aktualisierte Seiten bevorzugen, 2. eine langsam aber sicher steigende Position [gelegentlich tage- oder wochenweise unterbrochen] in den Suchmaschinen, die "gealterte" Inhalte höher bewerten, 3. eine relativ statische Position ü ber Monate hinweg in den Suchmaschinen, die nur geringe Teile des Web indizieren und die diese turnusmässig austauschen, sowie 4. eine nahezu dauerhafte attraktive Position in den Suchmaschinen, die ü berwiegend Qualitätskriterien bei der Rangfolgenbestimmung anwenden und die die fortschrittlichste Spam[3]- bzw. Missbrauchs-Bekämpfung betreiben. Der Aufwand des Eingehens auf die Charakteristiken einzelner Suchmaschinen bei der SeitenErstellung ist umso lohnender, je wortwörtlicher Ihre Seiten die Suchbegriffe, Phrasen und Formulierungen enthalten, die von Anwendern bei der Suche auch tatsächlich und oft genug bei Suchmaschinen eingetippt werden. Weiter >> Glossar: Worthäufigkeiten, HTML-Tags, Spam Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler zeigt, wie sorgfä ltiger Einsatz der meistgefragten Suchbegriffe qualitative Besucher maximiert. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 1.3. Suchmaschinen-Suchbegriffe, die Anwender immer wieder eintippen Suchmaschinen verstehen nie den Sinn einer Suchanfrage, sondern suchen nur nach Worten und Wort-Aneinanderreihungen, die der Suchende eintippt. Bei jeder Suche werden nur die Seiten berü cksichtigt, die die vom Anwender gesuchten Suchbegriffe wortwörtlich enthalten. Verwendung häufig gefragter aber relevanter Suchbegriffe ist daher zwingende Voraussetzung fü r die Rentabilität einer Site. Meine Datenbank der Suchbegriffe, Phrasen und Formulierungen, die von Anwendern bei den Suchmaschinen gesucht werden, entstand durch einen Entwicklung-Auftrag. Fü r Intersearch Ende der 90er an Abacho.de verkauft - sollte eine sog. Fuzzy Suche [Suchmodus, bei dem Tippfehler und Rechtschreibschwächen eingetippter Suchbegriffe stillschweigend korrigiert werden] entwickelt werden. Bei der Analyse der Protokoll-Dateien[1] der Intersearch-Suchmaschine wurde deutlich, dass Internet-Anwender anders suchen, als angenommen [die interaktive Suche zeigt die Vielfalt der Formulierungen fü r fast jeden Themenbereich]. Nicht nur Tippfehler und Rechtschreibschwächen wurden sichtbar. Vor allem das genutzte Vokabular weicht drastisch vom Seiten-Inhalt kommerzieller Präsenzen ab: Suchende und Anbieter sprechen augenscheinlich andere Sprachen. Web-Anwender setzen mutig auf den eigenen Wortschatz. Produkt- und Typenbezeichnungen, durch Marketing geprägte Formulierungen und "Buzzwords" werden kaum gesucht. Generische Suchbegriffe, Verallgemeinerungen und Problembeschreibungen [manchmal erstaunlich verbos] dominieren. Konsequenz dieser Beobachtung war die auf den Namen keyDB getaufte Datenbank der Suchbegriffe. Diese Datenbank wird seitdem fortlaufend aktualisiert. Ein Teil der Suchbegriffe wird rund um die Uhr den sog. "Live-Suche"-Berichten zahlreicher Suchmaschinen entnommen, die ü berwiegende Mehrzahl durch Auswertung der Protokoll-Dateien mehrerer Suchmaschinen. Obwohl jede "Live-Suche"-Seite nur 10 bis 50 Suchanfragen enthält und damit nur eine Momentaufnahme wiedergibt, ist die Ü bereinstimmung mit den hier ausgewerteten Log Files der Suchmaschinen, deren Daten mir zur Verfü gung stehen, erstaunlich hoch. Ü berraschend war, dass schon nach wenigen Monaten täglicher Aktualisierung weniger und weniger neue Formulierungen in die Datenbank aufgenommen wurden. Wahlkämpfe, Naturoder sonstige Katastrophen, Skandale und andere Ereignisse, die weltweit publiziert werden, fü hren gelegentlich zu kurzzeitigen Spitzen der neu aufgenommen Suchbegriffe. Nach kurzer Zeit sinkt die Zahl erstmals gesehener Formulierungen aber wieder, d.h. das Vokabular der Suchenden verändert sich kaum. Die Gesamtzahl der Suchbegriffe, Phrasen und Formulierungen liegt heute bei etwa 10 Millionen. Manche werden allerdings wesentlich häufiger als andere gesucht. Zu wissen, wie sich Ihre Zielgruppe ausdrü ckt, dem potentiellen Kunden quasi ü ber die Schulter zu blicken, erlaubt Ihnen die Erstellung von Seiten, nach denen die Mehrzahl Ihrer Interessenten sucht. Relevante und häufig gesuchte Suchbegriffe mü ssen dabei wortwörtlich und oft genug in Ihren Seiten enthalten sein, wenn diese in guter Position gefunden werden sollen. Eine erstklassige Suchmaschinen-Position reicht aber allein nicht, um Suchende in tatsächliche Besucher zu verwandeln. Weiter >> Glossar: Protokoll-Dateien Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler beschreibt übliche Ranking-Verfahren und deren Ausnutzung zur Positionsverbesserung. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 2. Research-basierte SuchmaschinenOptimierung Letztendlich geht es um Zahlen. Wortmengen, Worthäufigkeiten, Positionen, Wortdichte[1] und Hervorhebung im Text sind Zahlen. Selbst das Datum der letzten Aktualisierung, Anzahl der auf Ihre Site fü hrenden Links und deren Qualität sind Zahlen. Weil ich Software fü r Suchmaschinen und komplette Suchmaschinen entwickelt habe, weiss ich, auf welche Zahlen es ankommt. Aufgrund vertraglicher Vertraulichkeitserklärungen bin ich nicht in der Lage, Kunden-Namen zu nennen [Intersearch, Ende der 90er an Abacho.de verkauft, war der einzige Kunde, der auf eine solche Vereinbarung verzichtete]. Es ist aber kein Geheimnis, dass ich Domanova [im Feb. 2002 verkauft] entwickelt habe, eine Qualitäts-Suchmaschine frei von Pornografie, Spam und minderwertigen Inhalten, die sich an den reifen Informations-Suchenden richtet. 20 Jahre Informations-Verarbeitung auf Client-Server Systemen haben mich in die Lage versetzt, eine ansehnliche Sammlung an Tools zu entwickeln, die die maschinelle Analyse, Auswertung und Beobachtung von Suchmaschinen erlauben. Und die erstmals fundamentale Daten ü ber die Arbeitsweise der Suchmaschinen messen und die mich, unter Berü cksichtigung meiner Berufspraxis, gleichzeitig in die Lage versetzen, nicht direkt ablesbare Fakten zu ermitteln und im Feldversuch zu bestätigen. Stets mit dem Ziel, fü r vom Anwender häufig eingesetzte Suchbegriffe und Formulierungen eine gute Position in den Suchmaschinen zu erreichen. Während Sie das folgende Tutorial kostenlos nutzen können, stehen Suchmaschinenspezifische Daten und Langzeit-Beobachtungen, Ranking-Analysen, Software und regelmässig laufende Anmelde-, Ü berwachungs- und Ranking-Spider nur Kunden zur Verfü gung. Wie bereitgestellte Recherche-Daten und Software-Tools meinen Kunden die SuchmaschinenOptimierung präzisieren, erleichtern und gleichzeitig beschleunigen, sehen Sie anhand einiger aktueller Beispiel-Reports. Das Suchmaschinen-Tutorial hat einen Umfang von mehr als 50 Seiten und beansprucht etwa eine bis zwei Stunden Lesezeit. Weiter >> Glossar: Wortdichte Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler zeigt systematische Positionsverbesserung durch Eingehen auf Suchmaschinen-Eigenschaften. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 3. Schritt-für-Schritt-Tutorial Suchmaschinen-Optimierung Suchmaschinen-Optimierung nennt man die Erstellung von Seiten, deren Eigenschaften besonders auf die Charakteristiken der Suchmaschinen eingehen. Eigenschaften sind z.B. Textlänge, Wortzahl und Häufigkeit, sowie Benutzung der HTML-Tags, die von Suchmaschinen besonders hoch bewertet werden. Insgesamt gibt es mehr als drei dutzend Merkmale, die von Suchmaschinen bei der Seitenbewertung und zur späteren Bemessung der Relevanz einer Suchanfrage berü cksichtigt werden können. Meist sind aber nur zwei oder drei dieser Merkmale ausschlaggebend. Suchmaschinen, die Suchanfragen mit erstklassigen Ergebnissen befriedigen, erfreuen sich steigender Marktanteile: die Mehrzahl der Anwender verlangt relevante Suchergebnisse. Suchmaschinen, die sich durch Suchmaschinen-Optimierung - oder gar durch simple Tricks wie endlose Wortwiederholungen - leicht beeinflussen lassen, die also Ergebnisse liefern, die das Informationsbedü rfnis der Suchenden nicht oder nur mangelhaft befriedigen, verzeichnen Stagnation. Bestenfalls. Professionelle Site-Betreiber mü ssen daher bei der Optimierung von Seiten besonders auf die Eigenschaften der schnell wachsenden Suchmaschinen eingehen, wenn deren rapide Expansion genutzt werden soll. Mehr noch, Sie sind - aus Eigennutz - gezwungen, die Ziele der Suchmaschinen, nämlich die Lieferung relevanter Ergebnisse, zu unterstü tzen. Nur verantwortungsvolle Optimierung ist dauerhaft erfolgreich. Die Unterstü tzung der Suchmaschinen widerspricht keineswegs Ihrem Unternehmensziel: nur wenn Suchergebnisse relevant sind, wenn das Informationsbedü rfnis der Suchenden korrekt und qualifiziert befriedigt wird, werden Besucher zum Kunden. Deshalb muss sich Suchmaschinen-Optimierung darauf konzentrieren, nur relevante, tatsä chlich auf der Prä senz beantwortete Themen, Suchbegriffe und Formulierungen so zu betonen und hervorzuheben, dass Suchmaschinen Ihre Seiten für diese Suchbegriffe als besonders zutreffend einstufen. Suchmaschinen-Optimierung ist nicht attraktiv, weil Sie damit die preiswerteste Möglichkeit nutzen, potentielle Kunden zu finden. Sondern vor allem, weil Suchmaschinen - je nachdem, welcher der vielen Untersuchungen Sie glauben - fü r 75 bis 85% aller Anwender Ausgangspunkt der Informationsbeschaffung sind. Eine effiziente Suchmaschinen-Position fü hrt damit zwangsläufig zu qualifizierten Besuchern. Eine gute Suchmaschinen-Position erhöht den Bekanntheitsgrad, unterstü tzt Branding und baut Vertrauen auf. Bei vielen Produkten und Dienstleistungen ist die Korrelation zwischen Suchmaschinen-Position und Umsatz direkt. Indirekt fördert der Bekanntheitsgrad die Zahl der qualifizierten Links auf Ihre Präsenz und damit bei Suchmaschinen, die Link-Popularität berü cksichtigen, zu einer anhaltenden Verbesserung der Position. Der wichtigste Vorteil der Suchmaschinen-Optimierung einer Web Site ist die Verdrängung Ihrer Mitbewerber. Wenn Ihre Seiten öfters als die Ihrer Konkurrenten gefunden werden, verbessern Sie Ihre Marktposition zu Lasten der Mitbewerber. Mit der Zeit assoziieren Interessenten und Kunden Ihren Namen automatisch mit den wichtigsten Suchbegriffen Ihrer Branche. Leider ist jede Kette nur so stark wie ihr schwächstes Glied. Nur wenn Sie bei der Suchmaschinen-Optimierung auf die entscheidenden Charakteristiken der Suchmaschinen und alle Anforderungen ihrer potentiellen Besucher eingehen, können Sie erwarten, dass Ihre Site in Suchmaschinen gefunden und dass diese auch von Ihren Besuchern ausgiebig genutzt wird. Suchmaschinen verarbeiten, bewerten und sortieren Informationen, die in Ihren Seiten enthalten sind. Vor der Anmeldung Ihrer Seiten bei den Suchmaschinen mü ssen diese Seiten so gestaltet werden, dass sie optimale Ergebnisse produzieren. Wenn Suchmaschinen-Optimierung nicht dazu fü hren soll, dass Sie in die Sperrlisten der Suchmaschinen rutschen, mü ssen Sie deren Spielregeln akzeptieren: Suchmaschinen sitzen am längeren Hebel. Die folgenden Kapitel erklären, was bei der Suchmaschinen-Optimierung in welcher Reihenfolge berücksichtigt werden muss. Und warum. Volles Verständnis und korrekte Anwendung sind Voraussetzung fü r eine gute Suchmaschinenposition. Jede Abweichung ist eine Barriere, die die Erfolgszahlen reduziert. Beobachtet und regelmässig analysiert werden hier nur Suchmaschinen, die im deutsch- bzw. englischsprachigen Raum signifikante Bedeutung haben. Die Liste der beobachteten Suchmaschinen wird von Zeit zu Zeit den Markterfordernissen angepasst. Das auf der nächsten Seite beginnende Schritt-fü r-Schritt Tutorial behandelt die folgenden Schwerpunkte: l l l l 3. Schritt-fü r-Schritt-Tutorial Suchmaschinen-Optimierung 4. Anmeldung bei Suchmaschinen und Verzeichnissen ¡ 4.1. Anmeldung bei Verzeichnissen ¡ 4.2. Anmeldung bei Suchmaschinen n 4.2.1. Wie Suchmaschinen Seiten finden n 4.2.2. Wie Suchmaschinen Text indizieren ¡ 4.3. Suchmaschinen, die Daten kaufen ¡ 4.4. Suchmaschinen, die Position verkaufen ¡ 4.5. Welche Suchmaschinen sind die wichtigsten 5. Besuchermaximierung durch Zielgruppengerechte Suchmaschinenoptimierung ¡ 5.1. Seitenoptimierung zur Erhö hung der Relevanz ¡ 5.2. Browser-Berü cksichtigung bei der Suchmaschinen-Optimierung ¡ 5.3. Wie Ihr Image die Suchmaschinen-Position beeinflusst ¡ 5.4. Texterstellung fü r Suchmaschinen ¡ 5.5. Braucht jede Suchanfrage eine eigene Seite? ¡ 5.6. Navigationslinks fü r Suchmaschinen-Optimierung ¡ 5.7. Suchmaschienen und kreative Sprachgestaltung ¡ 5.8. Umlaute u. GROSS- und kleinschreibung bei der SuchmaschinenOptimierung ¡ 5.9. Singular und Plural bei der Suchmaschinenoptimierung 6. Wie korrekte Seiten-Gestaltung die Aufnahme in Suchmaschinen erleichtert ¡ 6.1. Wie HTML-Code die Suchmaschinen-Position beeinflusst ¡ 6.2. Wie HTML-Gestaltung die Suchmaschinenposition steuert ¡ 6.3. Suchmaschinenoptimierung und verbotene HTML-Tricks 6.4. Warum Suchmaschinen und Flash sich nicht vertragen 6.5. Wie Suchmaschinen JavaScript interpretieren ¡ 6.6. Wie Frames die Suchmaschinen-Position riskieren ¡ 6.7. Warum Suchmaschinen dynamisch erstellte Seiten zurü ckweisen 7. Wie das eigentliche Ranking bei Suchmaschinen erfolgt ¡ 7.1. Wie Suchbegriffe hö here Bewertung erhalten ¡ 7.2. HTML-Tags fü r optimale Suchmaschinen-Positionen ¡ 7.3. META-Tags bei der Suchmaschinenoptimierung ¡ 7.4. Suchmaschinen-Optimierung und externe Faktoren n 7.4.1. Link-Popularität: warum nicht alle Referenzen gleich sind n 7.4.2. Wie Suchmaschinen Verzeichnisse bei Ermittlung der Linkpopularität auswerten n 7.4.3. Wie Klick-Verhalten der Anwender Suchmaschinenranking beeinflusst n 7.4.4. Strafpunkte beim Suchmaschinen-Ranking vermeiden n 7.4.5. Wie Dritte Ihre Suchmaschinen-Position gefährden ¡ 7.5. Ranking-Verfahren der Suchmaschinen verstehen und nutzen ¡ 7.6. Wie Suchmaschinen Dubletten erkennen ¡ 7.7. Wie gedankenlos erstellte Dubletten zur Suchmaschinen-Sperre fü hren ¡ 7.8. Zusätzliche Domain-Namen bei der Suchmaschinenoptimierung nutzen ¡ 7.9. Verbesserung der Suchmaschinen-Position durch sinnvolle Dateinamen ¡ 7.10. Warum die Suchmaschinenposition nie permanent ist ¡ 7.11. Reaktion auf veränderte Ranking-Methoden der Suchmaschinen ¡ 7.12. Suchmaschinen-Tricks, kurzfristige Erfolge und langfristige Sperren ¡ 7.13. Verbotener Suchmaschinentrick: Suchbegriffe in der Hintergrundfarbe ¡ 7.14. Verbotener Suchmaschinentrick: Unkonventionelle Text-Unterbringung ¡ 7.15. Verbotener Suchmaschinentrick: Unsichtbare Links fü r Brü ckenseiten ¡ 7.16. Verbotener Suchmaschinen-Trick: Link-Farmen zur Manipulation der Linkpopularität ¡ 7.17. Verbotene Suchmaschinen-Tricks: Seitenaustausch, Refresh und Redirects ¡ 7.18. Suchmaschinen: Verdrängungswettbewerb durch Spam ¡ 7.19. Wie man in die Suchmaschinen-Sperrlisten rutscht 8. Wie Sie Suchmaschinen-Spider steuern ¡ 8.1. Steuerung der Suchmaschinen-Spider durch das robots.txt-File ¡ 8.2. META-Tags fü r Suchmaschinen-Spider ¡ 8.3. Suchmaschinen-Spider durch die Server-Konfiguration steuern ¡ 8.4. Wie Suchmaschinen den HTTP-Header auswerten 9. Die Anmeldung bei Verzeichnissen ¡ 9.1. Mindestvoraussetzung der Verzeichnisse ¡ 9.2. Manuelle Anmeldung bei Verzeichnissen 10. Erfolgreiche Suchmaschinen-Anmeldung ¡ 10.1. Wie wichtig ist der Suchmaschineneintrag ¡ 10.2. Vorteile der bezahlten Suchmaschinen-Anmeldung ¡ 10.3. Wie lange mü ssen Sie warten, bis Suchmaschinen Ihre Seiten indizieren ¡ 10.4. Wie lange mü ssen Sie warten, bis Seiten in den Suchmaschinen sichtbar werden ¡ 10.5. Manuelle oder maschinelle Suchmaschinen-Anmeldung ¡ 10.6. Bei wievielen Suchmaschinen sollte man sich anmelden? 11. Suchmaschinenoptimierung mit Präzision ¡ 11.1. Suchbegriffe und Keywords n 11.1.1. keyDB-Datenbank n 11.1.2. keyAlert Benachrichtigung ¡ 11.2. Ranking-Analysen wichtiger Suchmaschinen ¡ 11.3. Industrielle Analyse-Tools zur Site- und Erfolgskontrolle n 11.3.1. Site-Status ¡ ¡ l l l l l ¡ ¡ ¡ n 11.3.2. Seiten-Status 11.4. Suchbegriffs-Analyse von Web-Seiten 11.5. Erfolgskontrolle bei der Suchmaschinenoptimierung n 11.5.1. webRank n 11.5.2. top10 11.6. Interaktive Tools fü r die Suchmaschinen-Optimierung Das Schritt-fü r-Schritt Tutorial erklärt gleich zu Beginn wichtige Aspekte der SuchmaschinenAnmeldung, die viel zu oft missachtet oder falsch verstanden werden und deshalb oft die erfolgreiche Anmeldung verhindern. Weiter >> Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler zeigt, wie optimierte Seitengestaltung Suchmaschinen die Seitenbearbeitung erleichert. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 4.2.2. Wie Suchmaschinen Text indizieren Suchmaschinen sehen Ihre Seiten so, wie sie sind - nicht wie sie in einem grafischen Browser präsentiert werden. Wenn Sie den Unterschied nicht kennen, wird es höchste Zeit, dass Sie sich den HTML-Code Ihrer Seiten genauer ansehen. Hierfü r eignen sich zum flü chtigen Ü berfliegen z.B. more oder zum genaueren Studium ein Editor wie nedit, vi, emacs oder jeder andere, der Dateien zeigt, wie sie sind, ohne HTML zu interpretieren. Im Zweifelsfalle hat nahezu jeder Browser eine Menu-Option, die einen Blick auf die nicht interpretierte HTML-Seite erlaubt [diese Darstellung entspricht aber nicht immer 100%ig dem HTML-Quellcode]. HTML-Seiten oder Dateien enthalten sog. HTML-Tags, spezielle in <Klammern> gesetzte Markierungen, denen eine Funktion zugewiesen ist, sowie die eigentliche Information. Da mehr als drei Viertel aller Seiten HTML-Fehler, d.h. nicht korrekt oder zweifelsfrei interpretierbare HTML-Tags, enthalten, kommt es einerseits häufig zu Browser-Abstü rzen und andererseits zu Problemen bei der Text-Bewertung. Suchmaschinen, bei denen diese Vorgänge automatisiert rund um die Uhr und ohne menschliche Hilfe erfolgen mü ssen, haben nur zwei Möglichkeiten: l l Man entfernt einfach alle HTML-Tags umgebenden Klammern und dazwischen vorgefundene Tags, um dann den verbleibenden Text ohne Beachtung evtl. Hervorhebungen zu indizieren. Oder man versucht, die in einer Seite enthaltenen HTML-Tags zu interpretieren und in Blöcke zu zerlegen, die je nach HTML-Tag unterschiedlich gewichtet werden. Probleme entstehen, sobald Seiten inkorrekte HTML enthalten. Software kann nicht vermuten, was ein Autor meinte, sondern nur lesen, was in einer Datei enthalten ist. Man kann zwar naheliegende Schlü sse ziehen, nie aber mit absoluter Sicherheit die tatsächliche aber nicht ausgefü hrte Absicht eines Datei-Erstellers feststellen. Enthält z.B. eine Seite eine Kommentar-Einleitung <-- ohne den entsprechenden Abschluss --> des Kommentars, lässt sich nicht sagen, an welcher Stelle die Anbringung beabsichtigt war, aber unterlassen wurde. Suchmaschinen können Seiten mit inkorrekter Syntax schlecht zurü ckweisen, da man sonst nur minimale Datenbestände hätte und somit kaum Suchergebnisse produzieren könnte. Und da es in der menschlichen Natur liegt, dass kaum jemand an der eigenen Unfehlbarkeit zweifelt, werden auf dem Web bereitgehaltene kostenlose Validatoren[1], d.h. Programme, die die Korrektheit der HTML-Konstruktion ü berprü fen, selten genutzt. Schliesslich sieht im eigenen Browser [bis zum nächsten Absturz] alles recht passabel aus. Und niemand weiss, dass solche Seiten manchmal reduzierte Bewertung erfahren, weil eine korrekte Bearbeitung einfach nicht möglich ist. Eingangs lasen Sie, Suchmaschinen sehen Seiten so, wie sie sind. Das ist eine Vereinfachung. Präziser ist, wie sie von Ihrem Web Server geliefert werden. Die Differenzierung ist wichtig, wenn Sie mit sog. Server Side Includes[2] arbeiten, kleine Text-Passagen oder Scripts, die vor Beantwortung eines Seiten-Abrufs auf Ihrem Server zu einer zu liefernden Datei zusammengefü gt werden - durch Kombination von Include-Dateien mit Schablonen oder durch Einfü gung der Ergebnisse aufgerufener Scripts mit solchen. Ein meist nicht bekanntes Beiprodukt der Anwendung von Server Side Includes ist die unbeabsichtigte Kennzeichnung des gelieferten Fertigprodukts - der auf dem Server erst durch den Abruf erstellten Datei - als dynamisch erstellte Seite. Je nach Art und Konfiguration des Servers wird meist kein oder das aktuelle Datum als das der "letzten Aktualisierung" dieser Seite im HTTP-Header [genauer im Kapitel Web Server behandelt] geliefert. Gleichzeitig fehlt die bei normalen HTML-Seiten erfolgende Angabe der Dateigrösse. Problematisch ist dies bei Suchmaschinen, die [aus nicht veröffentlichten Grü nden] "gealterte" Seiten bevorzugen oder die, wegen der potentiellen Unendlichkeit der Vielzahl der SeitenVariationen bei dynamisch erzeugten Inhalten, solche Dateien nur begrenzt oder gar nicht aufnehmen. Nicht alle Suchmaschinen betreiben den Aufwand des Spiderns zur Datenbeschaffung. Seit ein paar Jahren gibt es Suchmaschinen, die Daten kaufen. Weiter >> Glossar: Validatoren, Server Side Includes Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler beschreibt Methoden der zielgruppengerechten RelevanzVerbesserung bei der Suchmaschinen-Optimierung. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 5. Besuchermaximierung durch Zielgruppengerechte Suchmaschinenoptimierung Millionen von Anwendern, und jeder ein potentieller Kunde. So oder so ähnlich denkt der erstmals eine Site Entwickelnde. Das Hauptziel jedes Site-Verantwortlichen ist zunächst die Maximierung des Verkehrsaufkommens. Es gibt zahlreiche Methoden, die das absolute Verkehrsaufkommen eines Servers in die Höhe treiben. Alle verdeutlichen, dass der Betreiber kein Gewissen hat, und alle fü hren zur entsprechenden Beurteilung des Unternehmens durch die Mehrzahl Anwender. Das Web ist damit wahrscheinlich die letzte Region unserer Zivilisation, wo sich ein Gewissen bezahlt macht. Meiner Erfahrung nach ist es vergebene Mü he, hier zu erklären, wie Anwender ü ber Newsgruppen, email-Newsletter und diverse andere Kanäle Informationen ü ber Unternehmen austauschen. Ü ber unseriöse wie auch empfehlenswerte, chronologisch aufgezeichnet und nachschlag- und nachlesbar seit Anfang der Achtziger. Site-Betreiber, die darü ber lächeln und die glauben, seit Jahren bekannte Erfahrungen ü ber das Anwender-Verhalten ignorieren zu können, zahlen Lehrgeld. Wie unzählige und oft spektakuläre "Dot.com-Pleiten" zeigen, oft in Millionen-Höhe - und trotz hohem Verkehrsaufkommen. Dauerhafte Umsätze, Voraussetzung der Gewinnerzielung, lassen sich nämlich nur addieren, wenn dieser "Verkehr" ein tatsächliches Interesse an den auf Ihrer Site gebotenen Produkten oder Dienstleistungen hat. Jeder, der durch Täuschungsmanöver Besucher auf eine Seite lockt, die keine zur eigentlichen Suche des Anwenders relevanten Informationen bietet, lernt die Wunderwaffe des NetzAnwenders kennen: den Zurü ck-Button, oder, wenn der Site-Inhaber versucht, diese Funktion durch JavaScript-Manöver oder ein sofortiges META-Refresh[1] auszuschalten [und sich damit noch unbeliebter macht], die History-Liste. Wer Autozubehör vertreibt, sollte deshalb keine seiner Seiten fü r den Suchbegriff "Auto" optimieren. Autos kann man verschrotten, ausbeulen, finanzieren, exportieren, karambolieren, mieten, versteigern, veredeln, abschleppen, versichern, frisieren und sammeln. Wer bei einer Suchmaschine den Begriff "Auto" eingibt, sieht schnell, dass er nur durch Präzisierung der Anfrage zum Ziel kommt. Während zwar ein beachtlicher Teil aller Suchanfragen aus nur einem Wort besteht, ist die Zielsetzung, fü r solche Begriffe einen der besseren Plätze in den Suchmaschinen zu belegen, vergebene Mü he: 1. Eine fü r Einwort-Suchanfragen optimierte Seite konkurriert mit einer grossen Zahl ähnlicher, ü berwiegend irrelevanter, Seiten. 2. Der laufende Optimierungsaufwand fü r solche Begriffe ist ob der grösseren Zahl der konkurrierenden Seiten um mehrere Grössenordnungen höher. 3. Und - das ist der ausschlaggebende Grund - die ein solches Ergebnis aufrufenden Besucher sind ü berwiegend nicht qualifiziert. Die Chance, dass Ihr Angebot das eigentliche, in der aus einem Wort bestehenden Suchanfrage aber nicht präzisierte, Interesse eines Besuchers deckt, ist verschwindend gering. Protokoll-Auswertungen der Suchmaschinen zeigen dann auch, dass auf die meisten EinwortAnfragen eines Suchenden schnell präzisierte, die Thematik genauer einkreisende, Anfragen folgen. Hinzukommt, dass sich genau ermitteln lässt, welche Suchanfragen der Teil Ihrer Besucher, der letztendlich zum Kunden wird, an die Suchmaschinen richtete, und dass diese Ermittlung fast ü berall unterbleibt. Sie setzt Verständnis der Web-Protokolle, der grundlegenden Abläufe, spezialisierte Software auf dem Server und einen ausreichend dimensionierten EntwicklungEtat voraus. Der Aufruf einer Seite ist, auch wenn diese von einem Server am anderen Ende der Welt kommt, ein Vorgang, der kaum Initiative oder Aufwand bedingt. Der erste Eindruck entscheidet. Wenn die aufgerufene Seite nicht vollends den Erwartungen des Anwenders entspricht, haben Sie verloren. Bleibend. Seiteninhalte mü ssen deshalb so gestaltet werden, dass der Besucher beim Aufruf einer Fundstelle auf den ersten Blick die Relevanz des Suchmaschinen-Ergebnisses erkennt. Weiter >> Glossar: META-Refresh Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler über die Notwendigkeit relevanter Suchbegriffe bei der Suchmaschinen-Optimierung. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 5.4. Texterstellung f ür Suchmaschinen Sie wollen wissen, wie Texte Besucherzahlen steuern. Sie wären längst ü ber alle Berge, wü rde ich hier ü ber meine Laufbahn, Zielsetzung, Auszeichnungen oder zurü ckgewiesene JobOfferten schreiben. Deshalb gehören Mission Statements und Corporate Identity Balsam nicht auf eine Web Site - zumindest nicht an prominenter Stelle. Ihre Aufgabe ist die Erstellung von Texten, die das Informationsbedü rfnis des Besuchers befriedigen. In einer Sprache, die er versteht - weil er sie selbst benutzt. Formulierungen, die nicht versuchen, mangelndes Verständnis Ihrer Marketing-Texter durch Hype, Verschleierungen, importierte Modeausdrü cke und nichtssagende Akronyme zu verschleiern. Auch Suchmaschinen wollen wissen, "was hier zu holen ist". Mehr noch, sie wissen, welche Worte inhaltliche Bedeutung besitzen und welche im normalen Sprachgebrauch nicht mehr als reiner Ballast sind. Methoden der automatischen Klassifizierung heterogener Informationsquellen unterliegen fortlaufender Entwicklung. Seiten ohne eigentliche Aussagekraft werden bei Suchmaschinen, die jeder Seite oder jede Präsenz einem Themenbereich zuordnen, entweder entsprechend bewertet oder gar nicht bearbeitet. Je präziser, aussagefähiger und verständlicher Ihre Texte sind, desto genauer können Suchmaschinen diese beurteilen. Suchmaschinen verarbeiten nur Text - und Links zu anderen Texten. Wie Anwender sich ausdrü cken und welche Formulierungen von diesen ü berwiegend benutzt werden, können Sie vielleicht Ihren Server-Logs entnehmen. Jeder Besuch, der durch eine Anfrage bei einer Suchmaschine ausgelöst wurde, hinterlässt in der Protokoll-Datei neben den technischen Spuren auch die genaue Formulierung der Suchanfrage. Oft zeigt die Auswertung der Protokolldateien, dass sich die Mehrzahl der ü ber Suchmaschinen gewonnenen Besucher ü ber nicht relevante Anfragen auf eine Site verirrte. Veränderungen der Seiteninhalte durch Anbringung relevanter oft gesuchter Formulierungen mit der entsprechenden Häufigkeit bietet schnelle Abhilfe. Eine umfassende Ü bersicht der gebräuchlichen Suchanfragen fü r Ihren Themenbereich bietet Ihnen die keyDB-Datenbank, die rund um die Uhr mit Suchanfragen, so wie Anwender sie in die Suchschlitze der Suchmaschinen eingeben und auch die Häufigkeit festhält, gefü ttert wird und die Kunden zur Erstellung relevanz-optimierter Inhalte dient. Ohne wortwörtlich ü bernommene Phrasen und Formulierungen kann ihre Präsenz nie ihr volles Potential ausschöpfen. Denn nur, wenn fü r jede der vom Anwender genutzten Fragestellungen eine Ihrer Seiten auf einem der besseren Plätze erscheint, maximieren Sie die Zahl qualifizierter Besucher - Leute, die soeben ein Interesse an Ihren Produkten oder Dienstleistungen geäussert haben. Und nur, wenn die gefundene Seite die Interessen des Anwenders in einer von ihm verstandenen Ausdrucksweise befriedigt, besteht Aussicht auf mehr. Wenn Stil und Vokabular zwar den Ansprü chen Ihrer Investoren und Verbandskollegen entsprechen, den Vorstellungen potentieller Kunden aber nicht gerecht werden oder diese gar ü berfordern, können Sie sicher sein, dass das Gesuchte woanders gefunden wird. Wenn Sie bei der Wahl der Suchbegriffe gleichzeitig die Häufigkeit der Keywords[1] im Datenbestand der Suchmaschinen berü cksichtigen, wird die Optimierung vereinfacht: es ist einfacher, eine Seite fü r eine häufig gesuchte aber selten vorkommende Formulierung zu optimieren, als fü r gleich oft gesuchte aber in fast allen relevanten Seiten vorkommende Wörter. Meinen Kunden bereitgestellte Analyse-Software berü cksichtigt daher nicht nur die Suchhäufigkeit, sondern auch wie oft solche Suchworte in Web-Seiten enthalten sind. Die Suche in der keyDB-Datenbank zeigt schnell, dass fast jeder Suchbegriff in hunderten von verschiedenen Formulierungen erscheint [von denen die 500 häufigsten gezeigt werden], wobei etwa das erste Dutzend 95% aller relevanten Anfragen darstellt. Braucht deshalb jede Suchanfrage eine Suchmaschinen-spezifische Seite? Weiter >> Glossar: Keywords Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler zeigt, wie hä ufig gesuchte Suchbegriffe bei der Seitengestaltung berücksichtigt werden müssen. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 5.5. Braucht jede Suchanfrage eine eigene Seite? Es liegt auf der Hand, dass die erfolgreiche Implementierung auf eine Vielzahl von Formulierungen eingehen muss. Dies zwingt zur Erstellung mehrerer Seiten mit inhaltlicher nur gering voneinander abweichender Bedeutung, bei denen differenzierte Ausdrucksweisen aber die Zahl der potentiellen Besucher maximieren. Problem: Suchmaschinen versuchen, ihren Datenbestand sauber zu halten. Die Bemü hungen der Suchmaschinen, kaum voneinander abweichende Texte, in der Praxis Gateway oder Doorway Pages[1] genannt, als solche zu erkennen und zurü ckzuweisen, zeigen bei den grösseren seit geraumer Zeit Frü chte und auch kleinere werden hier nachziehen mü ssen. Suchergebnisse, die ü berwiegend aus Spam bestehen, fü hren nur zur Anwender-Verärgerung und damit zum Wechsel der von einem Anwender frequentierten Suchmaschine. Jede Methode der Text-Erstellung, bei der inhaltliche Schablonen geringfü gig variiert werden, wird damit zum Bumerang. Vergessen Sie nicht, dass Suchmaschinen ü ber einen Millionen von Dateien umfassenden Korpus verfü gen, der zu Vergleichszwecken herangezogen wird. Typische Datei- oder Dokument-Eigenschaften, Abweichungen und Toleranzen sind seit langem bekannte Grössen. Gateway-Seiten können nur dann lukrativ eingesetzt werden, wenn sie von Grund auf neu erstellt werden. Selbst bei einfacheren Suchmaschinen, die heute noch viele Missbrauchsversuche nicht erkennen, steht der Fortschritt nicht still. Was nicht richtig funktioniert, wird irgendwann als reparaturbedü rftig erkannt. Die wirkliche Kunst beim Einsatz von Gateway Seiten besteht in der Verlinkung dieser, so dass Besucher Ihrer Seiten beim Verfolgen zahlreicher Links nicht den Eindruck haben, wiederholt mit gleichen oder ähnlichen Inhalten konfrontiert zu werden. Es ist einfacher, eine Site völlig neu zu organisieren, als eine vorhandene Präsenz schrittweise den Erfordernissen der Suchmaschinen und Anwender anzupassen und möglicherweise mit mehr als einer Layout-Version zu leben. Auch wenn die folgende Liste, die systematisch zeigt, welche Schritte in welcher Reihenfolge zum optimalen Ergebnis fü hren, auf den ersten Blick umfangreich erscheint, ist strikte Befolgung angebracht. Der Arbeitsaufwand ist nicht oder nur unwesentlich grösser als der einer ungeplanten Site-Entwicklung. Die Systematik verhilft andererseits zur Maximierung des Erfolgs, da jede Stufe optimal realisiert werden kann. Konzeption Ermitteln, welche Informationen auf der Site präsentiert werden sollen. Gliederung Erarbeitung einer systematischen Gliederung der Information, die später bei der Verlinkung der Seiten berü cksichtigt wird. Struktur muss logisch und plausibel organisiert werden und permanente Knotenpunkte [sh. Navigation, nächste Seite] etablieren. Text-Erstellung Zusammenhängende Erstellung der eigentlichen Inhalte, wobei zunächst nur Anwender- Interessen berü cksichtigt werden sollten. Seiten-Aufteilung Verteilung des Gesamtinhalts auf einzelne Seiten entsprechend der thematischen Gliederung. Suchbegriffs-Analyse Durch ausgiebiges Suchen in der Datenbank der Keywords und Suchbegriffe [keyDB], Auswertung von Kunden-emails, Korrespondenz und vorhandenen Protokoll-Dateien und ggfls Besuch themenspezifischer Verzeichnisse oder Internet-Präsenzen feststellen, welche Suchbegriffe in Ihren Texten plaziert werden mü ssen - Wortschatz und Ausdrucksweise potentieller Kunden sind ausschlaggebend. Obendrein kann der Inhalt von Web-Seiten geprü ft werden, die durch einen Link auf Ihre Site oder die Ihrer Mitbewerber verweisen. Keyword-Zuordnung Sicherstellen, dass jeder Einzelseite mindestens eine der wichtigen Suchformulierungen zugeordnet wird. Keyword-Expansion Fü r Suchbegriffe und Phrasen, die im neu erstellten Text nicht untergebracht werden können, zusätzliche Seiten anfertigen und logisch in die Gliederung einbinden. Seiten-Optimierung In den aktuellen Ranking-Auswertungen die Charakteristiken der wichtigen Suchmaschinen feststellen und jede Seite so anpassen, dass alle gemessenen Faktoren wie Textlänge, Wortdichte, Häufigkeiten usw diesen Kriterien entsprechen und dabei die von den Suchmaschinen höher bewerteten HTML-Tags zur Einbindung der Suchformulierungen nutzen. Verlinkung Anbringung relevanter Navigations-Links entsprechend der vorher erstellten Struktur. Die grafische Gestaltung, das Layout, darf erst erfolgen, wenn die im nächsten Kapitel gegebenen Hinweise relevanter Navigations-Links berü cksichtigt wurden. Weiter >> Glossar: Doorway Pages Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler erklä rt wie Suchmaschinen verbotene HTML-Tricks erkennen und behandeln. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 6.3. Suchmaschinenoptimierung und verbotene HTML -Tricks Suchmaschinen werden ständig weiterentwickelt. Die ursprü ngliche Entwicklung konzentrierte sich darauf, trotz massiver und rapide wachsender Datenbestände schnell und möglichst zutreffend Ergebnisse zu liefern. Während auch hier ständig neue und verbesserte Algorithmen entwickelt werden, hat man bei den meisten Suchmaschinen heute erkannt, dass die Mehrzahl aller Site-Betreiber ungeduldig ist und gedankenlos oder gar rü cksichtslos handelt. Weil Suchmaschinen den längeren Hebel haben, machen sie davon Gebrauch. Suchmaschinen haben Vergleichsdaten und Vergleichsmöglichkeiten, die die Phantasie selbst kreativster SiteVerantwortlicher ü berfordern. Jeder sog. Trick wird irgendwann erkannt und fü hrt zur Sperre. Je nach Suchmaschine wird die entsprechende Domain oder IP-Adresse gesperrt - manchmal nur vorü bergehend. Andere sperren permanent. Einen Mangel an Seiten, Domains oder IPAdressen gibt es aus Sicht der Suchmaschinen nicht. Kapazitäten mü ssen ohnehin ständig erweitert werden. Alle sog. "Tricks" und andere von Nicht-Informatikern empfohlene Ü berlistungs-Versuche fü hren immer zu reduzierter Bewertung oder vollständiger Zurü ckweisung entsprechender Seiten. Weil Suchmaschinen Ihnen keine Einspruchsmöglichkeit geben und Sie nicht ü ber eine evtl. Zurü ckweisung oder Sperre Ihrer Seiten oder Domain informieren, ist es doppelt wichtig, sicherzustellen, dass Ihre Seiten syntaktisch korrekt erstellt werden und vollends der Spezifikation entsprechen: Manchmal fü hren unbeabsichtigte Fehler beim Seitenaufbau dazu, dass bisher nicht realisierte Fehler oder Mängel der Suchmaschinen-Software dazu fü hren, eine Seite oder komplette Domain zu sperren, weil sie plötzlich unberechtigt Suchergebnisse dominiert. Die Qualitätskontrolleure der Suchmaschinen sehen nicht, dass Sie einen Fehler gemacht haben und gehen davon aus, dass die Ausnutzung des Software-Mangels bewusst erfolgte. Erfahrungsgemäss ist diese Vermutung in mehr als 99 von 100 Fällen korrekt. Der Einsatz korrekt erstellter Seiten eliminiert dieses Risiko nicht nur, sondern verhilft Ihnen bei den besseren Suchmaschinen mittelfristig zu besserer Bewertung. Und weil Anwender Information, qualitative und relevante Suchergebnisse bevorzugen, steigen die Zugriffszahlen von Suchmaschinen wie Google, während andere statische oder schwindende Marktanteile erfahren. Obwohl die meisten Kunstgriffe die Suchmaschinenposition nur verringern, gibt es ein paar bei Designern beliebte Techniken, die die Aufnahme in die Suchmaschinen völlig verhindern. Weiter >> Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler analysiert übliche Ranking-Verfahren und wie Berücksichtigung zur Positionsverbesserung führt. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 7. Wie das eigentliche Ranking bei Suchmaschinen erfolgt Suchmaschinen verarbeiten jeden Tag Millionen von neuen oder aktualisierten Seiten um Millionen von Anfragen möglichst treffend beantworten zu können. Das setzt voraus, dass maschinell und ohne menschliches Zutun ermittelt wird, welche Seiten welche Themen besonders "qualifiziert" behandeln. Relevanz wird, im Gegensatz zu binären Zuständen, von jeder Suchmaschine und jedem Anwender anders beurteilt. Während niemand ein wenig schwanger sein kann und eine Sicherung entweder an- oder ausgeschaltet ist, hat Relevanz unendlich viele Abstufungen. Suchmaschinen versuchen einmal, das dominierende Thema einer Seite zu ermitteln. Gleichzeitig werden diverse die Qualität oder Autorität einer Seite messenden Faktoren ermittelt und Vergleiche mit Seiten verwandter Inhalte angestellt. Sog. Splash-Pages[1], Seiten, auf denen nur die Aufforderung steht, die Site zu betreten, verschenken wertvolle Chancen. Wenn solche Seiten noch JavaScript oder andere systemspezifische Techniken oder Formate voraussetzen, ist die Suchmaschinen-Anmeldung ü berflü ssig. Die Hauptseite enthält keinen [aussagefähigen] Text, und Links sind fü r Suchmaschinen [und viele Anwender] unsichtbar. Aufgabe des Site-Entwicklers ist daher die Gestaltung von Seiten, die die Suchbegriffe, die in Suchmaschinen gefunden werden sollen, besonders hervorheben. Weiter >> Glossar: Splash-Pages Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler zeigt, wie relevante Suchbegriffe zu einer höheren Bewertung Ihrer Seiten bei Suchmaschinen verhelfen. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 7.1. Wie Suchbegriffe h öhere Bewertung erhalten Was wichtig ist, wird hervorgehoben. Der grafisch orientierte Designer schreibt Typ und Grösse der zu verwendenden Schrift vor, entweder durch den <Font>-Tag, oder fortschrittlicher durch Einsatz von Style Sheets. Er weiss, welche Darstellung dem Firmenbild und der Botschaft gerecht wird. Er weiss nicht, ob diese Schrift auf dem Mac-, Unix, BeOS oder sonstigen System des Besuchers verfü gbar ist und von dessen Browser benutzt werden kann oder darf. Und er weiss nicht, dass er es nicht weiss. Der Informatiker hebt wichtige Passagen durch Markierung hervor, die eine semantische Bedeutung symbolisiert und damit erreicht, dass so markiertem Text von vielen Suchmaschinen eine höhere Bedeutung als dem Rest zugeordnet wird. Während die Mehrzahl aller HTML-Elemente[1] Präsentations-Charakter haben, gibt es ein paar, <H1> bis <H6>, <em> und <strong>, <code> und <cite> usw., deren Anwendung von mehreren Suchmaschinen honoriert wird. Suchmaschinen, die die Bedeutung der wenigen semantischen Tags berü cksichtigen, teilen Seiten in virtuelle Container auf, die Ü berschriften, Paragraphen, Tabellenzellen usw enthalten, wobei semantisch markierten Text-Passagen eine höhere Bewertung zugeordnet wird. Andere sehen den Text als eine lange Wortsammlung. Ein fast ü berall besonders hoch bewerteter HTML-Tag ist der Titel einer Seite. Titel einer Seite ist nicht die erste im Browser erkennbare Ü berschrift, sondern die durch <TITLE> gleich zu Beginn einer Datei markierte und von den meisten Browsern im oberen Fensterrand gezeigte Text-Passage. Nachdem bei der Seitenbearbeitung alle HTML-Elemente, Zeichensetzung und Sonderzeichen wie © , $, @ usw entfernt und wichtigen Passagen ggfls besondere Bedeutung zugeordnet wurde, wird der reine Text indiziert. Hierbei werden ü berall Worthäufigkeiten berü cksichtigt, oft zusätzlich auch die Position einzelner Worte. Bei vielen Suchmaschinen ist die sog. Wortdichte und Verteilung und auch die Zahl und Häufigkeit direkter Wiederholungen mit ausschlaggebend. Die Wortdichte, d.h. die prozentuale Häufigkeit eines Wortes, sollte sich im "ü blichen" Rahmen bewegen. Ü blichkeit ist abhängig von Thematik und Zielgruppe. Wissenschaftliche Abhandlungen zeigen fü r Begriffe, die Gegenstand der Arbeit sind, typische Wortdichten von zwei bis etwa sieben Prozent. Texte auf kommerziellen Präsenzen sind meist kü rzer und haben einen geringeren Wortschatz. Hier sieht man Wortdichten bis zu 15%, die aber bereits als extrem gelten. In einer Seite, die nur 5 verschiedene Wörter enthält, hat jedes Wort eine Wortdichte von 20%. Manche Suchmaschinen gehen davon aus, dass Wörter, die gleich am Anfang der Datei gefunden werden, wichtiger sind, als solche, die erst später im Text auftauchen. Andere messen die Distribution fü r jedes oft genug vorkommende Wort, d.h. wie gleichmässig ein Begriff ü ber den Text verteilt wurde. Extreme Wortdichten, unregelmässige oder geballte Verteilung und vielfache sofortige Wiederholung fü hren dort, wo sie berü cksichtigt werden, zu reduzierter Bewertung oder Zurü ckweisung der Seite. Genaue Normwerte und Schwankungsbreiten fü r diese und eine Vielzahl anderer massgeblicher Faktoren der auf den ersten 10 Plätzen ausgegebenen Seiten sehen Kunden nach Suchmaschinen gegliedert in den einmal wöchentlich aktualisierten Ranking-Analysen im Kunden-Bereich. Welche Daten fü r jede Suchmaschine ermitteltet werden, wird anhand einer Beispiel-Analyse erklärt. Eine interaktive Ranking-Analyse erlaubt den Vergleich einer beliebigen Seite mit aktuellen Ranking-Daten. Die folgenden HTML-Tags mü ssen bei der Suchmaschinen-Optimierung berü cksichtigt werden: Weiter >> Glossar: HTML-Elemente Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler nennt für die Suchmaschinen-Position wichtige HTML-Syntax. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 7.2. HTML-Tags für optimale Suchmaschinen -Positionen Je korrekter Ihre Seiten sind, desto genauer lassen sie sich verarbeiten, auswerten und ranken. Korrekt ist hierbei nicht ein manierliches Aussehen in Ihrem Browser, sondern eine hundertprozentig der HTML-Spezifikation entsprechende Anbringung einzelner HTML-Tags. Beim Spidern der Sites betreuter Kunden erfolgt daher eine automatische Ü berprü fung aller Seiten, so dass Fehler berichtigt werden können, bevor sie sich nachteilig auf die Suchmaschinen-Position auswirken. Die wichtigsten HTML-Tags aus Sicht der Suchmaschinen können an den Fingern einer Hand abgezählt werden. Jede Seite muss einen die wichtigsten Suchbegriffe oder Phrasen der Seite enthaltenden Titel haben, der im Kopf der Datei mit dem <TITLE>-Tag gekennzeichnet wird. Der eigentliche Text, untergebracht im <BODY> oder Körper der Seite, wird in mit <P> gekennzeichnete Paragraphen aufgeteilt. Wichtige Begriffe sollten mit <STRONG> oder <EM> und nicht etwa <b> oder <i> markiert werden. Diese Begriffe sollten ebenfalls in den Ü berschriften erscheinen, die mit einem der sechs dafü r vorgesehenen Tags [nach Bedeutung] <H1> bis <H6> gekennzeichnet werden. In den letzten zwei Jahren haben Link-Texte[1], d.h. die Beschreibung eines Links zwischen <a href="..."> und dem den Link abschliessenden </a>, ebenfalls an Bedeutung gewonnen. Während Google und andere auf Link-Popularität setzende Suchmaschinen Link-Texte den Zielseiten zurechnen, gehen manche von der Ü berlegung aus, dass eine Seite, die einen oder mehrere Links mit ähnlichen Link-Beschreibungen auffü hrt, ein der Link-Beschreibung entsprechendes Thema behandelt. Nicht eigentlicher Bestandteil der Seite aber dennoch gelegentlich ausgewertet wird die eigentliche URL, manchmal vollständig, oder bei manchen Suchmaschinen auch auf Domain, Pfad oder Dateinamen begrenzt. Diese Berü cksichtigung kann teilweise nur unter bestimmten Bedingungen erfolgen, z.B. wenn die in Dateiname oder Domain genannten Wörter auch im Seitentext oder in auf diese URL fü hrenden Links vorkommt. Auch diese Entscheidung basiert auf der Erfahrung, dass viele Autoren das Haupt-Thema einer Seite in den Dateinamen ü bernehmen oder eine thematische Domain wählen. Content Management-Systeme sind hier meist im Nachteil, da URLs maschinell generiert werden und aus meist bedeutungslosen alphanumerischen Zeichenketten bestehen. Wie oft der Suchbegriff oder die Formulierung, fü r die eine Seite optimiert wird, im Titel, den Ü berschriften und anderen Tags genannt werden muss, ist von Suchmaschine zu Suchmaschine verschieden. Eine tabellarische Ü bersicht, die wöchentlich aktualisiert wird, zeigt Kunden fü r diese und zahlreiche andere Faktoren die gemessenen Werte fü r tausende auf den ersten 10 Plätzen jeder Suchmaschine ausgegebenen Seiten. Frü her oft berü cksichtigte META-Tags haben bei der Suchmaschinenoptimierung heute nur noch geringe Bedeutung. Weiter >> Glossar: Link-Texte Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler erklä rt, warum der Einsatz von META-Tags oft negative Folgen hat. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 7.3. META-Tags bei der Suchmaschinenoptimierung Meta Tags[1] wurden in den späten Neunzigern als Hilfsmittel zur Seitenbewertung eingefü hrt. Suchmaschinen gingen dazu ü ber, die in der sog. META-Description[2] enthaltene Beschreibung nicht nur zu Darstellungszwecken gelieferter Ergebnisse zu nutzen, sondern sie gleichzeitig in Verbindung mit den Meta Keywords als signifikanten Teil der Seite zu bewerten. META-Tags sind von der Definition her nichts anderes als META-Daten, d.h. Information ü ber Daten. Der ursprü ngliche Verwendungszweck war die inhaltliche Zusammenfassung einer Seite und die Unterbringung von im Text nicht oder nicht ausreichend häufig vorkommenden Synonymen. META-Daten sind nur glaubwü rdig, wenn sie von ausreichend qualifizierten und vor allem unabhängigen Dritten erstellt werden. Beschreibungen, die Sie in manuell erstellten Verzeichnissen finden, sind ebenfalls METADaten: bibliothekarisch geschulte Mitarbeiter eines Verzeichnisses erstellen unabhängig und neutral eine Beschreibung Ihrer Präsenz. Bibliothekare, die einen Katalog vorhandener Bü cher oder Schriftstü cke erstellen, schaffen META-Daten, die Suchenden zu Dienste stehen. Sie werden durch neutrale und qualifizierte Mitarbeiter erstellt und haben Glaubwü rdig- und Aussagefähigkeit und bieten daher Nutzen. Wie vieles, was auf dem Web in der Absicht der Hilfestellung geboten wird, wurden METADaten schnell missbraucht. Während die Anbringung von META-Tags heute noch von Vielen empfohlen wird, wobei die Bauenfängermentalität der selten die wirkliche Arbeitsweise einer Suchmaschine verstehenden Autoren offensichtlich wird, haben sich auch META-Tags inzwischen als sinnvolles Mittel zur Charakter-Beurteilung eines Autors erwiesen. Suchmaschinen machen davon regen Gebrauch. META-Tags, deren Inhalt sich nicht mit dem primären Inhalt einer Seite [oder auch Präsenz] vereinbaren lässt, lassen Warnleuchten aufblinken. Werden META-Keywords mit Begriffen vollgestopft, die vollends themenfremd sind, aber gleichzeitig häufig gesucht werden, ist offensichtlich, dass der Autor versucht, Besucher auf die Site zu lotsen, die kein ursächliches Interesse an der gebotenen Information haben sondern an den in META-Tags nicht sichtbar aufgefü hrten Begriffen und Themen. Solche Seiten werden je nach Ranking-Logik entweder zurü ckgewiesen [und ggfls einer Sperrliste hinzugefü gt] oder erfahren die niedrigste mögliche Bewertung. META-Tags sind heute nur noch dort sinnvoll, wo der Seitenaufbau die Entnahme einer attraktiven und den Besucher von der Relevanz einer Fundstelle ü berzeugenden Passage verhindert, z.B. wenn aus Präsentationsgrü nden Texte in mehrere Spalten [in Tabellen-Form] unterteilt werden. Ein entsprechender Meta Tag, der eine von Ihnen gewählte Description [Beschreibung der Seite] enthält, die auch im Text der Seite vorkommt, vergrössert in solchen Fällen die Chance, dass eine von Ihnen gewählte Text-Passage als Suchergebnis gezeigt wird. Weil ein besserer Seitenaufbau nur positive Auswirkungen haben kann, sind META-Tags aber nicht mehr als eine Notlösung. Keywords sollten tatsächlich nur die wichtigsten in dieser Seite vorkommenden Begriffe enthalten, wobei die Zahl der aufgefü hrten Begriffe selbst bei aggressiver Seitenerstellung nie ein Dutzend ü berschreiten darf. Der Verzicht auf Meta Keywords hat heute keine nachteilgen Folgen. Wenn Sie aus Design- oder anderen Grü nden nicht auf den Einsatz von META-Tags verzichten können, muss jede Seite selbstverständlich eine eigene wohl ü berlegte Beschreibung [Description] haben. Werden obendrein META-Keywords genutzt, gilt auch hier: nur fü r diese Seite relevante Begriffe angeben. Inzwischen berü cksichtigen mehrere Suchmaschinen externe Faktoren beim Suchmaschinenranking. Weiter >> Glossar: Meta Tags, META-Description Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler über seriöse Schritte zur wirksamen Verbesserung der Suchmaschinen-Position. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 7.5. Ranking-Verfahren der Suchmaschinen verstehen und nutzen Fü r die Bewertung einer Seite und die anschliessende Indizierung wird zunächst eine nach Häufigkeiten sortierte Liste der Worte erstellt [u.U. auch Phrasen wie "New York"]. Gleichzeitig wird bei Suchmaschinen, die die Phrasen-Suche unterstü tzen, die Position aller Wörter festgehalten, so dass sich später genaue Wortfolgen in massiven Datenbeständen schnell wiederfinden lassen. Damit lassen sich auch zu häufige direkte Wiederholungen von Begriffen oder Wortfolgen, von meist sich selbst ü berlistenden Bauernfängern in kleiner Schrift in der Hintergrundfarbe einer Seite plaziert, ohne grossen CPU-Aufwand ermitteln. Fü r jedes Wort wird die dann Häufigkeit festgehalten, teilweise auch die Wortdichte, die bei manchen Suchmaschinen zur Qualitätsermittlung normiert wird. Wörter, die im Titel, den Ü berschriften und anderen semantisch betonten Stellen vorkommen, erhalten zusätzliche Gewichtung. Sog. Stop-Worte[1], d.h. besonders häufig vorkommende Bindeworte ohne eigene Bedeutung "der, die, das usw" und je nach Suchmaschine hunderte oder zigtausende andere - werden, wenn keine Phrasensuche unterstü tzt wird, aus der Liste der zu indizierenden Worte entfernt. Unterstü tzt die Suchmaschine die Phrasensuche, wird fü r Stop-Worte nur die Position festgehalten. Fortschrittlichere Suchmaschinen haben zusätzliche Logik, die die Bedeutung bzw. Aussagekraft einzelner Begriffe auswertet. Verallgemeinerungen ohne spezifische Aussage werden so präzisen Informationen untergeordnet. Automatische Verfahren der Klassifizierung eines Seiten-Inhalts [oder aller Seiten einer Präsenz] erlauben obendrein Rü ckschlü sse darauf, ob ein Autor sich tatsächlich mit einem Thema befasst oder ob im Text oft gesuchte aber nicht zum Thema gehörende Begriffe untergebracht wurden. Term Vector[2] und Document Vector[3]-Algorithmen haben, wie viele Bereiche des Information Retrieval, in den letzten Jahren neue Anstösse durch die Notwendigkeit der SpamBekämpfung bzw Mü ll-Entsorgung erhalten. Die Bearbeitung von Informationen aus nicht bekannten Quellen, denen man erfahrungsgemäss oft unredliche oder unehrenhafte Absichten unterstellen muss, zwingt Suchmaschinen aus reinem Selbsterhaltungstrieb, wählerischer zu werden. Die Ranking-Methoden einzelner Suchmaschinen werden selten veröffentlicht. Während bestimmte Algorithmen, wie etwa Google's PageRank in der IR-Literatur dokumentiert sind und manche Suchmaschinen [oft zweifelhafte] Patente besitzen, werden alle ü ber Konfigurations-Einstellungen gesteuert, bei der zahlreiche Parameter angepasst werden können. Veränderte Ranking-Verhalten sind daher nicht immer Konsequenz neuer Software sondern nur einer angepassten Konfiguration, wenn Erfahrungswerte zeigen, dass gewisse Parameter anpassungsbedü rftig sind. Exakte Normwerte, gemeinsame Nenner und Schwankungsbreiten lassen sich nur ermitteln, wenn man regelmässig eine ausreichend grosse Zahl von Seiten analysiert, die fü r eine bekannte Gruppe von Suchbegriffen auf den ersten zehn Plätzen ausgegeben werden. Die hier angebotenen Ranking-Analysen basieren daher auf mindestens 1000 Suchanfragen je Suchmaschine. Bei der Hälfte dieser Anfragen werden sehr häufig gesuchte Wörter gesucht, der Rest nutzt Begriffe aus dem mittleren Bereich der nach Anfrage-Häufigkeit sortierten Datenbank der Suchbegriffe. Abruf und Analyse der Seiten, die als Ergebnis auf diese 1000 Anfragen je Suchmaschine ausgegeben werden, erfolgt maschinell. Insgesamt werden so wöchentlich rund 180,000 bis 220,000 Seiten untersucht [Ü berschneidungen der Suchergebnisse reduzieren die Zahl der insgesamt zu prü fenden Seiten]. Gepaart mit den in langjähriger Praxis gesammelten Erfahrungen, die Kunden zur Verfü gung stehen, zeigen die jede Woche nach Suchmaschinen unterteilten tabellarischen Aufstellungen, wie die Beschaffenheit von Seiten sein muss, die auf einem der ersten Plätze gefunden werden sollen. Gemessen werden u.a. Faktoren wie Wortzahl, Wort-Dichte und Distribution, ob und welche semantischen HTML-Tags wie vorteilhaft sind und ob Domain-, Pfad- oder Dateinamen berü cksichtigt werden. Da in der Praxis bei allen hier beobachteten Suchmaschinen nur zwei oder drei Merkmale fü r die Bewertung ausschlaggebend sind, kann schon die Umbenennung einer Seite, ein ausfü hrlicherer Titel, die Einfü gung wichtiger Suchbegriffe in z.B. <H1>-Tags oder die Anhebung oder Reduzierung der Wortdichte eine wesentliche Positions-Verbesserung auslösen. Alle fü r einen Suchbegriff optimierte Seiten mü ssen aber so erstellt werden, dass sie von den Suchmaschinen nicht als Dublette eingestuft werden, wenn Sie Sperrung vermeiden wollen. Weiter >> Glossar: Stop-Worte, Term Vector, Document Vector Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler zeigt, wie Suchmaschinen Dubletten erkennen und welche Konsequenzen ausgelöst werden. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 7.6. Wie Suchmaschinen Dubletten erkennen Dubletten-Erkennung ist fü r Suchmaschinen mit halbwegs fortschrittlicher Technologie kein Problem. Dubletten sind, aus Sicht der Suchmaschinen, nicht nur tatsächliche Kopien einer Datei abgelegt unter anderem Dateinamen, sondern inhaltlich ü bereinstimmende oder nur geringfü gig voneinander abweichende Seiten. Dubletten sind aber nicht nur auf einem Server mehrfach untergebrachte Seiten, sondern auf dem Web mehrfach gefundene Seiten. Die eigentliche Erkennung einer doppelten Seite ist vergleichsweise einfach. In der Praxis wird fü r einen Datensatz eine Chiffriersumme nach einem Verfahren errechnet, das sicherstellt, dass jede Informationseinheit eine eigene Chiffriersumme erzeugt. Hiefü r eignet sich z.B. das von RSA Data Security, Inc. gebotene MD5-Verfahren, das nur wenige CPUZyklen beansprucht, um eine Chiffriersumme zu berechnen. Unabhängig von der Länge einer Dateneinheit ist jede Chiffriersumme 16 Bytes lang. Unterschiede gibt es nur bei der Basis der Berechnung der Chiffriersumme. Nimmt man die von einem Web Server abgerufene HTML-Seite im Rohzustand, fü hrt die Anbringung eines einzigen Leerzeichens oder die Veränderung eines einzigen Buchstabens in der Datei zu einer anderen Chiffriersumme. Suchmaschinen setzen deshalb auf eine andere Basis: man nimmt den inhaltlichen Schwerpunkt einer Datei als Berechnungsgrundlage, z.B. das mittlere Drittel der nach Häufigkeiten sortierten Wortliste, wie bei AltaVista's Term Vector-Ermittlung. Dubletten im technischen Sinne sind auch Seiten, die ü ber mehrere URLs erreicht werden können. Kann eine Datei z.B. ü ber www.domain.com/datei.html und ü ber domain.com/datei.html erreicht werden, haben Sie eine Dublette erzeugt, obwohl die Datei nur einmal existiert. Suchmaschinen, die nicht erkennen, dass www.domain.com und domain.com auf den gleichen Server fü hren, können hier Spam vermuten. Es empfiehlt sich daher, nur eine der beiden möglichen Domainnamen zu propagieren, mehr noch, den Server so zu konfigurieren, dass Seiten nur ü ber eine der beiden Domains abgerufen werden können, während die andere ein Redirect auf die wü nschenswerte auslösen sollte. Eine weitere Dublette entsteht unbeabsichtigt, wenn Sie von manchen Ihrer Seiten auf die Hauptseite ohne Dateiname und von anderen unter Angabe des Dateinamens verweisen: www.xyz.com/ und www.xyz.com/index.html sind zwei verschiedene URLs die auf den gleichen Inhalt verweisen. Dubletten im rechtlichen Sinne erzeugen Sie, wenn Sie mit sog. Subdomains arbeiten, einer Einheit, die von Marketing-Leuten gerne eingesetzt wird und dem Begriff Subdomain mangels technischem Verständnis eine nicht beabsichtigte Bedeutung geben. Gemeint ist mit der Praxis die zusätzliche Nutzung diverser Domainnamen, wobei ein Server so konfiguriert wird, dass diese Domains auf Unterverzeichnisse einer Sammelpräsenz verweisen. Verständlich wird die von Nichttechnikern geü bte Praxis, wenn Sie sich verdeutlichen, dass www.bekleidung.com die folgenden Verzeichnisse auf dem Server betreibt: /hosen/ /jacken/ /schuhe/ und die folgenden URLs durch Anmeldung oder eigenständiges Spidern der Suchmaschinen indiziert wurden: www.bekleidung.com/hosen/ www.bekleidung.com/jacken/ www.bekleidung.com/schuhe/ "Sub-Domains" im Marketing-Sinn entstehen, wenn zusätzlich www.hosen.com , www.jacken.com und www.schuhe.com als Domain registriert werden und jede der zusätzlichen Domains auf ein oder mehrere Unterverzeichnisse des unter www.bekleidung.com betriebenen Servers zeigen, wenn also www.hosen.com/ die Seiten liefert, die unter www.bekleidung.com/hosen/ ebenfalls abgerufen werden können usw. Sub-Domains im technischen Sinne sind in der das Thema Netz-Topologie behandelnden Fachliteratur dokumentiert. Oft kommt es zur Sperre aber nur, weil Suchmaschinen gedankenlos erstellte Dubletten entdecken. Weiter >> Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler zeigt, wie unbeabsichtigte doppelte Seiten und deren Konsequenzen verhindert werden. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 7.7. Wie gedankenlos erstellte Dubletten zur Suchmaschinen Sperre führen Unü berlegt oder gelegentlich gar rü cksichtslos handelnde Web-Verantwortliche, die Suchbegriffe mit aussergewöhnlich hohem Wettbewerb einsetzen, versuchen oft mit Gewalt, einen der besseren Plätze zu belegen. Und haben damit gelegentlich noch kurzfristig Erfolge bei kleineren Suchmaschinen mit minimaler Technik. Nicht gerechtfertigter oder durch zweifelhafte Massnahmen erzielter Erfolg auf dem Web ist aber erstaunlich kurzlebig, vor allem wenn man berü cksichtigt, dass dieser nur bei Suchmaschinen mit relativ simpler Logik erzielt wird. Wer Software einsetzt, um hunderte oder gar tausende von ähnlichen Seiten zu erstellen, die sich nur durch die Häufigkeit des angestrebten Suchbegriffes unterscheiden und inhaltlich keine differenzierte Aussage enthalten, ü bersieht, dass selbst einfache Suchmaschinen wissen, welche Suchbegriffe und Formulierungen besonders hohem Wettbewerb ausgesetzt sind. Regelmässige Stichproben durch Qualitätskontrolleure und sog. Spam-Bekämpfer zeigen, wer sich durch Manipulationsversuche ungerechtfertigte Vorteile erschleichen konnte und fortan gesperrt wird. Aber auch wenn Qualitätskontrolleure durch Urlaub, Krankheit oder Arbeitsü berlastung den Möchtegern-Bauernfängern nicht sofort auf die Schliche kommen, mü ssen diese mit der Aufmerksamkeit der Mitbewerber rechnen. Viele Site-Betreiber, die selbst seriös arbeiten, sind bei Suchmaschinen wie z.B. Fireball dafü r bekannt, dass jeder Verstoss der Konkurrenz nicht ohne Eigennutz - gemeldet wird. Genauso bekannt sind allerdings auch Web-Verantwortliche, die ständig versuchen, neue Tricks aus dem Hut zu ziehen und Mitbewerber, die sich genauso verhalten, anschwärzen. Da manche Suchmaschinen dem Domainnamen beim Ranking berü cksichtigen, mü ssen beim Einsatz zusätzlicher Domainnamen zum Zweck der Suchmaschinenoptimierung Dubletten um jeden Preis verhindert werden. Weiter >> Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler zeigt, warum Anpassung von Web-Seiten auf verä nderte RankingMethoden wirkungslos ist. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 7.11. Reaktion auf ver änderte Ranking-Methoden der Suchmaschinen Schon das letzte Kapitel zeigte, warum Seitenanpassung bei Veränderung der RankingMethode der Suchmaschinen zum Bumerang werden kann. Das AltaVista-Beispiel ist aber kein Einzelfall. Oft werden veränderte Konfigurations-Parameter oder Algorithmen nach kurzer Zeit wieder durch die ursprü nglichen ersetzt, weil die Praxis nicht immer theoretische Modelle bestätigt. Wer auf jede Methodik-Veränderung mit Seiten-Anpassungen reagiert, hinkt ständig hinterher. Besser ist es, bei deutlichen Veränderungen der Charakteristiken einer Suchmaschine eine diesen Eigenschaften entsprechende neue Seite unter neuer URL zu erstellen und wie eine neue Umgehungsstrasse zu verlinken. Die bisherige Seite wird fü r Besucher Ihrer Site, die systematisch alle Links verfolgen, dadurch zwar unsichtbar, nicht aber fü r Suchmaschinen. Eine einmal im Bestand gehaltene [und somit als aufnahmewü rdig beurteilte] Seite wird nicht immer daraufhin geprü ft, ob sie noch durch Links erreicht werden kann [manche Suchmaschinen haben gar Schwierigkeiten, auf Ihrem Server gelöschte Seiten und nicht mehr verlinkte Seiten aus den Datenbeständen zu entfernen]. Und wo eine solche Prü fung erfolgt, haben externe Links mehr Gewicht als interne. Der Vorteil dieser Verfahrensweise liegt auf der Hand: werden neue Konfigurationen oder Algorithmen wieder durch ältere ersetzt, erscheint die unveränderte Seite wieder ohne Ihr Zutun auf einer ähnlichen oder vielleicht gar der gleichen Position wie vor der Umstellung. Datenaustausch ist ein weiterer Grund, warum etablierte Seiten manchmal anscheinend grundlos untergehen - auch hier selten permanent. So wird bei Excite immer wieder beobachtet, dass fü r eine Suchanfrage wochenlang eine statische Ergebnisfolge ausgegeben wird, die dann durch eine völlig neue abgelöst wird. Mehrere Wochen später wird das neue wieder durch das alte Set ersetzt. Betroffen sind hier ü berwiegend Suchmaschinen, die kleinere Datenbestände verwalten und Aktualität durch regelmässigen Austausch von Teilbeständen fast schon simulieren. In der Zeit vom 27.8. bis zum 20.10.1999 habe ich fü r viele Suchmaschinen gemessen, wie stabil eine einmal erreichte Position ist. Zu diesem Zweck wurden fü r häufig gesuchte Begriffe wie Marketing, mp3, Chat usw. automatisierte Anfragen an Suchmaschinen gerichtet. Die ersten zehn Ergebnisse wurden am 27.8. notiert. Anschliessend wurde täglich geprü ft, wie oft die am ersten Tag des Beobachtungszeitraums an erster Stelle einer Anfrage ausgegebene Seite auch weiterhin zumindest unter den ersten zehn ausgegebenen Ergebnissen erschien. Wie sicher ist die Suchmaschinen-Position Prozent: 0% Acoon.de AllTheWeb 100% AltaVista AOL AOL.de AOL.co.uk Excite Excite.de Excite.co.uk Fireball.de HotBot InfoSeek.de Lycos.co.uk Lycos.de Mirago.co.uk NorthernLight Sear.ch Search.ch WebCrawler Zeitraum: 27.8. bis 20.10.1999 Eine fortlaufende Ü bersicht zeigt Kunden täglich, wie häufig Suchmaschinen heute Ranking oder Datenbasis verändern und, unterteilt nach Suchmaschinen, welche Sites fü r eine Suchformulierung immer wieder unter den ersten 10 Ergebnissen erscheinen. Die Versuchung, auf Suchmaschinen-Tricks und Kunstgriffe zurü ckzugreifen, ist gross. Ihr muss, wenn Sie nicht die permanente Sperre riskieren wollen, trotzdem widerstanden werden. Weiter >> Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email. Suchmaschinen-Entwickler über Prä zision bei der Suchmaschinen-Optimierung. Da die in diesem Tutorial behandelten Themen aufeinander aufbauen, wird empfohlen, hier anzufangen. 11. Suchmaschinenoptimierung mit Präzision Präzise, auf Anhieb sitzende Suchmaschinenoptimierung und damit eine erstklassige Position ist nur möglich, wenn 1. Ihre Web-Seiten die Suchbegriffe enthalten, die von Ihren Anwendern besonders häufig gesucht werden, und wenn diese Formulierungen an den entscheidenden Stellen Ihrer Seiten genannt werden. 2. Ihre Seiten so aufgebaut sind, wie die von den wichtigsten Suchmaschinen heute zuerst ausgegebenen Seiten [und damit den ausschlaggebenden Charakteristiken der Suchmaschinen entsprechen]. Als Betreiber einer kommerzieller Präsenz können Sie hier sofortigen Zugriff auf Datenbanken und Tools kaufen, die Ihnen entscheidende Fakten fü r die Suchmaschinenoptimierung Ihrer Seiten geben und die systematische Verbesserungen ermöglichen. Als Kunde erhalten Sie: 1. Zugriff auf die keyDB-Datenbank. Diese rund um die Uhr aktualisierte Datenbank enthält ca 10 Mio Suchbegriffe und Formulierungen, wie sie von Web-Anwendern bei Suchmaschinen eingetippt werden. Damit sehen Sie auf Anhieb, wonach die Mehrzahl Ihrer potentiellen Kunden sucht. Nur wenn diese Begriffe im Text Ihrer Seiten enthalten sind, werden diese gefunden. 2. Eine wöchentliche Zusammenstellung aller fü r Ihre Präsenz relevanten neuen Suchbegriffe und Formulierungen, damit Sie auf Trends und Entwicklungen schnell reagieren können. 3. Eine wöchentliche Ranking-Analyse, die Ihnen zeigt, welche Suchmaschinen worauf Wert legen. Wird fü r alle Suchmaschinen erstellt, die fü r deutsch- und englischsprachige Präsenzen marktbedeutend sind. 4. 14tägliches Spidern Ihrer Seiten, wobei gleichzeitig eine HTML-Prü fung, Erstellung eines Site- und eines Seiten-Status-Reports erfolgt, damit mögliche Fehler, z.B. fehlerhafte oder nicht mehr existierende Links auf fremde Seiten, korrigiert werden können. 5. Eine 14tägliche Suchbegriffs-Analyse, die Ihnen zeigt, ob Sie die vorgegebenen Suchbegriffe hä ufig genug einsetzen und welche Seiten angepasst werden müssen. Wird fü r jede Ihrer Seiten und jeden vorgebenen Suchbegriff erstellt. 6. Ein wöchentlicher WebRank-Report, der Ihnen fü r die von Ihnen vorgegebenen Suchbegriffe zeigt, welche Position Sie bei welchen Suchmaschinen belegen. 7. Tä gliche Überprüfung und Fortschreibung Ihrer Suchmaschinen-Position fü r den wichtigsten Suchbegriff bei allen beobachteten Suchmaschinen. So erkennen Sie sofort, wenn Mitbewerber Ihre Position streitig machen. 8. Zugriff auf detaillierte Informationen im Kunden-Bereich. Die nächsten sechs Seiten informieren ausfü hrlich ü ber den gebotenen Service. Die dabei berü cksichtigten Suchmaschinen und deren Einschränkungen finden Sie in der Suchmaschinen-Liste. Häufig gefragte Suchbegriffe und Formulierungen können interaktiv recherchiert werden. Weiter >> Toolbox-Startseite Kunden-Login Top10-Plazierung Testen Sie Ihre Site Jetzt Kaufen Gratis-Newsletter Suchmaschinen-News Glossar Copyright © 2002 Klaus Schallhorn Omnisearch. Kontakt-Details: Anschrift, Telefon, email.