Technische Optimierungsmöglichkeiten für Ihre
Transcription
Technische Optimierungsmöglichkeiten für Ihre
Technische Optimierungsmöglichkeiten für Ihre Webseiten Sie haben an Ihrer Webseite in Sachen Suchmaschinen-Optimierung schon einiges getan: Der Quelltext Ihrer Homepage sieht gut aus, die Inhalte sind informativ. Sie haben Ihre Seite bei diversen Suchmaschinen erfolgreich angemeldet und auch die wichtigsten Kataloge Ihrer Branche sind mit Beschreibungen und mit Links zu Ihrem Auftritt versorgt. Jenseits hiervon gibt es noch ein paar technische Kniffe, die Sie kennen sollten, um Ihr Suchmaschinen-Marketing abzurunden und laufend kontrollieren zu können. Google Webmastertools – Sitemaps und robots-Dateien einsetzen Zur Kontrolle der Position Ihrer Webseite bei google.de gibt es die google–Webmastertools, die Sie kostenlos nutzen können (siehe http://www.google.de/webmasters/ ). Sie benötigen hierfür ein google%Konto, mit dem Sie Zugriff auf eine Reihe von gesperrten Bereichen erhalten. Nach dem Login in die Webmastertools finden Sie eine Liste der von Ihnen verwalteten Seiten, zu denen Sie diverse Auswertungen anschauen können. Eine der interessantesten Möglichkeiten, den Inhalt Ihrer Webseite im google%Index zu verwalten ist hierbei der Einsatz einer google%Sitemap. Mit der Sitemap teilen Sie google.de genau mit, welche Seiten zur Ihrer Homepage gehören und welche Bedeutung Sie der einzelnen Seite beimessen. Ob google.de bei der Bewertung der Inhalte diese Zuweisung berücksichtigt oder nicht, ist nicht umittelbar erkennbar. Ist allerdings eine Sitemap%Datei vorhanden, dann wird diese in der Regel sehr kurzfristig von google.de ausgewertet und auch regelmäßig auf Aktualisierungen überprüft. Wenn Sie die Sitemap erstellen und diese für Ihre Homepage anmelden möchten, müssen Sie das Format der google%Sitemap genau einhalten und diese als Datei mit dem Namen „sitemap.xml“ in das Wurzelverzeichnis Ihres Webservers ablegen. Die Sitemap lässt sich in einem einfachen Text%Editor wie zum Beispiel WordPad erstellen. Kopieren Sie hierfür das Beispiel und passen Sie es Ihrem Inhalt an. Wesentlich ist, dass Sie für jede einzelne Seite Ihrer Homepage, die Sie dort auflisten, einen Datensatz in der Sitemap befüllen (Datensatz befindet sich zwischen <url> und </url>), in dem die URL der Datei angegeben ist (Angabe zwischen <loc> und </loc>, wann diese Datei zuletzt aktualisiert wurde (zwischen <lastmod> und </lastmod>), wie dicht der voraussichtliche Änderungsturnus ist (zwischen <changefreq> und </changefreq> und wie hoch die Bedeutung der Seite im Zusammenhang Ihres Internet%Auftritts bewertet wird (<priority> und </priority>. Hierbei ist ein Wert von 0.5 als durchschnittlich anzusehen; der Wert 1.0 weist Seiten mit herausragender Bedeutung (im Beispiel die Startseite) aus. Beispiel für eine sitemap.xml <?xml version="1.0" encoding="UTF-8" ?> <urlset xmlns="http://www.google.com/schemas/sitemap/0.84"> <url> <loc>http://www.tops.net/default.htm</loc> <lastmod>2007-07-29</lastmod> <changefreq>weekly</changefreq> <priority>1.0</priority> </url> <url> <loc>http://www.tops.net/datenschutz.htm</loc> <lastmod>2007-05-08</lastmod> <changefreq>monthly</changefreq> <priority>0.7</priority> </url> <url> <loc>http://www.tops.net/partner.htm</loc> <lastmod>2007-05-31</lastmod> <changefreq>monthly</changefreq> <priority>0.5</priority> </url> </urlset> Ist das erledigt, melden Sie über die google%Webmastertools für die betreffende Homepage die Sitemap zur Prüfung an. Unter „Typ auswählen“ geben Sie „Allgemeine Web%Sitemap hinzufügen“ an. War Ihr Versuch erfolgreich, dann zeigt Ihnen das Tool nach ein paar Tagen dieses Ergebnis: Das Gegenteil einer Sitemap ist die robots%Datei. Mit Hilfe der robots%Datei legen Sie nämlich fest, welche Bereiche Ihrer Homepage nicht für die Öffentlichkeit bestimmt sind. Auch hier handelt es sich um eine schlichte Text%Datei, die im Wurzelverzeichnis Ihrer Homepage abgelegt wird und in der aufgelistet ist, welche Verzeichnisse und Dateien die Crawler und Robots der Suchmaschinen der Verschlagwortung nicht berücksichtigen sollen. Mit „User%Agent: *“ legen Sie fest, dass der Inhalt Ihrer Webseite für alle Suchmaschinen zugänglich sein soll. „Disallow“ leitet jeweils ein, welche Verzeichnisse von der Verschlagwortung ausgeschlossen sein sollen. Geben Sie jede Anweisung in einer eigenen Zeile an. Sie können selbstverständlich auch einzelne Dateien angeben. Unter http://www.goldmann.de/robots%suchmaschine%steuern_tipp_459.html finden Sie eine ausführliche Beschreibung, wie Sie die Angaben gestalten müssen. 2 web by step lucie prinz + tamas lanyi gbr muehlenweg 31 53619 rheinbreitbach Tel.: 02224 - 77 97 66 Fax: 02224 - 77 97 99 Internet: www.web-by-step.de Beispiel für die robots.txt User-agent: * Disallow: Disallow: Disallow: Disallow: Disallow: Disallow: Disallow: Disallow: /admin/ /agb/ /ma/ /service/ /inc/ /scripte/kontakt.asp /temp/ /txt/ Die google%Webmastertools bieten auch für die robots.txt eine aussagekräftige Auswertung: Homepages mit mehreren Domainnamen Ein Problem stellt die Verwendung mehrerer Domainnamen für ein und dieselbe Webseite dar. Nicht die Tatsache, dass und wie viele Domains zum gleichen Ziel führen, ist hierbei ausschlaggebend, sondern die Art und Weise, wie das technisch erreicht wird: Wird etwa auf der Startseite eines Webauftritts erst nach dem Laden der Seite eine automatische Weiterleitung (zum Beispiel über das Meta%Element refresh mit: <meta http%equiv="refresh" content="0; URL=http://www.domainname2.de>) aktiviert, so stellt das für die Suchmaschine im Zweifel eine missbräuchliche Nutzung dar, die zum Ausschluss der Webseite aus dem Index führen kann. Bei www.seitwert.de können Sie Ihre Domain auf solche Probleme prüfen: Nach der Auswertung Ihre Domain durch dieses Tool erhalten Sie unter der Rubrik „technische Details“ Hinweise darauf. Wenn Sie mehrere Domains oder zum Beispiel Schreibweisen mit oder ohne vorangestelltem „www“ für die Adressierung Ihrer Homepage verwenden, sollten Sie Ihren Webmaster oder Provider bitten, diese Weiterleitungen als so genannte „301 Weiterleitung“ (Permant Redirect) einzurichten. 3 web by step lucie prinz + tamas lanyi gbr muehlenweg 31 53619 rheinbreitbach Tel.: 02224 - 77 97 66 Fax: 02224 - 77 97 99 Internet: www.web-by-step.de Die ideale Verzeichnistiefe Für Suchmaschinen sollte es eigentlich egal sein, wie Sie die Seiten auf Ihrem Webserver strukturieren. Oftmals werden aber im Vertrauen darauf, dass das nichts ausmacht, viele Rubriken ineinander verschachtelt, so dass die eigentlichen Inhaltsseiten schnell auf der fünften oder sechsten Ebene im Verzeichnisbaum landen. google.de aber zieht die Position einer Datei im Verzeichnisbaum sehr wohl als Kriterium für die Relevanz einer Datei heran. Bei http://web%coach.org/webdesign%suchmaschinen.php kommt man zu dem gleichen Schluss: Achten Sie darauf, dass die Inhaltsseiten nicht weiter als bis zu dritten Ebene verschachtelt sind. Legen Sie am besten nur funktional sinnvolle Unterverzeichnisse fest, in denen etwa die Grafiken und Scripte oder auch die Administration Ihrer Homepage oder andere Sprachversionen hinterlegt werden. Die eigentlichen Seiten können Sie ohne Probleme direkt im Wurzelverzeichnis ablegen. Checkliste: • Konto bei google anlegen, um die Webmaster%Tools nutzen zu können • sitemap.xml und robots.txt erstellen auf in das Wurzelverzeichnis Ihres Webservers kopieren. • Unter http://www.seitwert.de prüfen, wie die technische Aufbereitung Ihrer Homepage bewertet wird. Bei Verwendung von mehreren Domains oder Domainvarianten darauf achten, dass die Weiterleitungen auf die Hauptdomain als Permanent Redirect eingerichtet wurden. • Wenn Sie eine Webseite neu anlegen achten Sie darauf, dass relevante Inhaltseiten nicht tiefer als in der dritten Verzeichnisebene abgelegt sind. Bei bestehenden Seiten können Sie das nach und nach abändern. Autorin: Lucie Prinz, web by step Copyright: web by step 2008 4 web by step lucie prinz + tamas lanyi gbr muehlenweg 31 53619 rheinbreitbach Tel.: 02224 - 77 97 66 Fax: 02224 - 77 97 99 Internet: www.web-by-step.de