Suchmaschinen
- Google: Web, News, Bilder, Shopping, Verzeichnis
- Bing - der Nachfolger von msn-livesearch
- Yahoo: Web, News, Bilder, Audio, Video, Verzeichnis
- Tineye - Ähnlichkeitssuche für Bilder
- Wolfram alpha - ein Faktensuchmaschine
Anmeldung von Webseiten bei Suchmaschinen
- Bing (Kontrolle über Bing Webmaster )
- Google (Kontrolle über Google Webmaster tools)
lokale Suchmaschinen
- solr - standalone full-text search server
Distributed Search Engines
Google Trends: Suchwörter und ihre Häufigkeite (auch historisch) verfolgen und nach Regionen, Städte und Sprachen aufschlüsseln. Zur Demonstration hier das Suchwort "sex" (ratet mal wer danach am meisten sucht?)
Suchmaschinenoptimierung (SEO)
wenn man dieses Wort bei Google eingibt, dann sieht man wer sich alles in die Top-Treffer reinspammen kann.
- Das Onlinehandbuch der Suchmaschinenoptimierung ist allerdings richtig lesenswert.
- Suchmaschinenoptimierung für Einsteiger: Nette Einführung, Beispiel: Externe Kriterien.
XML-Sitemap
- Sitemaps XML format - der Sitemap-Standard
SEO-Tools
Was ist relevant?
- guter Inhalt, der bringt
- viele Links auf die eigenen Seiten, am besten mit dem Keyword als Linktext
- besonders wichtig: Links von guten (also von Google oder anderen Suchmaschinen gut bewerteten) Seiten (Stichwort: Pagerank)
- Keywords in Titel, URL
- hohe Keyworddichte (sollten mehrfach auf der Seite vorkommen)
- Standardkonforme Seiten
- man muss von Google ein gewisses Vertrauen haben, baut sich erst mit der Zeit auf (halbes bis dreiviertel Jahr)
- modernes (x)html, CSS. Frames sind nicht so gut, da sie einzeln indiziert werden und beim surfen der Treffer die Besucher teilweise ohne Navigation sind.
- manchmal kann man durch Linktausch oder bezahlte Links auf „guten“ Seiten relevanter werden
SEO-Maßnahmen
der Pagerank wird meist überschätzt, er ist nur ein Indikator unter vielen
Keywords
- passenden Keyword recherchieren (oft benutzten (Be-)sucher andere Wörter als man selbst!)
- Dienste für keyword-synonyme
- nur eine URL wird für ein bestimmtes Keyword/eine bestimmte Keywordkombination optimiert
- das (die) Keyword(s) im Titel (title) und in der Überschrift (h1, h2) vorkommen lassen
- passende und individuelle Meta-Descriptions und Titel!
- Linktexte sollten das keyword enhalten, auch bei internen Links und images-Links (alt-Tags)
On-page
- Periodische Aktualisierungen (am besten auch mit Inhalt;-))
- Optimierung des Quellcodes
- Optimierung der Meta Tags
- Optimierung des Inhalts (Contents)
- Optimierung interner Verlinkungen
- Rangplatzüberwachung bei wichtigen Suchmaschinen
- (Statistiken über Besucherverhalten)
- nur eine URL zu einem Content
- keine (sichtbaren) Parameter in der URL: statt
index.php?do=print
lieberindex.php/print
- keine Session-IDs in der URL
- Trennzeichen in der URL: nur - oder /. Durch das oft benutzte _ wird von Google die Trennung nicht erkannt!
- Sonderzeichen in der URL ersetzen
- Begrenzungen
- Titel: ca. 60 Zeichen
- URL: am besten bis ca. 100 Zeichen, max. 200 Zeichen
- Linktiefe: max. 6 Ebenen, bei Blätternavigation alle Seiten angeben (Seite 1, 2, 3, …)
- Anzahl der Seiten im Index begrenzt, Subdomains benutzen.
Off-page
- Erhöhen der Linkpopularität
- Linktausch: Andere Webmaster um einen Links bitten (meist gegenseitig)
- bezahlen: Das ist eigentlich gegen Google-Richtlinien. Man sollte also nicht übertreiben und möglichst nur auf Themenverwandten Seiten Links kaufen.
- Kriterien damit ein Link zählt
- direkter Link ohne Weiterleitung über Adserver o.ä.
- die verweisende Seite muss im Google-Index vorhanden sein
- der Link darf nicht mit dem rel=“nofollow“ Attribut versehen sein (damit zählt er für google nicht)
- verweisende Seite ist nicht von einem Google-Filter betroffen
externe Verweise finden
Suchmaschine | Link auf domain | Link auf konkrete Seite |
---|---|---|
Google (nur unvollständige Angaben, besser die webmaster-tools oder Google-Analytics verwenden) | domain:domain.de | link:http://domain.de |
MSN | geht nicht | |
Yahoo | linkdomain:domain.de | link:http://domain.de |
Externe Verweise lassen sich auf den Log-Dateien des Webservers (über Referrer) zuverlässiger finden.
Robots
robots.txt mit Apache setzen:
Alias /robots.txt /etc/apache2/robots.txt
ggf. „Require all granted“ dazu oder bei reverse-Proxy: ProxyPass /robots.txt !