damit Suchbegriffe finden
auch Google suggest - unten auf Google Seite
Denig Abfrage Domain buchen
nicht tiefer als drei Ebenen gehen
Bogbeiträge URL Name, Jahr, Monat...dann erst Thema
Google Crawler 200Meldung von Server , 500 als Fehler unklarer, nicht definierter Fehler
404 Fehler Error nicht gefunden -
Webmaster Tools
am Anfang Sitemap anmelden -
Markup Validation Service
Fehler suchen bei Seite
w3c tags
testen mit seo quake Keyworddichte
Keywords unwichtig für Google, aber noch von Bedeutung für yahoo, bing
sehr wichtig Description
trusted rank von Wikipedia, no follow bei Wikipedia Links in Kommentaren
meine Stadt, gelbe Seiten, Branchenführer, auf no follow gesetzt Suchmaschinen listet die Links dieser Seiten nicht
meine Stadt Datenlieferung für Google Places - 400 Euro Eintrag mit Backlink
Stadtbranchenbuch, gelbe Seiten 400 Euro für Link dann oben gelistet
dmoz.de open directory project
Wikipedia Meta Elements
meta name "robots" content="nofollow" /" Link aufnehmen mit no follow, also ohne Backlink
webconfs.com crawler
Keywords müssen oben und in h1 und h2 stehen
auf Serverseite Gedanken machen
Reiter mit Keywords
suchmaschinenfreundliche URLs
ht access robots.txt
benutze suchmasch. freundliche URLs
Einstellungen
permalinks
Beitragsname
google + Profil kann er nicht lesen
Medien organisiere meine Uploads .... Häkchen rausnehmen
technisch gesehen zwei Websites mit und ohne www. schlecht
double paid content schlecht für SM
3.01 Weiterleitung
alle unte. Domains müssen auf eine Seite zeigen
htaccess 301
Server sagen bitte weiterleiten auf Hauptseite
301 Weiterleitung Crawler bitte weiterleiten
Legen Sie im Hauptverzeichnis Ihrer Datei folgende .... ab
Code einfügen
mod rewrite
pressebüroaltona auf pressebuero-altona weiterleiten
speichern unter .htaccess unter alle Dateien
gehört in Stammverzeichnis des Servers
Verzeichnisse mit Passwörtern versehen
Metaangabe robots.txt
im Hauptverezichnis Crawler steuern
Verzeichnisse, Bilder, Downloads, aussperren nicht in Google Indizierung und Suchmaschinen
http://de.selfhtml.org/diverses/robots.htm#speicherort_aufbau
# robots.txt zu http://www.example.org/ User-agent: UniversalRobot/1.0 User-agent: mein-Robot Disallow: /quellen/dtd/ User-agent: * Disallow: /unsinn/ Disallow: /temp/ Disallow: /newsticker.shtml
Keine Kommentare:
Kommentar veröffentlichen