Montag, 1. April 2013

2.4.13

Google instant
damit Suchbegriffe finden
auch Google suggest - unten auf Google Seite

Denig Abfrage Domain buchen
nicht tiefer als drei Ebenen gehen

Bogbeiträge URL Name, Jahr, Monat...dann erst Thema

Google Crawler 200Meldung von Server , 500 als Fehler unklarer, nicht definierter Fehler
404 Fehler Error nicht gefunden -
Webmaster Tools

am Anfang Sitemap anmelden -

Markup Validation Service
Fehler suchen bei Seite
w3c tags 
testen mit seo quake Keyworddichte


Keywords unwichtig für Google, aber noch von Bedeutung für yahoo, bing
sehr wichtig Description

trusted rank von Wikipedia, no follow bei Wikipedia Links in Kommentaren
meine Stadt, gelbe Seiten, Branchenführer, auf no follow gesetzt Suchmaschinen listet die Links dieser Seiten nicht

meine Stadt Datenlieferung für Google Places - 400 Euro Eintrag mit Backlink
Stadtbranchenbuch, gelbe Seiten 400 Euro für Link dann oben gelistet

dmoz.de open directory project

Wikipedia Meta Elements

meta name "robots" content="nofollow" /" Link aufnehmen mit no follow, also ohne Backlink

webconfs.com crawler

Keywords müssen oben und in h1 und h2 stehen

auf Serverseite Gedanken machen
Reiter mit Keywords
suchmaschinenfreundliche URLs
ht access robots.txt
benutze suchmasch. freundliche URLs
Einstellungen
permalinks
Beitragsname
google + Profil kann er nicht lesen

Medien organisiere meine Uploads .... Häkchen rausnehmen
technisch gesehen zwei Websites mit und ohne www. schlecht
double paid content schlecht für SM
3.01 Weiterleitung
alle unte. Domains müssen auf eine Seite zeigen

htaccess 301

Server sagen bitte weiterleiten auf Hauptseite
301 Weiterleitung Crawler bitte weiterleiten

Legen Sie im Hauptverzeichnis Ihrer Datei folgende .... ab
Code einfügen
mod rewrite
pressebüroaltona auf pressebuero-altona weiterleiten
speichern unter .htaccess unter alle Dateien
gehört in Stammverzeichnis des Servers

Verzeichnisse mit Passwörtern versehen

Metaangabe robots.txt

im Hauptverezichnis Crawler steuern
Verzeichnisse, Bilder, Downloads,  aussperren nicht in Google Indizierung und Suchmaschinen
http://de.selfhtml.org/diverses/robots.htm#speicherort_aufbau 

# robots.txt zu http://www.example.org/

User-agent: UniversalRobot/1.0
User-agent: mein-Robot
Disallow: /quellen/dtd/

User-agent: *
Disallow: /unsinn/
Disallow: /temp/
Disallow: /newsticker.shtml
 

 
 



Keine Kommentare:

Kommentar veröffentlichen