Suchmaschinenoptimierung (SEO)

Traffic Tipps Suchmaschinen

Suchmaschinenoptimierung (SEO)

Der SEO-Dschungel ist für SEO-Anfänger aber auch für Fortgeschrittene kaum noch zu überblicken. Dazu kommt, dass fast täglich Änderungen an Algorithmen (z.B. bei Google) oder Suchmaschinenmethoden gemacht / gefordert werden. Um dem Ganzen ein wenig entgegenzuwirken werden hier immer aktuelle Techniken bezüglich Suchmaschinenoptimierung vorgestellt, besprochen und ggf. mit Beispielen verdeutlicht. Außerdem werden diverse Grundlagen, SEO-Tipps & Vorgehensweisen erläutert und auch dort ggf. Beispiele gegeben.

SEO Hinweise Sitemaps

Traffic Tipps Suchmaschinen

Was sind Sitemaps?

Sitemaps stellen eine einfache Möglichkeit für Webmaster dar, Suchmaschinen Seiten auf Ihren Websites zu melden, die zum Durchsuchen verfügbar sind. In ihrer einfachsten Form entspricht die Sitemap einer XML-Datei, in der URLs für eine Website sowie zusätzliche Metadaten über jede URL (wie Datum der letzten Aktualisierung, Änderungshäufigkeit, Wichtigkeit der URL im Vergleich zu anderen URLs auf der Website) aufgeführt sind, was den Suchmaschinen ein intelligenteres Durchsuchen von Websites ermöglicht.

Web-Crawler ermitteln normalerweise Seiten aufgrund von Links innerhalb der Website und über andere Websites. Sitemaps ergänzen diese Daten, um Crawlern, die Sitemaps unterstützen, zu erlauben, alle URLs in der Sitemap aufzunehmen und Informationen über diese URLs anhand der verknüpften Metadaten zu ermitteln. Die Verwendung des Sitemapprotokolls ist keine Garantie dafür, dass Webseiten in Suchmaschinen enthalten sind, bietet jedoch Hinweise für Web-Crawler, mit denen diese beim Durchsuchen Ihrer Website bessere Ergebnisse erzielen können.

Sitemap 0.90 wird gemäß den Bestimmungen der Attribution-ShareAlike Creative Commons License angeboten, ist weit verbreitet und wird von Google, Yahoo! und Microsoft unterstützt.

 

Wie gebe ich URLs in der Sitemap wieder?

Wie bei XML-Dateien üblich, müssen alle Datenwerte (einschließlich URLs) Entity-Escape-Codes für die folgenden Zeichen verwenden: kaufmännisches Und-Zeichen (&), einfaches Anführungszeichen ('), doppeltes Anführungszeichen ("), kleiner als (). Stellen Sie außerdem sicher, dass alle URLs dem Standard RFC-3986 für URIs, dem Standard RFC-3987 für IRIs und dem XML-Standard entsprechen. Wenn Sie Ihre URLs mithilfe eines Skripts erstellen, können Sie sie in der Regel URL-escaped als Teil dieses Skripts angeben. Sie müssen sie außerdem als Entity-escaped angeben. So gibt beispielsweise das folgende Python-Skript http://www.beispiel.de/view?widget=3&count>2 als Entity-escaped an.

$ python Python
2.2.2 (#1, Feb 24 2003, 19:13:11)
>>> import xml.sax.saxutils
>>> xml.sax.saxutils.escape("http://www.example.com/view?widget=3&count>2")

Folgende URL ergibt sich aus dem obigen Beispiel:

http://www.example.com/view?widget=3&count>2

Spielt es eine Rolle, welche Zeichencodierungsmethode ich für die Erstellung meiner Sitemap-Dateien verwende?

Ja. Ihre Sitemap-Dateien müssen UTF-8-Codierung verwenden.

Wie kann ich Zeitangaben erstellen?

Verwenden Sie W3C Datetime-Codierung für die lastmod-Zeitstempel sowie alle anderen Daten und Uhrzeiten in diesem Protokoll. Zum Beispiel: 2004-09-22T14:12:14+00:00.

Mit dieser Codierung können Sie den Uhrzeitteil des ISO8601-Formats weglassen. 2004-09-22 zum Beispiel ist ebenfalls zulässig. Wenn sich allerdings Ihre Website häufig ändert, sollten Sie die Uhrzeit mit angeben, damit die Crawler genauere Informationen über Ihre Website erhalten.

Wie berechne ich den Zeitpunkt lastmod?

Bei statischen Dateien ist dies das Datum der tatsächlichen Aktualisierung der Datei. Um dieses Datum zu erhalten, können Sie den UNIX Datum-Befehl verwenden:

$ date --iso-8601=seconds -u -r /home/foo/www/bar.php
>> 2004-10-26T08:56:39+00:00

Bei vielen dynamischen URLs können Sie das "lastmod"-Datum mühelos ermitteln, indem Sie die letzte Änderung der zugrunde liegenden Daten auswerten oder (ggf.) eine Näherung anhand periodischer Aktualisierungen aufstellen. Auch ein Näherungsdatum bzw. -zeitstempel kann Crawlern helfen, unveränderte URLs zu vermeiden. Dadurch wird der Bandbreiten- und CPU-Bedarf für Ihre Webserver verringert.

Wo lege ich meine Sitemap ab?

Es ist äußerst ratsam, die Sitemap im Stammverzeichnis Ihres HTML-Servers zu platzieren, d. h. unter http://beispiel.de/sitemap.xml.

In bestimmten Situationen können Sie verschiedene Sitemaps für verschiedene Pfade auf Ihrer Website erstellen, z.B. wenn auf Grund von Sicherheitsregeln in Ihrem Unternehmen der Schreibzugriff auf verschiedene Verzeichnisse aufgeteilt wird.

Wenn Sie die Berechtigung zum Hochladen von http://beispiel.de/path/sitemap.xml besitzen, gehen wir davon aus, dass Sie auch die Berechtigung zum Melden von Metadaten unter http://beispiel.de/path/ haben.

Alle in der Sitemap aufgeführten URLs müssen sich auf demselben Host befinden wie die Sitemap. Falls Ihre Sitemap beispielsweise unter http://www.beispiel.de/sitemap.xml aufgeführt ist, können URLs von http://subdomain.beispiel.de nicht enthalten sein. Falls Ihre Sitemap unter http://www.beispiel.de/eigenerordner/sitemap.xml aufgeführt ist, können URLs von http://www.beispiel.de nicht enthalten sein.

Wie groß darf meine Sitemap sein?

Sitemaps dürfen höchstens 10 MB (10.485.760 Byte) groß sein und nicht mehr als 50.000 URLs enthalten. Mithilfe dieser Beschränkungen wird vermieden, dass Ihr Webserver durch die Verarbeitung sehr umfangreicher Dateien lahm gelegt wird. Falls Ihre Website mehr als 50.000 URLs umfasst oder Ihre Sitemap größer als 10 MB ist, müssen Sie mehrere Sitemap-Dateien erstellen und eine Sitemap-Indexdatei verwenden. Verwenden Sie eine Sitemap-Indexdatei auch dann, wenn Sie gegenwärtig noch eine kleinere Website haben, aber ein künftiges Wachstum auf über 50.000 URLs oder eine Dateigröße über 10 MB planen. Eine Sitemap-Indexdatei darf höchstens 1.000 Sitemaps umfassen und 10 MB (10.485.760 Byte) nicht überschreiten. Verwenden Sie gzip zum Komprimieren Ihrer Sitemaps.

Meine Website beinhaltet Millionen von URLs; gibt es eine Möglichkeit, nur diejenigen einzureichen, die sich vor kurzem verändert haben?

Sie können die häufig geänderten URLs in einer kleinen Anzahl Sitemaps auflisten und diese Sitemap-Dateien dann in der Sitemap-Indexdatei mit dem Tag lastmod kennzeichnen. In diesem Fall durchsuchen die Suchmaschinen lediglich inkrementell die geänderten Sitemaps.

Was muss ich tun, nachdem ich meine Sitemap erstellt habe?

Nachdem Sie eine Sitemap erstellt haben, teilen Sie dies den Suchmaschinen mit, indem Sie die Sitemap entweder direkt einreichen, einen Ping ausführen oder den Speicherort der Sitemap in der robots.txt-Datei angeben.

 

Müssen URLs in der Sitemap vollständig angegeben werden?

Ja. Sie müssen das Protokoll (z.B. http) in Ihrer URL angeben. Sie müssen der URL zudem einen abschließenden Schrägstrich hinzufügen, wenn Ihr Webserver dies voraussetzt. Beispiel: Die Adresse http://www.beispiel.de/ ist eine gültige URL für eine Sitemap, die Adresse www.beispiel.de hingegen nicht.

 

Meine Website enthält sowohl "http"- als auch "https"-Versionen von URLs. Muss ich beide auflisten?

Nein. Nehmen Sie bitte nur eine URL-Version in Ihre Sitemaps auf. Wenn Sie mehrere URL-Versionen aufnehmen, kann dies ein unvollständiges Crawling Ihrer Website zur Folge haben.

 

URLs auf meiner Website sind mit Sitzungs-IDs versehen. Muss ich diese entfernen?

Ja. Wenn Sie Session-IDs in URLs einschließen, kann dies ein unvollständiges und redundantes Crawling Ihrer Website zur Folge haben.

 

Hat die Position einer URL in einer Sitemap Einfluss auf ihre Verwendung?

Nein. Die Position einer URL in der Sitemap hat wahrscheinlich keinerlei Auswirkungen darauf, wie sie von Suchmaschinen verwendet oder bewertet wird.

 

Auf einigen Seiten meiner Website werden Frames verwendet. Sollte ich die URLs der Framesets oder die URLs der Frame-Inhalte angeben?

Geben Sie bitte beide URLs an.

 

Kann ich meine Sitemaps im zip-Format komprimieren oder muss gzip verwendet werden?

Verwenden Sie gzip zum Komprimieren Ihrer Sitemaps. Die Sitemap-Datei darf komprimiert oder unkomprimiert nicht größer als 10 MB (10.485.760 Byte) sein.

Beeinflusst die Angabe "priority" in der XML-Sitemap das Ranking meiner Seiten in den Suchergebnissen?

Der Hinweis "priority" auf Ihrer Sitemap zeigt lediglich die Wichtigkeit einer bestimmten URL im Vergleich zu anderen URLs auf Ihrer Website an und hat keinen Einfluss auf das Ranking Ihrer Seiten in den Suchergebnissen.

 

Gibt es ein XML-Schema, anhand dessen ich meine XML-Sitemap validieren kann?

Ja. Ein XML-Schema für Sitemap-Dateien finden Sie unter http://www.sitemaps.org/schemas/sitemap/0.9/sitemap.xsd und ein Schema für Sitemap-Indexdateien unter http://www.sitemaps.org/schemas/sitemap/0.9/siteindex.xsd. Weitere Informationen zur Validierung Ihrer Sitemap.

Was tue ich, wenn ich eine andere Frage zur Verwendung des Protokolls oder zum Einreichen der Sitemap habe?

Weitere Informationen zur Einreichung und Verwendung von Sitemaps finden Sie in der Dokumentation der entsprechenden Suchmaschine.

Quelle: www.sitemaps.org

 

zurück

 

SEO Hinweise robots.txt

Traffic Tipps Suchmaschinen

Tipps und Erklärungen zur robots.txt - Datei

Die Datei robots.txt wird von den vielen Spidern/Crawlern der wichtigen Suchmaschinen wie Google, Yahoo, MSN usw. genutzt um Regeln/Anweisungen vom Webmaster (also Ihnen) für die Indizierung Ihrer Seite zu erhalten. Fast alle Suchmaschinen-Robots halten sich an die Regeln in der robots.txt und suchen zuerst nach dieser Datei, bevor Sie mit dem Indexieren Ihrer Seiten beginnen. Ab und zu hört man aber, dass sich die Suchmaschinen auch über diese Regeln hinwegsetzten und trotzdem die Seiten oder Dateien spidern. Meiner Meinung nach ist da aber nicht der Spider dran schuld, sondern der Webmaster, der einfach einen Syntax-Fehler mit in die robots.txt eingebaut hat.

 

Was nützt mir die robots.txt

Es kann vorkommen, dass Sie auf Ihrem Server oder Webspace einige Dateien liegen haben, die nicht unbedingt für Jedermann einsehbar sein sollen oder ganz einfach nicht in diverse Suchmaschinen aufgenommen werden sollen. Beispielsweise sind damit noch nicht freigegeben Seiten, oder Weiterentwicklungen, irgendwelche Programme oder Skripte gemeint, die evtl. sogar nur für einen bestimmten Kundenkreis/Userkreis zugänglich sein sollen. Oder aber, in einem Ihrer Verzeichnisse befinden sich LOG-Files. Diese spidern zu lasse wäre Sinnlos und unnötig. Mit diversen Einträgen in die robots.txt können Sie dies alles steuern. Sozusagen eine Fernsteuerung der Spider/Crawler.

 

Der Aufbau einer robots.txt

Die robots.txt muss im Hauptverzeichnis der Domain abgelegt werden und, wie der Name es schon sagt, ist eine einfache *.txt-Datei. Pro Domain darf nur eine robots.txt hinterlegt sein. Eine Ausnahme ist, wenn Sie Inhalte sowohl über http als auch https anbieten. Dann benötigen Sie getrennte Versionen der Datei robots.txt für jedes der Protokolle (Beispiel siehe ganz unten auf dieser Seite!). In der robots.txt können mehrere Regeln/Anweisungen aufeinander folgen. Die Regeln bestehen immer aus zwei Teilen. Der erste Teil bestimmt, für wen (für welchen Spider/Crawler) diese Regel gilt. Hierbei kann man für jeden Robot oder Spider einzeln, sofern man den Spider-Namen kennt, eine Regeln hinterlegen oder aber die nachfolgende Regel für alle Robots, Spider und Crawler anlegen. Es gibt mittlerweile unendlich viele Suchmaschinen und sonstige Angebote im Internet und somit gibt es auch eine Menge Robots. Eine aktuelle Liste findet man unter Robots.txt-Liste. Das einfachste ist, dass Sie einmal in Ihre LOG-Files schauen. Denn dort tauchen die Namen der Robots, Sider oder Crawler auf, um zu wissen, welcher Robot denn so auf Ihren Seiten rumlungert.

Jede Zeile muss mit dem Wort "User-agent" und einem Doppelpunkt beginnen. Im Anschluss daran folgt dann der Robot-Name.

Beispiel:
User-agent: Googlebot


Wollen Sie eine globale Regel für alle Robots anlegen, schreiben Sie einfach einen Stern ("*") nach dem Wort "User-agent:".

Beispiel:
User-agent: *


Hinter der Angabe des Robots-Namen folgt nun die eigentliche Regel, nämlich die Auflistung der Ordner und Dateien, die nicht aufgenommen oder aufgenommen werden sollen. Dabei muss jeder Ordner, jede Datei in einer eigenen Zeile angegeben werden, angefangen mit Disallow oder Allow, dann folgt wieder ein Doppelpunkt und die Angabe der Datei oder des Ordners.

Beispiel:
Disallow: /ordner1/
Disallow: /ordner2/unterordner/
Disallow: /webseite.html
Allow: /ordner3/
# Alle gif-Bilder sperren
Disallow: /*.gif$


Achten Sie darauf, dass Sie den Pfad ohne Domain angeben und immer mit einem Slash ("/") beginnen. Ein kompletter Eintrag, der dem Googlebot erlaubt alles zu indizieren, würde dann z.B. so aussehen:

Beispiel:
User-agent: Googlebot
Allow: /


Wollen Sie einen Robot für Ihre komplette Domain aussperren, müssen Sie folgendes angeben:

Beispiel:
User-agent: Slurp
Disallow: /


Dieses Beispiel zeigt, wie Sie den Robot von Inktomi/Hotbot aussperren. Das ist zum Beispiel dann sinnvoll, wenn ein Robot ständig wiederkommt und Ihren Traffic unverhältnismäßig hoch belastet. Im Gegenzug kann man auch alle Verzeichnisse freigeben, dazu muss man einfach nichts angeben:

Beispiel:
User-Agent: Slurp
Disallow:


Zusätzlich zu den Suchmaschinen-Spidern gibt es noch spezielle Spider, die nach Email-Adressen suchen, um Beispielsweise SPAM zu verschicken. Wenn Sie verhindern wollen, dass solche Adressen-Sammler (E-Mail-Spider/Crawler) Ihre Adressen ausspionieren, müssen Sie als Robot-Namen z.B. den EmailCollector angeben. Allerdings halten sich viele Robots, Spider oder Crawler nicht daran. Deswegen erscheint es aus meiner Sicht als nicht wirklich nützlich.

Beispiel:
User-agent: EmailCollector
Disallow: /

User-Agent: Googlebot
Allow: /


INFO:

Wie Sie oberhalb sehen, müssen mehrere Regeln durch eine Leerzeile getrennt werden!


Zum Schluss noch ein Beispiel, wie Sie allen Spidern erlauben Ihre Seiten unter dem Protokoll http zu spidern aber unter dem Protokoll https die Finger davon zu lassen.

Für Ihr http-Protokoll (http://IhrServer.de/robots.txt):
User-agent: *
Allow: /

Für Ihr https-Protokoll (https://IhrServer.de/robots.txt):
User-agent: *
Disallow: /

Quelle: www.seo-ranking-tools.de

Robots.txt - Dateien werden von Webdesign Hannover Laatzen standardmäßig mit erstellt

 

zurück

 

SEO Hinweise META-TAGs

Traffic Tipps Suchmaschinen

Tipps zum Seiten-Titel

Der Seitentitel, den Sie wählen, ist der Text, der direkt in den Suchergebnissen (auf den SERP's) erscheint.

Für die Suchperson, die schnell das gewünschte Produkt, Ergebnis o.ä. finden will, ist somit der Title-Tag das wichtigste (primär Informativste), da diese Informationen mit das Erste sind, was diese Person auf den Suchmaschinenergebnisseiten sieht. Das bedeutet, dass wir als SEO eine Kompromiss zwischen der Optimierung für den Spider/Crawler und dem menschlichen Auge/Verstand machen müssen.
Dies ist sicherlich nicht immer einfach, aber es gibt ein paar kleine Hilfestellungen:

  1. Es ist normalerweise gut, wen der Inhalt des Title-TAGs kurz
    gehalten wird (Zwischen 2-9 Wörtern max.)
  2. Ihre Hauptkeywörter sollten weit vorne im Title platziert sein
    (ca. von Wortposition 2-5)
  3. Jede Seite sollte einen eigenen Titel haben
  4. Generische Wörter wie "Home", "Hauptseite" oder "Willkommen zu..."
    sollten normalerweise nicht in dem Seiten-Titel erscheinen

Nicht vergessen: Verwenden Sie relevante Schlüsselwort-Kombinationen im Seitentitel um relevanten und wirklich den von Ihnen gewünschten Traffic zu erlangen.

 

Tipps zum META-TAG "description"

Viele Suchmaschinen benutzen den META-TAG "description" in ihren Suchergebnissen.
Gute Beschreibungen ("description") können Ihnen helfen die Klickrate zu verbessern. Der META-TAG "description" sollte für das menschliche Auge gut lesbar sein, da diese Informationen meist nur von den Suchmaschinen auf den Ergebnisseiten angezeigt und nicht bewertet werden. Somit ist der META-TAG "description" nur für die Suchperson relevant und bietet neben dem Seitentitel die Möglichkeit weitere Informationen über die Webseite anzugeben. Benutzen Sie daher ruhig vollständige Sätze und viele Keyword-Varianten, die Sie in dem Seitentiel nicht untergebracht habten.

Nicht vergessen: Achten Sie aber darauf, dass der Text im META-TAG "description" Ihre Keywords im Seitentitel (Title) bekräftigt.

 

Tipps zum META-TAG "keywords"

Der META-TAG "keywords" wird von fast jedem SEO ausgefüllt... warum eigentlich, wenn er von den meisten Suchmaschinen (Search Engines) nicht verwendet wird? Die Keywords aus dem META-Tag werden auch nicht auf den Such-Ergebnisseiten (SERP "Search-Egninge-Result-Pages") angezeigt. Wenn man sich dazu entschließt den META-TAG dennoch auszufüllen, sollte man darauf achten, dass der Inhalt nur aus ein paar Hauptschlüsselwörtern besteht, die die Seite gut beschreiben.
Der ehemalige Search engineer Jon Glick sagte über den METAG-TAG "keywords" folgendes: The meta keywords tag is used for inclusion within a subset of search results, and has no effect on relevancy. Use misspelled versions of your keywords & uncommon versions of ideas that are on the page using verbiage that you were not able to include in the page text. Is only created for machines.

 

Andere META-TAG's

Die meißten anderen META-TAG's sind eigentlich eine reine Zeitverschwendung, da die meisten Suchmaschinen diese ignorieren. Die einzige Ausnahme macht der META-TAG "robots", der verwendet wird, um Search Engines zu erklären ob eine Seite indiziert werden soll oder nicht (INDEX, NOT INDEX) oder ob der Suchmaschinen-Spider/Crawler den Links auf der Seite folgen soll oder nicht (FOLLOW, NOT FOLLOW).

Beispiel:


Für eine Indizierung Ihrer Seite ist der META-TAG "robots" aber nicht relevant, da diese Werte "FOLLOW & INDEX" als Standardparameter gesetzt sind, sollten diese nicht im Head-Bereich einer HTML-Seite vorhanden sein.

 

Aber wofür sind denn nun die anderen META-TAGs?

Auch ich verwende auf den Seiten meiner Projekte zusätzliche META-TAGs.
Mein "Head" - Bereich auf fast allen HTML-Seiten meiner Projekte sieht wie folgt aus.

Beispiel:

TITLE















/*
/*]]>*/




Darunter sind natürlich eine Menge META-TAGs, die wirklich unrelevant sind, wie z.B. copyright, author oder Page-Topic. Dennoch Schaden diese TAGs nicht der Webseite oder gar dem Ranking. Deshalb ist es jedem Selbst überlassen wie oder was er für zusätzliche Metatags benutzt.

Jede unserer Webseiten wird mit Suchmaschinenfreundlichen META-TAGs inkl. Ihrer relevanten Suchbegriffe (Keywords) gestaltet und programmiert.

 

zurück

SEO Hinweise Backlinks

Traffic Tipps Suchmaschinen

Oft kann weniger, mehr sein – dies gilt auch für Backlinks

Weniger kann auch mehr sein. In Zusammenhang mit Backlinks stimmt dies auf alle Fälle. Vor Allem auf schlechte Backlinks sollte man verzichten.

Nachdem in letzter Zeit viele Seiten, die früher eigentlich durchwegs gut rankten, ein immer instabileres Ranking aufzuweisen anfingen, beschäftigten sich einige SEOs was der Grund für diese Schwankungen sein könnte.

Die Seiten wurde auf OnSite Optimierungen hin untersucht, doch der Fehler wurde hier nicht gefunden, da die Seiten, die schwankten, gleich optimiert waren, wie andere, bei denen keine Schwankungen zu beobachten waren. Deshalb erfolgte in einem zweiten Schritt die Analyse der Backlinks mit den bekannten SEO Tools.

Nach einiger Zeit wurde man auf eine Linkpartnerschaft aufmerksam, die schon vor Langem geschlossen wurde. Hier konnte man sehen, dass der Linkpartner immer mehr Artikel mit Links auf die Seite produzierte und dies auch mit anderen Seiten so machte.

Der Tipp des SEO Spezialisten war daraufhin die Anzahl der Links einzuschränken und abzuwarten. Obwohl es einige Überzeugungsarbeit bei dem Kunden zu leisten gab, entschied sich dieser schlussendlich dann auf den Rat zu hören und die Anzahl der Backlinks wurde reduziert. Die Vermutung war nämlich, dass Google diese Seite als schlechte Nachbarschaft (bad neighbourhood) klassifizierte und die Seite, auf die die Backlinks gesetzt waren, deshalb abstrafte.

Das Ergebnis war, dass Google die Seiten neu gespidert hatte und nach ungefähr 2 Wochen die Positionen wieder neu zu steigen begannen.

Allgemein kann man also festhalten, dass Suchmaschinen mittlerweile in der Lage sind, die Qualität der Links feiner zu differenzieren, als dies vor 2 Jahren noch der Fall war. Man sollte also immer darauf achten, woher man Backlinks auf die eigene Seite bekommt und auf eine gute Nachbarschaft achten.

 

zurück

Professionelle Suchmaschinenoptimierung (SEO)

Traffic Tipps Suchmaschinen

Setzen Sie sich in Szene

Die Basis jeder erfolgreichen Suchmaschinen-Kampagne ist die Keyword-Recherche, die Ihnen detailliert aufzeigt, mit welchen Suchbegriffen Sie im Internet optimal gefunden werden können:

  • Zielgruppenanalyse
  • Analyse und Segmentierung Ihres Wettbewerb-Umfeldes
  • Präventive Testverfahren der Keywords und Keyword-Welten
  • Identifikation neuer, trafficstarker und nicht ausgereizter Keywords (insbesondere in hart umkämpften Märkten von hoher Relevanz)

Mit einer professionellen Suchmaschinenoptimierung werden Sie Erfolge ernten. Bedingungen hierfür ist jedoch stets eine sorgfältige Anpassung aller Methoden an Ihre individuelle Ausgangssituation:

  • On-Page-Analyse:
    • Detail-Analyse Ihrer Webseite (URL, interne Verlinkung, Quelltexte, Bildbeschreibungstexte etc.)
  • Off-Page-Analyse:
    • U. a. umfassende Backlink-Analyse, (Link- und Domainpopularität), Marktrecherche, Konkurrenzanalyse
  • On-Page-Optimierung:
    • U. a. Keyword- / Content- / Seitentitel- / Überschriften- / Metatag- und URL-Optimierung, Optimierung der internen Verlinkung und Sitemap-Erstellung.
  • Off-Page-Optimierung:
    • Kontinuierliche Erhöhung der eingehenden Links und Anzahl der verlinkenden Webseiten. Gleichzeitige Erhöhung der Domain- und IP-Popularität.

Webdesign Hannover Laatzen erstellt grundsätzlich bereits für Suchmaschinen optimierte Webseiten damit Ihre Seite im Internet auch gefunden wird.

 

zurück