rankingCHECK
MENÜ

Google Webmastertools reloaded

Das aktuelle Google Update – wie auch immer es heißt – hat in den letzten Wochen zu einigen sehr interessanten Reaktionen geführt. Johannes hat bewiesen dass Google die Diversität in den SERPs runtergeschraubt hat und Frank sagt dass dadurch logischerweise die Qualität für die Suchenden sinkt. Stimmt beides meiner Meinung nach, aber darum geht es mir heute nicht.

Dass Google vielen Ergebnissen krampfhaft eine lokale Relevanz unterstellt hat nämlich noch einen ganz anderen Nebeneffekt: Tools wie Sistrix, Searchmetrics und SEOlytics wird es dadurch deutlich erschwert neutrale bzw. sinnvolle Ergebnisse anzuzeigen. Ganz hintenrum vielleicht ja sogar ein Versuch die eigenen SEO Tools aka. Google Webmaster-Tools ein wenig zu pushen. Kennt man ja, vielleicht wird auch dieser Dienst dann irgendwann einmal kostenpflichtig sobald man darauf nicht mehr verzichten kann, getreu dem Motto: „Erstmal anfixen und dann…“ Sorry, das war jetzt natürlich nur ein Blick in die Glaskugel, aber wer weiß 😉

Bei den Webmastertools hat sich einiges getan seit unserem letzten Artikel aus dem Jahre 2009. Mittlerweile kann man nicht mehr darauf verzichten und es sollte keinen SEO mehr geben der diese nicht nutzt. Zeit also alles zu dem GWMT mal auf den aktuellen Stand zu bringen. Hier also mal sämtliche aktuellen Features inklusive einiger hilfreicher Tipps aus der Praxis um vielleicht noch das ein oder andere aus eurer Website rauszukitzeln…

Dashboard

Grobe Übersicht über alles wichtige, auf die genauen Inhalte gehe ich später genau ein.

Nachrichten

Hier wird’s richtig interessant. Google spricht mit einem! Oft sind es relativ belanglose Dinge die man ohnehin schon auf dem Schirm hat wie die Verknüpfung mit Google Analytics, einem empfohlenen WordPressupdate etc.

In den letzten Monaten haben einige Webmaster allerdings sehr Ernst zu nehmende Nachrichten bekommen, nämlich über unnatürliche Links. Also wenn sich Google schon herablässt mit einem Webmaster zu sprechen sollte man die Nachrichten auf jeden Fall regelmäßig checken oder viel besser noch: Man richtet eine automatische Email-Weiterleitung ein um immer auf dem aktuellsten Stand zu sein. Das macht man folgendermaßen:

Zur Übersichtsseite gehen bzw. einfach auf das rote „Webmaster-Tools“ klicken. „Einstellungen“ in der rechten Sidebar anwählen und die Nachrichtenweiterleitung auf die mit dem Googlekonto verknüpfte Emailadresse aktivieren und speichern. Ich wette das hatten einige noch nicht auf dem Schirm, ich selbst bis vor kurzem auch nicht 😉

Ein weiterer wichtiger Punkt bzgl. der Kommunikation mit Google über die Webmastertools ist natürlich der der Antrag auf Wiederaufnahme (Reconsideration Request ) der in der letzten Zeit wohl ziemlich oft gestellt worden sein dürfte.

Wie man den am besten stellt ist wohl einen eigenen Artikel wert, hab da schon was in der Schublade. Aus Erfahrung von einem kleinen privaten Affiliateprojekt was mir abgeschmiert ist kann ich nur eins sagen: Versucht nicht Google gegenüber unehrlich zu sein, das macht es noch schlimmer 😉

Konfiguration: Einstellungen

Hier kann man grundlegende Einstellungen wie die geografische Ausrichtung, Standarddomain und Crawlinggeschwindigkeit vornehmen.

Vor allem die Ausrichtung auf das geografische Ziel ist hier sehr interessant. Obwohl man hier ganz angibt auf welches Land eine Webiste ausgerichtet sein soll hat Google immer noch damit zu kämpfen bspw. eine DE-Domain von einer AT-Domain mit gespiegelten Inhalten zu unterscheiden. Lösen kann man das Problem leider nicht immer zu 100% über die Webmastertools. Hier muss man ein wenig nachhelfen um ganz auf Nummer sicher zu gehen. Das Language-Meta Tag für die enstprechende AT Seite setzen:

  • Deustchland: <meta name=“language“ content=“de-DE“ />
  • Österreich: <meta name=“language“ content=“de-AT“ />

Zusätzlich auf der DE-Seite automatisiert „Deutschland“ ans Ende jedes Title-Tags hängen, das gleiche mit „Österreich“ für die AT-Domain. Hatten wir damit einen Stress letztes Jahr, aber so funktionierts auf jeden Fall!

Die bevorzugte Standarddomain, also mit www oder ohne ist lediglich Geschmackssache. Ich persönlich finde alles mit www besser, weil man sich einfach dran gewöhnt hat. Ohne www hört sich irgendwie immer so nach SEO an 😉

Die Crawling-Geschwindigkeit des Googlebots sollte man Google überlassen um nicht zu risikieren dass der Bot durch seine Anfragen den Server in die Knie zwingt.

Konfiguration: Sitelinks

Jeder Seite die einigermaßen Saft hat werden in der Suchergebnissen Sitelinks zugewiesen welche in Googles Augen besonders relevant sind:

Hier passen die AGBs natürlich erstmal nicht rein, viel lieber wäre uns ein Link direkt auf unsere Dienstleistungen. Die Webmastertools geben einem zwar leider nicht direkt die Chance direkt zu bestimmen welche URLs in den Sitelinks erscheinen sollen, dafür kann man aber bestimmte URLs ausschließen:

Konfiguration: URL Parameter

Es gibt da Draußen immer noch Shopsysteme oder CMS welche die wildesten Parameter an ULRs hängen. Wenn man keine saubere Lösung findet kann man Google mitteilen welche URL-Endungen einfach nicht mehr berücksichtigt werden sollen um vor allem Duplicate Content zu verhindern. Vor allem für Shops ist dies oft die am einfachsten umsetzbare Variante.

Konfiguration: Adressänderung

Hier wird es wieder richtig spannend. In Startup-Rosahemd-CEO-Hippster-Kreisen ist es ja bekanntlich ein absolutes NOGO ist nicht alle 3 Monate einen Relaunch inklusive Rebranding und Domainwechsel durchzuführen. Das dabei einiges schiefgehen kann weiß jeder der schon einmal einen Relaunch begleitet hat. Wir haben dazu vor einiger Zeit auch mal eine kleine Relaunch Checkliste zu entwickelt.

Damit man als SEO am Ende nicht die Schuld in die Schuhe geschoben bekommt wo denn der ganze organische Traffic geblieben ist gibt Google einem genau vor was man dafür tun muss:

  • WICHTIG: Als erstes auf der neuen Domain die Webmastertools einrichten
  • Sinnvolles URL Mapping alt/neu erstellen
  • Content auf der neuen Website einrichten
  • 301 Weiterleitungen einrichten
  • Adressänderung in den Webmastertools einrichten

Danach kann es dann bis zu 180 Tage dauern bis Google den Relaunch komplett verstanden hat. Aus eigener Erfahrung kann ich sagen, dass dies aber teilweise nur wenige Tage dauert wenn man alles richtig macht.

Konfiguration: Nutzer

Wenn man jemand anderem die Arbeit in den Webmastertools überlassen will muss man natürlich weitere Nutzer hinzufügen. Diese Funktion kann man entweder in der Übersicht direkt oder über die Sidebar finden.

Status: Crawling Fehler

Hier kann man die technische Gesundheit der Website checken. Dabei werden als erstes globale technische Dinge wie die Kommunikation mit DNS-Server, den Zugriff des Googlebots auf die Website und die robots.txt geprüft.

Bei Soft 404 Fehlern handelt sich um URLs die nicht existieren aber keine 404 Statusmeldung zurückgeben wie es normalerweise sein sollte. Obwohl es die Seite nicht gibt wird vom Server eine 200er Meldung zurückgegeben die sagt das alles OK ist. Hier das Soft 404 Thema nocheinmal ganz ausführlich inkl. Ursachen und Lösungen.

Die nicht gefundenen Seiten sollte man mindestens monatlich checken. Vor allem bei größeren Seiten tauchen immer wieder 404er auf was für den User und somit auch für Google ärgerlich ist. Um das zu beheben und ganz nebenbei auch die eventuell vorhandene Linkpower nicht ins Leere laufen zu lassen kann man sich die „toten“ URLs ganz einfach als Googledoc oder csv runterladen. Anschließen macht man ein sinnvolles Mapping und richtet darauf basierend 301 Redirects ein.

Status: Crawling-Statistiken

Hier gibt es eigentlich nicht viel zu sagen. Hier kann man sehen wie oft der Googlebot in den zurückliegenden 90 Tagen sämtliche Daten der Website gecrawlt hat.

Interessant ist hier vor allem die untere Statistik, die Dauer des Downloads einer Seite. Sollte der größte Anteil hier bei „Hoch“ liegen sollte man sich mal ernsthaft überlegen an der Pagespeed zu schrauben.

Status: Blockierte Seiten

Hier werden ganz einfach nur die URLs aufgelistet die durch die robots.txt geblockt werden. Wer technisch nicht dazu in der Lage ist sich seine robots.txt anzusehen ist hier genau richtig aufgehoben 😉

Status: Abruf wie durch Google

An dieser Stelle kann man sich einzelne URLs mit den Augen des Googlebots ansehen. Interessant ist hier vor allem der Mobile-Blickwinkel:


Hier kann man genau sehen ob die Seite auch problemlos den eigenen Smartphoneindex aufgenommen werden. Andererseits kann man auch sehen ob die Aussperrung der Desktop-Seite für den mobilen Index über die robots.txt erfolgreich war. Was natürlich nur Sinn macht wenn man eine eigene Mobilesite hat. Zudem kann man auch noch sehen ob und wie sich der Quellcode bei einem mobilen Zugriff ändern würde. Gute Alternative zu Browserplugins wie bspw. User Agent Changer.

Status: Malware

Hier teilt einem Google mit ob die Website gehackt wurde und einem miese Scripts untergejubelt worden sind. Ein weiterer wichtiger Grund sich die automatisierte Nachrichtenweiterleitung einzurichten. Als nächstes geht man natürlich hin und bringt seine Software auf den neuesten Stand. Dann entfernt man den gehackten Code und lässt sich die Seite anzeigen wie beim Abruf durch den Googlebot. Erst wenn man sich auch wirklich sicher ist, dass die Seite wieder sauber ist sollte man den Antrag auf Überprüfung beantragen.

Zugriffe: Suchanfragen

Jetzt sind wir bei einem der Herzstücke der Webmastertools angelangt und bei meiner Aussage von der Einleitung gelandet, nämlich dass die Webmastertools mittlerweile als fast vollwertiges SEO Tool zu sehen sind.

Unter dem Reiter „Häufigste Suchanfragen“ findet man eine Menge brauchbarer Daten mit denen man auch tatsächlich etwas anfangen kann. Vielleicht kann man die Impressionen als eine Art Sichtbarkeitsindex sehen und die Klicks geben natürlich einen sehr guten Überblick über den realen Traffic. Genauere Werte kann nur Webanalyse Software liefern. Auch die Filtermöglichkeiten sind echt cool, so kann man Traffic, Rankings & CTR auch nach Universal Search Disziplinen, mobilen Zugriffen und Standorten filtern, schon erstaunlich was man damit alles rausfinden kann.

Seit einiger Zeit sollte wohl klar sein dass die Klickrate bzw. CTR ein logischer Rankingfaktor ist, auch wenn man das natürlich schwer empirisch beweisen kann. Beeinflussen kann man die Klickrate indem man ganz einfach sein Snippet optimiert. Eine sehr gelungene praktische Anleitung  zur Snippetoptimierung gibt’s im doFollow-Blog. Ein weiterer Tipp von uns: Wenn ihr die Möglichkeit habt Adwords zu schalten kann man sehr gute AB-Tests mit Anzeigentitel und Beschreibung durchführen. Die Insights daraus sollte man dann auf die Snippets für die organischen Ergebnisse miteinfließen lassen.

Zugriffe: Links zu Ihrer Website

Ich finde es super dass Google das hauseigene Backlinktool im Bereich Zugriffe untergebracht hat. Noch deutlicher wird das in der englischen Version, hier heißt es Traffic. Denn ein guter Link bring nun eben einmal Traffic, ich glaube mich zu erinnern dass dies der ursprüngliche Sinn und Zweck von Links im Internet ist, egal darüber will ich jetzt nicht diskutieren.

Auf jeden Fall erzählt einem Google woher die Links kommen, welche Linkziele es auf der eigenen Website gibt und mit welchen Anchortexten diese verlinkt sind. Eigentlich alles was man braucht um das eigene Linkprofil zu optimieren, wie das geht könnt ihr hier nachlesen:

Zugriffe: Interne Links

Hier sieht man welche URLs die meisten internen Links abbekommen und somit bestens als Linkhub für die gezielte Steuerung von interner Linkpower zu gebrauchen sind.

Praktische Quickwins: Man sucht sich unter den Suchanfragen diejenigen Keywords raus die an der Schwelle zur Top 3, Top 5 oder Top 10 sind, optimiert die entsprechenden Snippets und setzt von den stärksten internen Hubs Links mit enstprechenden Linktexten. In der Regel dürfte sich dabei relativ schnell noch einiges an zusätzlichem Traffic rauskitzeln.

Zugriffe: +1 Berichte

Unter Auswirkungen auf die Suche sieht man welchen Einfluss +1 auf die Klickraten in den organischen SERPs hat.

Hier sollte man nach „Alle Klicks“ sortieren, denn darauf kommt es ja letztendlich an. Leider konnte ich nicht feststellen dass CTR mit +1 eine Trafficsteigerung mit sich gebracht hat, vielleicht hatten wir auch zu wenige Daten. Insgesamt kann es aber auf gar keinen Fall schaden wenn gute Inhalte bei Google+ geshared werden, ob es wirklich die Klickrate beeinlusst kann ich leider nicht sagen, vielleicht habt ihr da ja bessere Daten die das untermauern können.

Unter Aktivität sieht man wann es welche Aktivitäten im Google+ Netzwerk gegeben hat und unter Zielgruppe werden einem spezifische Zielgruppendaten angezeigt, die man wohl mit den Targetingdaten von Facebook vergleichen kann. Da man hierzu allerdings ersteinmal eine Menge Daten sammeln muss bleibt abzuwarten was man damit wohl genau anfangen kann.

Insgesamt finde ich den +1 Berichte-Bereich im Moment noch wenig hilfreich, allerdings muss man hier natürlich genau abwarten wohin sich Googles Social Network genau entwickelt, im Moment sehe ich da nur Online Marketing Experten rumlungern 😉

Optimierung: Sitemaps

Für große Seiten und Shops ziemlich praktisch. Man kann Google ganz einfach mitteilen wo die entsprechende XML Sitemap liegt.


Für WordPress kann ich dafür dieses XML Sitemap Generator Plugin empfehlen. Shopssysteme wie bspw. OXID haben entsprechende Features dafür…

 

Hier kann man gut sehen wieviele der eingereichten URLs auch tatsächlich in den Index gelangen. Sollte sich eine große Lücke dazwischen auftun muss man sich auf Fehlersuche begeben 😉

Optimierung: URLs entfernen

Wenn man nicht will dass bestimmte Inhalte in den Suchergebnissen erscheinen sollte man diese einfach bei Google melden.

GANZ WICHTIG: Vorher 301er von den in den Webmastertools zu entfernenden URLs ein einrichten die auf thematisch sinnvoll verwandte Inhalte weiterleiten, sonst könnte Linkpower verloren gehen! In der Regel ist die URL nach 1-3 Tagen dann nicht mehr im Index zu finden.

Optimierung: HTML Verbesserungen

An dieser Stelle teilt einem Google mit ob man auch seine Hausaufgaben richtig gemacht hat:

Man bekommt konkrete URLs geliefert die man optimieren sollte. So wird man über doppelte, zu lange oder zu kurze Metadescritpions informiert. Genauso wichtig sind die Hinweise zu den Titletags, immer noch mit der wichtigste Keywordträger einer URL. Sollte ein Titletag komplett fehlen, doppelt, zu lang, zu kurz oder einfach nicht informativ sein gibt es was zu tun. Gerade bei großen Seiten lässt sich hier mit relativ wenig Aufwand noch eine Menge an Potential ausschöpfen. Darüberhinaus wird man auch noch gewarnt wenn man nicht-indexierbaren Content auf der Seite hat.

Optimierung: Content Keywords

Was man hier zu sehen bekommt ist der Eindruck den Google von der eigenen Website bekommt.

Klickt man jetzt auf die enstprechenden Keywords sieht man folgendes:

Für das Keyword „SEO“ hält Google nur Artikel aus unserem Blog für relevant. Wenn wir jetzt mit unserer SEO Produktseite ranken wollten müssten wir diese natürlich entsprechend optimieren und ein paar Links von den hier genannten URLs daraufschiessen.

Optimierung: Andere Ressourcen

Hier wird man eigentlich nur weitergeleitet zum Rich Snippet Testing Tool, Google Places und zum Goolge Merchant Center. Vor allem das Rich Snippet Testing tool hat es mir in der letzten Zeit angetan um an seinem Autorenprofil zu basteln…

Labs

Neben der benutzerdefinierten Suche und einer Website Vorschau kann sollte man sich hier vor allem die Website Leistung genauer ansehen, da Google mittlerweile auch die Geschwindigkeit als Rankingfaktor sieht.

Sollte die durchschnittliche Ladezeit eindeutig als langsam eingestuft werden sollte man etwas an der Seite schrauben. Mit dem Pagespeed Tool gibt einem Google sogar eine konkrete Checkliste zur Hand die man ganz einfach abarbeiten kann. BTW: Es gibt zwar keinen genormten Wert dafür ab wann eine Website langsam ist, aber alles ab 2 Sekunden Ladezeit kann einen User schnell verärgern.

Fazit

Puuhh, an der Länge des Artikels merkt man vielleicht wieviel Power in den Google Webmastertools steckt. Hab das Ganze auch selbst unterschätzt beim Schreiben.  Um es auf den Punkt zu bringen: Die Google Webmaster Tools können bei den etablierten SEO Tools locker mithalten, allerdings nur wenn es um die eigene Website geht. Und genau deswegen brauchen sich Riesen wie Searchmetrics, Sistrix und Co. erst einmal keine Gedanken zu machen. Wenn man nämlich gut im SEO sein will muss man sein Marktumfeld so genau wie möglich unter die Lupe nehmen und das kann man nur mit externen und vor allem neutralen SEO Tools. Ein anderes Argument ist es auch immer, das man Google eine Menge Daten aufbereitet in den Rachen schmeißt was vielleicht irgendwann einmal kostenpflichtig sein wird, siehe Google Shopping oder die Flugsuche…

Geschäftsführer, Inbound Marketing-Freak und King of Tablesoccer – Blogger @rankingCHECK – Privates gibt es hier in meinem Travel- und Foodblog

4.86 / 5 (7 votes)

Schreibe einen Kommentar

Loading Facebook Comments ...

25 Kommentare

Gerald schrieb am 24. Juni, 2012 @ 23:47

Vielen Dank für den Artikel! Bei mir melden die GWMT fünf Crawling Fehler, von denen ich nicht verstehe, wo sie herkommen. Da wird z.B. /user/datenschutz moniert und andere URLs mit /user. Antwortcode 403.

Da ich keine Seiten habe, die /user beinhalten, frage ich mich: Wie kommt Google darauf, sowas zu crawlen? Macht es Sinn, diese als „korrigiert“ zu markieren oder macht es das nur noch schlimmer?

Freundliche Grüße aus Mannheim, Gerald

Marcel Becker schrieb am 25. Juni, 2012 @ 10:03

Würde die als korrigiert markieren. Aber vorher checken ob es die Seite mal gab und Links darauf gezeigt haben. Dann natürlich auch noch 301er setzen!

Webstandard-Blog (Heiko) schrieb am 25. Juni, 2012 @ 11:17

Das nenne ich mal eine ausführliche Beschreibung! Vielen Dank erst einmal dafür. Auch wenn ich seit Bestehen dieses Tools es auch nutze, muss ich zugeben das ich dies eher stiefmütterlich getan habe. Erst die schrittweise Implementierung in Google Analytics hat mich dazu bewegt, mich ein wenig mehr mit den Webmastertools zu beschäftigen und es nicht nur auf die Funktion bezüglich der Indexierung der Seiten über die Sitemap zu reduzieren und ab und zu mal zu checken, welche Fehler ausgegebenen werden.

Sebastian schrieb am 25. Juni, 2012 @ 12:15

Hallo Marcel,

Sehr guter Einstieg in die GWT!

Ich wollte nur kurz was dazu sagen:
„Wenn man nämlich gut im SEO sein will muss mna (sic!) sein Marktumfeld so genau wie möglich unter die Lupe nehmen und das kann man nur mit externen und vor allem neutralen SEO Tools.“

Das stimmt in jedem Fall. Derzeit beschleicht mich aber das Gefühl, dass allzu viele, ausgestattet mit einem oder mehreren Tools, lediglich die Benchmark-Daten nutzen, um die Wettbewerber nachzubauen. Dieser ganze Bereich der Konkurrenz-Analysen kommt m.E. in der Kette der Optimierungsmaßnamen recht weit hinten.

Davor stehen einem so viele andere Möglichkeiten zur Verfügung, die eigene Website zu verbessern: Content mit Nutzerdaten und Conversion-Raten abgleichen und optimieren, Bildmaterial zur Verbesserung der Absprungrate, Links mit dem Ziel Conversions zu erzielen aufzubauen statt nur nach schnöden Rankings zu schielen, Internen Link-Fluss mit Unternehmens-Zielen abgleichen, spannendes Zeug bloggen und dieses via Social Media sharen, Split A/B Tests mit Landing-Pages und Warenkorb-Situationen und und und…

Wer sich daran hält, mit seinen Kunden tatsächlich spricht und eine ernsthafte Feedback-Kultur betreibt, um die Website zu verbessern, der muss gar nicht so sehr nach der Konkurrenz schaue, außer es geht um denen einen oder anderen Link, der man sich dann „halt auch einfach holt, weil die anderen ihn ja auch haben“ 😉

Ich denke es macht schon Sinn, den Paradigmenwechsel „Stets und vor allem an den Nutzer denken!“, den Google derzeit immer stärker in die Köpfe der SEOs zu hämmern versucht, ein kleines Stück mitzugehen.

Die Google-Webmastertools zusammen mit Google-Analytics ermöglichen einen sehr intensive Auseinandersetzung mit dem Nutzerverhalten und der Reaktion der Nutzer auf die Website und das sollte man auch gezielt ausnutzen und dabei helfen den Webmastern solche Artikel wie der von Dir hier in jedem Fall.

Gruß,
Sebastian

Marcel Becker schrieb am 25. Juni, 2012 @ 12:37

@Sebastian: Also wir machen eine Konkurrenzanalyse immer BEVOR wir mit einem Kunden anfangen zu arbeiten, weil wir dann beurteilen können ob und wie eine Zusammenarbeit überhaupt Sinn macht und nicht einfach nur um Links nachzubauen… Ansonsten hast du natürlich zu 100% Recht!

Sebastian schrieb am 25. Juni, 2012 @ 13:20

Hi Marcel,

Klar… als Agentur geht man so vor.
Das hatte ich ausgeblendet, danke daher für Deinen Einwand!

Einem Webmaster würde ich diesen nach außen gerichteten Blick jedoch nicht zwingend zum Einstieg empfehlen.

Gruß,
Sebastian

Mark schrieb am 25. Juni, 2012 @ 16:42

Sehr gelungener Artikel,
bin gespannt inwiefern sich deine Prophezeiung in punkto Entwicklung hin zu einem kostenpflichtigem Service bestätigen wird. Ich denke Google hat schon ein Interesse daran, dass möglichst viele Webmaster deren Tools nutzen, wichtige Grundfunktionen werden sicherlich for free bleiben.

Ansonsten werd ich beim nächsten Domain-Relaunch gern auf eure Checkliste zurückkommen, bevor ich mir dann nachträglich mit meinem rosafarbenen Hippster-Hemd verwundert die Augen reiben muss 😉

Andreas Ostheimer schrieb am 25. Juni, 2012 @ 16:52

Google versucht mit den Tools die Daten weiterzugeben, die NICHT dazu anleiten Links nachzubauen oder die Konkurrenz einzuschätzen. Das macht es natürlich in vielerlei Hinsicht uninteressant – was die eigene Webseite betrifft sind die Tools im Zusammenspiel mit GA natürlich längst zum Standard geworden.
Es wird immer mehr von diesen Online-SEO-Software-Suiten geben, denke ich, wobei es hoffentlich bald vorbei ist mit dem reinen Backlink- bzw. Linkbuilding-Schwerpunkt. Dann wird aus SEO die social Variante SSEO und den Google Webmaster Tools fehlt wieder ein Aspekt (nämlich die anderen Social Networks) mehr zu einem kompletten Tool.

Marcel Becker schrieb am 25. Juni, 2012 @ 16:56

@Sebastian: Ich hatte wiederum die Webmaster ausgeblendet, daher haben wir beide Recht. Sowas nennt man dann doch WINWIN Situation oder 😉
@Mark: Hatte jetzt nicht explizit dich gemeint mit dem rosa Hemd 🙂

Marcel Becker schrieb am 25. Juni, 2012 @ 17:09

@Andreas: meinte eigentlich externe Tools (also nicht die GWMT) zur Konkurrenzanalyse bzw. Backlinks nachbauen…

Marcel schrieb am 26. Juni, 2012 @ 13:34

Hi Marcel,

genialer Artikel!

Ich habe auch schon mal überlegt ob ich ein GWMT Artikel schreibe (….), aber ehrlich gesagt, hast du alles bereits gesagt was es zu sagen gibt !!!

Daher hast du mein Sharing und Empfehlungen auch diesmal wieder sicher 🙂

Gruß aus München,
Jennifer

Simone schrieb am 26. Juni, 2012 @ 15:08

Danke für den sehr informativen Artikel!

Welches geografische Ziel sollte man denn bei einer englischsprachigen .COM Webseite wählen, die eigentlich alle die Länder bedient, die keine „nationale“ Webseite haben? In meinem Fall hat Google zwar „Vereinigte Staaten“ vorausgewählt, aber es ist ausgegraut.

Viele Grüße,
Simone

Simone schrieb am 26. Juni, 2012 @ 15:22

Noch eine Frage zu Thema Labs > Ladezeiten. Wir betreiben eine ganze Reihe Länder-Webseiten, die aus dem gleichen CMS kommen, auf dem gleichen Server liegen und technisch den gleichen Online-Katalog enthalten. Die Unterschiede bei den Ladezeiten lt. Webmaster Tools sind jedoch enorm: zwischen guten 1,5 Sek. und zeitweise grausigen 4-5 Sekunden. Wie kommen die Unterschiede zustande?

Viele Grüße,
Simone

Marcel Becker schrieb am 26. Juni, 2012 @ 17:52

@Simone: Also wenn es eh nur eine .com gibt dann muss man ja gar keine Länderzuweisung machen, weil es ja keine gespiegelte Website für bspw. UK gibt, die dieser evtl. den Traffic wegnehmen kann, da sollte alles OK sein. zu den Ladezeiten würde ich empfehlen das Ganze mal durch das Pagespeedtool laufen zu lassen, da gibt´s eigentlich immer konkrete Hinweise und Todos. Hier der Link: https://developers.google.com/speed/pagespeed/insights
Ansonsten musst du mir mal die Seite verraten so global kann ich da schwer was zu sagen…

Zeitlounge schrieb am 27. Juni, 2012 @ 0:08

Jede Änderung erfordert neue Maßnahmen. Wir hoffen da Fuß zu fassen aber wer hofft das nicht. Ich wollte mich aber mal für Euer „Google Position Check Tool“ bedanken. =)

Simone schrieb am 27. Juni, 2012 @ 9:07

@Marcel: Danke für Deine Rückmeldung!

Leon schrieb am 27. Juni, 2012 @ 18:08

Sehr ausführlicher Bericht, vielen Dank! Hab so einiges gelesen, was ich bisher garnicht beachtet habe. Das die Tools irgendwann kostenpflichtig werden kann gut sei, zumindest ein Großteil davon. Google weis ja auch, das man aus jedem Seo oder Webseitenbetreiber mal nen 100er oder auch mehr pro Monat ziehen kann.

Max schrieb am 17. Juli, 2012 @ 13:23

Auf jeden Fall auch von mir Herzlichen Dank für diesen langen und ausführlichen Artikel. Und besonderer Dank für den Hinweis auf die Emailweiterleitung. 🙂
Einige Punkte in den Webmaster Tools sind mir jetzt klarer geworden und ich werde mich da mal mit befassen. Besonders der Hinweis auf die Crawlinggeschwindigkeit hat mir missfallen. 🙂
Danke und Gruß, Max

Patrick schrieb am 2. September, 2012 @ 11:21

Auch von mir vielen Dank für diesen ausgearbeiteten Beitrag! Das mit der E-Mail – Weiterleitung hätte ich so gar nicht entdeckt. Danke dafür!
Man merkt ganz klar, dass Google die Zeichen der Zeit erkannt hat und sein eigenes SEO-Tool immer besser macht.

Trackbacks

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Loading Disqus Comments ...