rankingCHECK
MENÜ

“That’s a great Question” – Matt Cutts beantwortet Fragen zu SEO (Teil 2)

Heute beschäftigen wir uns wieder mal ein wenig mit Matt Cutts. Matt ist Head of Spam bei Google und so etwas wie der inoffizielle Presssprecher für die SEO Szene. Wie schon im ersten Teil, den wir vor einigen Monaten veröffentlicht haben, geht es auch in diesem Artikel um Fragen von Usern, die er im Google Webmaster Central Channel beantwortet. Viel Spaß dabei, wenn es wieder heißt: “And today’s question comes from…”

Matt Cutts - Googles head of Spam

Werden sich die Rankings meiner Seite verändern, wenn ich diese auf neue URLs weiterleite, der HTML-Code und das Layout aber unterschiedlich ist?

Matt Cutts: Die Rankings sollten für gewöhnlich stabil bleiben, solange die alten URLs korrekt mit einem permanenten redirect auf die entsprechenden neuen URLs verweisen, die Ebenenstruktur gleich bleibt und Google durch das neue Design auch weiterhin keine Probleme mit der Indexierung der Texte und des Layouts hat. Da aber nicht nur Backlinks, sondern auch der Content der Seite zur Bewertung der Rankings herangezogen wird, sollte man (wenn möglich) mit einzelnen Seiten Teile des alte Layout testen, um zu sehen, wo eventuelle Probleme liegen könnten.

Gibt es ein Limit für die Anzahl von gesetzten redirects pro Domain und wie verhält sich der Googlebot bei der Kopplung von mehreren Weiterleitungen?

Matt Cutts: Die reine Anzahl von redirects von einer Domain auf eine andere stellt für Google kein Problem dar. Dabei spielt es keine Rolle, ob es 100 oder 100.000 Seiten sind, die auf das entsprechende Adäquat weitergeleitet werden. Anders verhält es sich bei redirects, die über mehrere URLs auf die Ziel-URL verweisen. Spätestens bei 4-5 ist hier Schluss und wird nicht weiter verfolgt. Eine direkte Weiterleitung ohne Umwege ist daher klar zu bevorzugen.

Betrachtet Google SEO als Spam?

Matt Cutts: Die Antwort heißt ganz klar nein, denn im Prinzip bedeutet SEO nichts anderes, als die eigene Seite besser in den Suchergebnissen zu positionieren. Es gibt unglaublich viele White-Hat-Methoden, um die Qualität einer Seite und somit die Suchergebnisse von Google zu verbessern: Crawlability und Accessibility, Verwendung von richtigen Keywords, Optimierung des Webseitendesigns und der Usability, PageSpeed, Architektur und URL-Struktur der Webseite, usw. kommen auch Google selbst zu Gute, wenn dadurch die UX gesteigert werden kann. Natürlich gibt es ebenso SEO-Methoden, die Google ein Dorn im Auge sind, da aber Google nicht perfekt ist, wird man auch weiterhin auf gute SEOs angewiesen sein.

Wie optimiert man PDFs für Suchmaschinen und wann entscheidet sich Google dafür, ein PDF vor einer Webpage ranken zu lassen?

Matt Cutts: Es gibt eigentlich nicht viele Möglichkeiten, um ein PDF zu optimieren. Gut gewählte Titles und viel Text sind ausschlaggebend, da OCR hier vorerst kaum zum Einsatz kommt. Ebenso sollten PDFs nicht einfach automatisiert auf eine Seite gewürfelt werden. Der zweite Teil der Frage ist wesentlich komplexer und kann nur sehr schwammig beantwortet werden. Zu entscheiden, ob ein HTML Dokument relevanter als ein PDF erscheint, entscheidet Google letztendlich individuell anhand von userspezifischen Daten und Suchverhalten. Klare Aussagen zu einer Bevorzugung können daher nicht gemacht werden.

Welche Rolle spielt ein DMOZ Eintrag noch für das Ranking?

Matt Cutts: Da das Open Directory Project mittlerweile etwas in die Jahre gekommen ist, hat man bei Google Schritte unternommen, die Bedeutung von DMOZ entsprechend anzupassen. Im manchen asiatischen Ländern mag es noch eine Rolle spielen, in den meisten anderen Ländern aber nicht mehr. Allerdings können die Daten immer noch für die Snippet-Anzeige verwendet werden, wenn die Seite per robots.txt für den Googlebot ausgeschlossen wird. In diesen Fällen kann es dann manchmal hilfreich sein, die Daten von DMOZ zu beziehen, obwohl derzeit getestet wird, ob man auch auf diese Möglichkeit gänzlich verzichten möchte.

Hat die Schreibweise und Grammatik Auswirkungen auf die Bewertung von Content?

Matt Cutts: Das letzte Mal als ich dies überprüft habe, ist schon eine Weile her. Damals war dies kein direktes Signal zur Bewertung der Rankings. Schaut man sich allerdings den PageRank der meisten Seiten an, also die Reputation, die Google einer Seite über andere Faktoren zuweist und vergleicht diese mit dessen Orthographie, so ist ganz eindeutig eine Korrelation zu erkennen. Es gab Studien, in denen die Rechtschreibung verschiedener Webseiten in Schulklassen-Niveau eingestuft wurde. Diese Überlegung wäre auch für Google interessant, allerdings muss man hier bedenken, dass sprachübergreifende Probleme auftreten können und eine Spracherkennungs-Software perfekt funktionieren müsste.

Wenn ich Backlinks auf eine URL bekomme, die mit und ohne Trailing Slash erreichbar ist, wird der PageRank dann aufgeteilt?

Matt Cutts: Nein, der PageRank sollte sich nicht aufteilen, da Google bei der Kanonisierung einen recht guten Job macht und Seiten die mit www oder Trailing Slash, als auch ohne richtig zuordnen kann. Technisch gesehen sind dies unterschiedliche Seiten, man sollte daher im Fall von Server-Performance-Schwankungen darauf achten, dass wenn eine Variante auf die andere weitergeleitet wird, diejenige verwendet wird, die schneller angezeigt wird.

Wie bestimmt Google die ursprüngliche Quelle von Content?

Matt Cutts: Die Vorgehensweise, wie wir den Content der Originalquelle zuordnen, hat sich über die Zeit verändert. Aber es gibt ganz offensichtliche Faktoren, die jedem einleuchten: Zunächst wäre der Zeitpunkt, wann der Content auf einer bestimmten Seite auftaucht. Viele CMS, wie WordPress oder Blogger bieten zusätzlich die Möglichkeit Pings zu senden, ebenso spielt der PageRank eine Bedeutung. Hier wird im Zweifel die Seite mit mehr Reputation einer neueren Seite vorgezogen. Auch das rel=”canonical”-Tag gibt einen sehr expliziten Hinweis darauf, zu welcher bevorzugten URL der Content zugesprochen werden soll, ebenso wie die indirekte Methode über den rel=”author” Tag, oder auch Side Level Signals. Wenn also eine Seite dazu tendiert Inhalte zu scrapen, kann dies ebenso dazu führen, dass andere Seiten der Content zugesprochen wird.

Fazit:

Ben Garboniak ist SEO Consultant bei rankingCHECK und für den Bereich Kreation zuständig. Während er online über Themen rund um die Suchmaschinenoptimierung und Social Media Marketing schreibt, befasst er sich analog mit Grafikdesign, Photographie, Foosball und seiner Dackelmischlingsdame Pera.

0 / 5 (0 votes)

Schreibe einen Kommentar

Loading Facebook Comments ...

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Loading Disqus Comments ...