rankingCHECK
MENÜ

SEO Sunday: “That’s a great Question” – Matt Cutts beantwortet Fragen zu SEO (Teil 3)

So, nun ist es wieder einmal so weit. Alle paar Monate gibts von mir eine kleine Zusammenfassung der Google Webmaster Help Videos mit Matt Cutts (Googles Head of Spam), in denen er Userfragen zu bestimmten SEO Themen beantwortet. Insgesamt gab es diesmal recht wenig Videos, in denen sich Matt zu bestimmten Themen geäußert hat. Anscheinend hatte das Webspam Team mit dem Pinguin und Panda Update zu viel zu tun. 😉

Die drei interessantesten Fragen und Antworten habe ich jedoch wie immer frei ins Deutsche übersetzt, um einen kleinen Einblick aus der Sichtweise der Suchmaschine zu zeigen. Viel Spaß beim lesen!

Sollten man  für den Google Bot langsame Seiten auf disallow setzen, um die PageSpeed der gesamte Domain zu verbessern?

Matt Cutts: Generell wäre es besser, wenn der Google Bot die Seiten crawlt, die auch der User sehen kann. In der Regel setzt unser PageSpeed-Mechanismus bei ca. 1 von 100 Suchanfragen ein, also nur ca. jede 1000. Seite wird auf Grund von langsamen Ladezeiten in den Rankings herabgestuft.

Aus diesem Gesichtspunkt heraus muss man sich also weniger Sorgen machen. Viel wichtiger ist in diesem Bezug die User Experience. Seiten, die erst nach 8-20 Sekunden ausgeliefert werden, werden von Usern logischerweise nur schlecht angenommen und wieder verlassen. Vor allem aus diesem Grund sollte an der PageSpeed gearbeitet werden.

Solange aber nur ein paar wenige Seiten betroffen sind und die Webseite ansonsten eine gute Performance bietet, sollte man diese nicht für den Google Bot blockieren.

Wie setzt Google Human Raters für die Websuche ein?

Matt Cutts: Zunächst muss man hier Human Raters etwas genauer definieren: Wir meinen in diesem Fall tatsächlich Leute, die von Google bezahlt werden und Suchergebnisse manuell bewerten und nicht User, die Suchergebnisse direkt, bzw. über die Chrome Extension blockieren, oder zu unserem Webspam-Team gehören.

Human Raters werden von Google nicht eingesetzt, um das Ranking direkt zu beeinflussen. Nehmen wir an, einer unserer Ingenieure hat eine neue Idee, um Suchanfragen zu verbessern. Die entsprechenden Suchergebnisse werden, wie bereits erwähnt, zunächst quantitativ nach bestimmten Kriterien bewertet und eingestuft. Ist diese URL gut? Ist sie schlecht? Spam oder essentiell für diese Suchanfrage?

Anschließend werden die neuen Algorithmus-Anpassungen des Ingenieurs intern getestet und die entsprechenden Suchergebnisse mit den alten verglichen. Hierfür zieht man die zuvor erstellen manuellen Bewertungen der Human Raters heran und erhält einen ersten guten Eindrück davon, ob sich die Suchergebnisse tendenziell verbessert haben, oder nicht.

Um weitere Daten über die Qualität der neuen Ergebnisse zu erhalten, wird ein sogenannter side-by-side durchgeführt. Sowohl die alten, als auch die neuen Suchergebnisse werden dem Human Rater vorgelegt, ohne das dieser weiß, welches das Testergebnis ist. Beide Ergebnisse werden nun nochmals bewertet, idealerweise mit Kommentaren, um weitere Informationen zu gewinnen.

Haben die neuen Änderungen eine bemerkbare positive Auswirkung auf die Suchergebnisse gebracht, werden erste Live-Testings an einer kleinen Gruppe von echten Usern durchgeführt. Hier können anhand von CTRs, Bounce Rates und weiteren gemessenen Faktoren zusätzliche Informationen über die Qualität der Testergebnisse gewonnen werden.

Wie sieht die ideale Keyword Density für Webseite aus?

Matt Cutts: Viele Leute sind der Meinung, es gäbe hierfür eine bestimmte Regel, der man folgend könnte, um auf Platz 1 zu landen. Natürlich ist es so, dass wenn man ein bestimmtes Keyword im Text verwendet, Google dadurch aufmerksam wird. Auch eine weitere Erwähnung des Begriffs kann hilfreich sein. Sobald man aber das Keyword öfter verwendet, hat dies keinen bemerkbaren, bzw. positiven Einfluss mehr und kann sogar bei Übertreibung als Keyword-Stuffing gewertet werden.

Man sollte folgendermaßen vorgehen: Überlegen Sie sich, welche Keywords Sie in Ihrem Text verwenden möchten. Stellen Sie sicher, dass dieser Text lang genug ist, um die Keywords entsprechend einzubauen. Der Text sollte vor allem natürlich klingen und nicht künstlich wirken. Für gewöhnlich erkennt man SEO Texte, in denen die Keywords reingepresst wurden, sofort und sollte diese auf jeden Fall vermeiden.

Ich würde mich darüber freuen, wenn Webmaster nicht so obsessiv mit dieser Thematik umgehen würden. Die Bewertung der Texte variiert und hängt von verschiedenen Faktoren ab. Welche anderen Seiten ranken zu diesem Begriff, wo ist das Keyword platziert, etc. Es gibt also keine feste Regel, wie hoch die Keyword Density sein muss.

Ben Garboniak ist Consultant Online Marketing bei rankingCHECK und schreibt über Themen rund um die SEO und Social Media Marketing.

3.56 / 5 (9 votes)

Schreibe einen Kommentar

Loading Facebook Comments ...

8 Kommentare

Arne schrieb am 27. August, 2012 @ 5:53

Also ich weiss nicht. Irgendwie habe ich nicht mehr so grosse Lust auf die Videos von Matt. In der letzten Zeit sagt er irgendwie nichts mehr aus.

Hier das Beispiel mit der Keyword-Dichte. Zum einen sagt er ganz klar, dass es eine Rolle spielt, möchte aber dass die SEOs es ignorieren 😉
Wer kann sich schon absichtlich blind stellen?? hehe

Monika schrieb am 28. August, 2012 @ 16:56

Na er schreibt doch ganz klar, das der Text natürlich wirken muss. Ich schau garnicht mehr wie oft ein Keyword drinn vor kommt. Ich schreib oder lass einen Text dazu schreiben, der sich für den User gut lesen lässt.

Tamer schrieb am 29. August, 2012 @ 18:55

Ich hab selbst auch noch nie Keywörter gezählt oder eine bestimmte Dichte angestrebt. Das wäre mir persönlich viel zu aufwendig. Der Text muss gut lesbar sein und dem Kunden/User/Besucher gefallen.

Pepe schrieb am 4. September, 2012 @ 13:09

Solange sich ein Text gut anhört, und ein Keyword den natrürlichen Lesefluss nicht stört ist es glaube ich egal, ob es 5 oder 8 mal vorkommt. Dass es in einer gewissen Anzahl vorkommen muss, ist klar. Aber ich denke, dass man sich darum bei weitem nicht soviel Gedanken machen sollte, wie es einige Leute tun. So fahre ich jedenfalls bisher recht gut. Und ich denke langfristig ist das der richtige Weg.

Sandra schrieb am 6. September, 2012 @ 7:51

Ich denke auch dass ein Text gut lesbar sein muss schließlich werden Texte ja für Leser geschrieben und nicht für Suchmaschinen – ich denke das ist das was uns Matt hier auch sagen will…

Hans schrieb am 12. September, 2012 @ 9:30

Ich finde die Aussagen von Matt absolut OK, beim GoogleBot geht er ja einwenig ins Detail – das Thema Keyword muss er ja allgemeiner behandeln, er kann ja nicht sagen man braucht 5 Wörter pro Text.

Francis schrieb am 3. Oktober, 2012 @ 1:06

Die Aussage zur KWD finde ich auch schon etwas nichtssagend. Er hätte zumindest irgend nen Zahlenwert nennen können, z.B. ab 5 % ist es definitiv negativ zu bewerten oder sowas in der Art.

Trackbacks

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Loading Disqus Comments ...