Dienstag, 20. Juli 2010
Heute spricht Matt Cutts darüber, ob es ratsam ist, dem Googlebot andere Inhalte als den Usern anzubieten.
Die heutige Frage kommt von Remiz Rahnas in Kerala in Indien. Remiz fragt:
"Laut Google wirkt sich die Ladezeit der Seiten auf das Ranking aus. Sollen wir Nur-Content-Seiten für die Googlebots erstellen, indem wir Bilder und CSS- und JavaScript-Ladevorgänge entfernen?"
Die Antwort auf diese Frage lautet "Neeeeeeeiiiiiiin". Am liebsten würde ich durch den Bildschirm greifen und die ESC-Taste, Strg+C und Pause drücken, denn das ist Cloaking. Ihr solltet niemals etwas für den Googlebot anders machen als für normale Nutzer. Das ist die Definition von Cloaking. Euer Code darf keine Anweisung enthalten wie "Wenn der Nutzeragent der Googlebot ist oder wenn die IP-Adresse Google ist, mach etwas anderes". Das ist die Grunddefinition von Cloaking.
Ihr könntet also glauben, da die Ladezeit der Seiten eine wichtige Rolle spielt, müsst ihr den Vorgang für den Googlebot beschleunigen. Aber dieser Ansatz ist falsch. Erstens ermitteln wir die Ladezeit einer bestimmten Seite oder Website nicht nur anhand des Googlebot. Das würde also gar nicht funktionieren. Zweitens, wenn ihr den Content ändert, der angezeigt werden kann, können die Nutzer die Cache-Seite sehen und denken: "Oh, nur eine Textseite". Das wäre sehr seltsam und ihr erhieltet Beschwerden wegen Website-Cloaking.
Denkt daran: Wenn ihr CSS- und JavaScript-Bilder einfügt, sind diese meistens extern und werden gar nicht zu diesem Zeitpunkt von Google geladen. Auch wenn wir wissen, dass dieser externe Content existiert, rufen wir ihn nicht notwendigerweise vollständig ab und integrieren ihn in die Seite. Ihr solltet aber unbedingt den Nutzern dieselbe Seite zeigen wie dem Googlebot. Tut nichts, um den Vorgang für den Googlebot zu beschleunigen, denn das ist Cloaking und somit viel riskanter als zu versuchen, den Vorgang nur wegen des Googlebot zu beschleunigen.
Post von Daniela Loesser, Search Quality Team
Die heutige Frage kommt von Remiz Rahnas in Kerala in Indien. Remiz fragt:
"Laut Google wirkt sich die Ladezeit der Seiten auf das Ranking aus. Sollen wir Nur-Content-Seiten für die Googlebots erstellen, indem wir Bilder und CSS- und JavaScript-Ladevorgänge entfernen?"
Die Antwort auf diese Frage lautet "Neeeeeeeiiiiiiin". Am liebsten würde ich durch den Bildschirm greifen und die ESC-Taste, Strg+C und Pause drücken, denn das ist Cloaking. Ihr solltet niemals etwas für den Googlebot anders machen als für normale Nutzer. Das ist die Definition von Cloaking. Euer Code darf keine Anweisung enthalten wie "Wenn der Nutzeragent der Googlebot ist oder wenn die IP-Adresse Google ist, mach etwas anderes". Das ist die Grunddefinition von Cloaking.
Ihr könntet also glauben, da die Ladezeit der Seiten eine wichtige Rolle spielt, müsst ihr den Vorgang für den Googlebot beschleunigen. Aber dieser Ansatz ist falsch. Erstens ermitteln wir die Ladezeit einer bestimmten Seite oder Website nicht nur anhand des Googlebot. Das würde also gar nicht funktionieren. Zweitens, wenn ihr den Content ändert, der angezeigt werden kann, können die Nutzer die Cache-Seite sehen und denken: "Oh, nur eine Textseite". Das wäre sehr seltsam und ihr erhieltet Beschwerden wegen Website-Cloaking.
Denkt daran: Wenn ihr CSS- und JavaScript-Bilder einfügt, sind diese meistens extern und werden gar nicht zu diesem Zeitpunkt von Google geladen. Auch wenn wir wissen, dass dieser externe Content existiert, rufen wir ihn nicht notwendigerweise vollständig ab und integrieren ihn in die Seite. Ihr solltet aber unbedingt den Nutzern dieselbe Seite zeigen wie dem Googlebot. Tut nichts, um den Vorgang für den Googlebot zu beschleunigen, denn das ist Cloaking und somit viel riskanter als zu versuchen, den Vorgang nur wegen des Googlebot zu beschleunigen.
Post von Daniela Loesser, Search Quality Team