Frage von msdos211, 5

Ist diese robots.txt so okay?

Seit ca. 1 Woche erhalte ich immer die Fehlermeldung: "Der Googlebot kann nicht auf CSS- und JS-Dateien zugreifen" (es geht um eine Homepage, die mit Contao erstellt wurde) Nun habe ich die robots.txt wie folgt erweitert: "User-agent: * Disallow: /check/ Disallow: /contao/ Disallow: /system/ Disallow: /templates/ Disallow: /share/index.php Disallow: /contao-check.php Disallow: /flash.php Disallow: /readme.md Allow: /assets/ User-Agent: Googlebot Allow: .js Allow: .css" Wird der Googlebot damit zufrieden sein? Oder verabschiedet er sich schon bei den Disallows?" Danke im Voraus!

Antwort
von Rossslauer, 5

Hallo msdos211,

um .css und .js Dateien checken zu können muß Googlebot in die zugehörenden Verzeichnisse. Diese schließt Du jedoch aus. In etwa: "Du darfst in alle .css und .js Dateien schauen, aus die Verzeichnise wo besagte Dateien liegen halt dich jedoch raus." Ich glaub nicht das es so funktioniert.

Kommentar von msdos211 ,

Danke für die Antwort. Wenn ich das richtig verstanden habe: "...User-Agent: Googlebot Allow: .js Allow: .css ..." sollte ganz am Anfang der robots.txt stehen?

Kommentar von Rosslauer ,

Hast Du die Antwort gelesen? In welchem Verzeichnis liegen besagte CSS- und JS Dateien und kann Google auf diese Verzeichnisse zugreifen?

Liegen die CSS- und JS Dateien im Verzeichnis templates/ und Du sagst, in die /templates/ hat Google nichts verloren dann hilft es auch nichts wenn Du Google den Zugriff auf Script- und Styledateien erlaubst.

Keine passende Antwort gefunden?

Fragen Sie die Community

Weitere Fragen mit Antworten