mountarreat Posted October 25, 2018 Share Posted October 25, 2018 Ich habe erst kürzlich von 1.6 auf 1.7.4.3 geupdated. Was dabei alles schief gelaufen ist, kann man hier nachlesen, samt Lösungen aller aufgetretenen Probleme: https://www.prestashop.com/forums/topic/912694-upgrade-16118-1743-richtiges-prozedere/?do=findComment&comment=2998080 Nun aber ein weiteres Problem. Heute habe ich nach einem Index-Update einen kleinen Schreck bekommen, da mir die Google Konsole plötzlich sagt, dass alle meine Seiten nicht mehr mobilfreundlich sind, was sie aber mit 1.6 schon waren. Das classic Theme 1.7 sieht ja eigentlich chic aus, also zumindest besser und mobilfreundlicher als das alte aus 1.6. Das Problem ist Folgendes... per Standard blockt PrestaShop wichtige Ressourcen in der robots.txt mit den Zeilen Disallow: */cache/ Disallow: */css/ Disallow: */js/ Unglücklicherweise schließt das auch '/themes/classic/assets/cache/' mit ein, also die Ressourcen, auf die Google Zugriff haben muss, um das Layout zu beurteilen. Ansonsten wird die Seite nur teilweise geladen. Wenn die CSS und JS Dateien, ggf. Bilder nicht geladen werden können, wird das reine HTML ohne Stile bewertet. Klickbare Elemente liegen plötzlich zu nahe beieinander, da zu klein, und ggf. ist der Inhalt breiter als der Bildschirm. Schon ist die Seite im Index als nicht mobilfreundlich markiert, obwohl sie es eigentlich ist. Das könnte nun im Mobile-First-Index langfristig fatale folgen haben und sollte behoben werden. Ein Hinzufügen von Allow: */themes/*/cache/*.css Allow: */themes/*/cache/*.js Allow: */themes/*/css/*.svg Allow: */themes/*/css/*.ttf Allow: */themes/*/css/*.woff Allow: */themes/*/css/*.woff2 Allow: */themes/*/js/*.js in der robots.txt erlaubt wieder den Zugriff auf diese Dateien (Theme-Stile, -Scripte, -Icons und -Schriftarten) und kann Schlimmeres verhindern. Bei mir hat es den Ursprungszustand wiederhergestellt: Seite ist mobilfreundlich. Ob ihr betroffen seid, prüft ihr am besten mit dem Google-Tool selbst: https://search.google.com/test/mobile-friendly 1 1 Link to comment Share on other sites More sharing options...
Shad86 Posted October 25, 2018 Share Posted October 25, 2018 In der Vorschau rechts wird mir tatsächlich der Shop ohne CSS angezeigt, trotzdem steht daneben: Die Seite ist für Mobilgeräte optimiert. Google Pagespeed Insight zeigt bei der mobilen Variante aber die tatsächliche an. Also mit CSS und allem. Link to comment Share on other sites More sharing options...
mountarreat Posted October 25, 2018 Author Share Posted October 25, 2018 (edited) Screenshotter und User sehen die Seite ganz normal. Der Punkt ist der, dass Google die Seite nur teilweise lesen darf. Als Referenz schaue auch hier: https://de.ryte.com/magazine/der-googlebot-kann-nicht-auf-css-und-js-dateien-zugreifen-googles-warnung-in-der-search-console Google hat das seit 4 Jahren in der Webmaster-Guideline, und warnt sogar aktiv seit 2015 in der Search Console. Es kann sein, dass deine Website noch als mobilfreundlich durchgeht, da du keine Tabellen verwendest, und auch keine andere Elemente, die den Screen sprengen. Aber genauso wie du sie siehst, also ohne Stile in dem Test-Tool, so sieht der Google-Crawler deine Seite auch, da er die anderen Ressourcen nicht abgreifen darf. Daher verweise ich nochmals auf SearchEngineLand, oder zahlreiche andere Artikel darüber. https://yoast.com/dont-block-css-and-js-files/ (en) https://searchengineland.com/google-search-console-warnings-issued-for-blocking-javascript-css-226227 (en) Und auch noch mal ganz offiziell von Google selbst: https://webmaster-de.googleblog.com/2014/10/aktualisierung-der-technischen-richtlinien.html Quote Wenn ihr das Crawling von JavaScript-oder CSS-Dateien in der robots.txt-Datei eurer Website nicht zulasst, wirkt sich dies unmittelbar auf die Darstellung und Indexierung eurer Inhalte durch unsere Algorithmen aus und kann zu schlechteren Rankings führen. Edited October 25, 2018 by mountarreat (see edit history) Link to comment Share on other sites More sharing options...
Shad86 Posted October 29, 2018 Share Posted October 29, 2018 Guten Morgen, danke für die sehr ausführliche Antwort. Ich werde mir das ganze definitv nachher mal genauer durchlesen. Und wenn es es mit dem kleinen Zusatz getan ist, wär es ja auch kein Problem. Da man den Zusatz ja in den "custom" Bereich der robots.txt packen kann ist man damit ja auch Updatesicher. Link to comment Share on other sites More sharing options...
***didi*** Posted October 29, 2018 Share Posted October 29, 2018 Vielen Dank für den Beitrag! Am 25.10.2018 um 9:59 AM schrieb mountarreat: Klickbare Elemente liegen plötzlich zu nahe beieinander, da zu klein, und ggf. ist der Inhalt breiter als der Bildschirm. genau dieses Problem wurde mir angezeigt. Und durch das Einfügen wie oben beschrieben, ist es nun behoben :-D Link to comment Share on other sites More sharing options...
A2G Posted November 13, 2018 Share Posted November 13, 2018 Hi, danke für den Tip. Bei mir war es mit Version 1.7.2.2 auch der Fall. Frühere Tests mit Google hatten allerdings keine Probleme angezeigt. Mit dem Link von dir hatte ich aber den gleichen Effekt. Nach Einfügen der zusätzlichen Werte ist das Problem behoben und die Ansicht beim Test normal. Vielen Dank nochmals Viele Grüße Frank Link to comment Share on other sites More sharing options...
Egli-Werbung Posted December 7, 2018 Share Posted December 7, 2018 (edited) Danke für den Tipp. Kannst auch einfach das robots.txt komplett löschen Edited December 7, 2018 by Egli-Werbung i Have more to tell (see edit history) Link to comment Share on other sites More sharing options...
***didi*** Posted February 5, 2019 Share Posted February 5, 2019 Hallo mountarreat, seit einiger Zeit steigt die Zahl der Seiten die NICHT mobilfreundlich sind wieder an. Wie ist es bei dir? Sind alle Seiten bei dir ohne Fehler? Link to comment Share on other sites More sharing options...
fox@dog1 Posted November 29, 2019 Share Posted November 29, 2019 Hallo Besten Dank für Deinen Tipp. Jetzt werden bei nur noch 4 Seitenressourcen nicht geladen. Hast Du dazu auch noch einen Rat? Folgende Scripts werden nicht geladen: googleads.g.doubleclick.net (2 Mal), widgets.pinterest und dann habe ich noch einen "sonstiger Fehler www.facebook.com/tr", den letzten Link finde ich nicht auf meiner Seite. Ich nutze PS 1.7.5.1 Gruss aus der Schweiz Link to comment Share on other sites More sharing options...
Michi001 Posted March 7, 2021 Share Posted March 7, 2021 (edited) Hi Leute, Ich benutze PS 1.7.7.1 und habe ein ähnliches Problem, vor allem im google Merchant Center. Ich hatte vor einigen Wochen als Test die Produkte von google selbst crawlen lassen. Dabei hatte ich keine Fehler angezeigt bekommen. Nun habe ich ein kostenpflichtiges Plugin installiert, welches die Feeds für das google Merchant Center erstellt. Die Produkte werden fehlerfrei eingelesen und Tage später können -angeblich- bei einigen Produkten die Mobile Seite und/oder die Desktop Seite nicht aufgerufen werden. Wieder 2-3 Tage später ist dies bei einigen Produkten wieder möglich und dafür werden dann bereits freigegebene Produkte aus demselben Grund gesperrt... Also ein hin und her. Google schreibt, dass in der robots.txt die Einträge für googlebot und googlebot-image fehlen. Dies kann ich jedoch nicht verstehen, denn auch davor waren diese Einträge nicht vorhanden und die Produkte konnten trotzdem gelesen werden. Macht es Sinn, neben den empfohlenen zusätzlichen Zeilen auch die folgenden noch hinzuzufügen? Also quasi so: User-agent: Googlebot User-agent: Googlebot-image User-agent: * # Allow Directives Allow: */modules/*.css Allow: */modules/*.js Allow: */modules/*.png Allow: */modules/*.jpg Allow: /js/jquery/* Allow: */themes/*/cache/*.css Allow: */themes/*/cache/*.js Allow: */themes/*/css/*.svg Allow: */themes/*/css/*.ttf Allow: */themes/*/css/*.woff Allow: */themes/*/css/*.woff2 Allow: */themes/*/js/*.js # Private pages Disallow: /*?order= Disallow: /*?tag= usw... Edited March 7, 2021 by Michi001 (see edit history) Link to comment Share on other sites More sharing options...
CharlyHarpers Posted December 7, 2023 Share Posted December 7, 2023 On 3/7/2021 at 1:10 PM, Michi001 said: Hi Leute, Ich benutze PS 1.7.7.1 und habe ein ähnliches Problem, vor allem im google Merchant Center. Ich hatte vor einigen Wochen als Test die Produkte von google selbst crawlen lassen. Dabei hatte ich keine Fehler angezeigt bekommen. Nun habe ich ein kostenpflichtiges Plugin installiert, welches die Feeds für das google Merchant Center erstellt. Die Produkte werden fehlerfrei eingelesen und Tage später können -angeblich- bei einigen Produkten die Mobile Seite und/oder die Desktop Seite nicht aufgerufen werden. Wieder 2-3 Tage später ist dies bei einigen Produkten wieder möglich und dafür werden dann bereits freigegebene Produkte aus demselben Grund gesperrt... Also ein hin und her. Google schreibt, dass in der robots.txt die Einträge für googlebot und googlebot-image fehlen. Dies kann ich jedoch nicht verstehen, denn auch davor waren diese Einträge nicht vorhanden und die Produkte konnten trotzdem gelesen werden. Macht es Sinn, neben den empfohlenen zusätzlichen Zeilen auch die folgenden noch hinzuzufügen? Also quasi so: User-agent: Googlebot User-agent: Googlebot-image User-agent: * # Allow Directives Allow: */modules/*.css Allow: */modules/*.js Allow: */modules/*.png Allow: */modules/*.jpg Allow: /js/jquery/* Allow: */themes/*/cache/*.css Allow: */themes/*/cache/*.js Allow: */themes/*/css/*.svg Allow: */themes/*/css/*.ttf Allow: */themes/*/css/*.woff Allow: */themes/*/css/*.woff2 Allow: */themes/*/js/*.js # Private pages Disallow: /*?order= Disallow: /*?tag= usw... Hi, selbiges Problem hier, hast Du eine Lösung gefunden? Link to comment Share on other sites More sharing options...
Recommended Posts
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now