mam już kilkuletni problem w tym, że tworzą mi się w sklepie adresy stron produktów z dodatekiem na końcu "?post=1". Pojęcia zielonego nie mam co odpowiada za tworzenie się tego. Kiedyś gdzieś na zagranicznych forach spotkałem się z takim problemem u innych ludzi, niestety bez jakiejkolwiek recepty na rozwiązanie tego problemu.
Co więcej próbowałem się tego pozbyć bez disallow w robots.txt . Dodane też jest noindex,nofollow dla każdej takiej strony, bo wcześniej panował totalny chaos w indeksacji podstron.
Niestety robot cały czas lata mi po tych stronach i mam prawie 7 tys stron (oprócz tych z post=1 też inne typu jakieś pojedyncze wyniki wyszukiwań, również potraktowane disallow) w GSC wykluczonych jako "strona wykluczona za pomocą tagu noindex". Wolałbym żeby robot stosował się do disallow i w ogóle na to nie wchodził, bo to jest więcej niż strona ma prawidłowych podstron w serwisie (około 6 tys).
Idealnie byłoby wyeliminować źródło tworzenia się tych adresów, ale nieźle byłoby też gdyby robot skupił się na stronach, które mają być w indexie, a nie na tych które ma wykluczać. Mam prawie 3-krotnie więcej wykloczonych niż prawidłowych, przez co budżet indeksowania jest marnotrawiony.
Question
DAB
Witam Panowie i Panie,
mam już kilkuletni problem w tym, że tworzą mi się w sklepie adresy stron produktów z dodatekiem na końcu "?post=1". Pojęcia zielonego nie mam co odpowiada za tworzenie się tego. Kiedyś gdzieś na zagranicznych forach spotkałem się z takim problemem u innych ludzi, niestety bez jakiejkolwiek recepty na rozwiązanie tego problemu.
Co więcej próbowałem się tego pozbyć bez disallow w robots.txt . Dodane też jest noindex,nofollow dla każdej takiej strony, bo wcześniej panował totalny chaos w indeksacji podstron.
Niestety robot cały czas lata mi po tych stronach i mam prawie 7 tys stron (oprócz tych z post=1 też inne typu jakieś pojedyncze wyniki wyszukiwań, również potraktowane disallow) w GSC wykluczonych jako "strona wykluczona za pomocą tagu noindex". Wolałbym żeby robot stosował się do disallow i w ogóle na to nie wchodził, bo to jest więcej niż strona ma prawidłowych podstron w serwisie (około 6 tys).
Idealnie byłoby wyeliminować źródło tworzenia się tych adresów, ale nieźle byłoby też gdyby robot skupił się na stronach, które mają być w indexie, a nie na tych które ma wykluczać. Mam prawie 3-krotnie więcej wykloczonych niż prawidłowych, przez co budżet indeksowania jest marnotrawiony.
Jakieś pomysły na rozwiązanie tego problemu?
Link to comment
Share on other sites
4 answers to this question
Recommended Posts
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now