Jump to content

Páginas no encontradas tipo http://www.mipagina.com/mipagina.com/


neodark2

Recommended Posts

Tengo el mismo problema con la versión 1.4. Numerosísimos errores de rastreo (1686 errores) por parte de Google: Error 404 (No se ha encontrado).

No solo pasa con categorías, sino con artículos también:

http://www.mipagina.com/categoria1/www.supergafas.com/categoria1/630-nombre-articulo.html

Desde que ha pasado ésto Google me está castigando en los resultados de búsqueda.

Ayuda por favor :)

Link to comment
Share on other sites

Hola, llevo 1 semana con el mismo error que los 2 compañeros anteriores.

He visto que en las herramientas de webmaster de google me dice mas de 200 errores de paginas no encontradas.

Tipo http://www.mipagina.com/www.mipagina.com/201-alarma-para-casa-en-oferta-con-gsm.html

Y así hasta 260 errores diferentes, yo uso la versión 1.3.2.3, con la versión anterior no me había pasado nunca.

Google me esta penalizando por tener tantas paginas no encontradas, y no se que hacer.

Pido por favor a los desarrolladores, administradores o cualquier persona que sepa lo que esta pasando que nos ayude.

A ver si lo solucionamos pronto entre todos.

gracias.

Link to comment
Share on other sites

Por lo que he entendido ojeando foros en otros idiomas es un bug de Prestashop con el módulo URL Canónicas. El mismo problema que tenemos nosotros parece tenerlo muchísima gente (y otros muchos ni se habrán dado cuenta). No obstante he podido leer que aun desinstalando el módulo de URL Canónicas el problema continúa...

Link to comment
Share on other sites

Hay una solución que he encontrado en el foro para webmasters de google. Funciona en la versión 1.3.2

Se trata de un fallo en el modulo canonical url, yo he seguido las recomendaciones y me ha ido bien.

http://www.google.com/support/forum/p/webmasters/thread?tid=1cce55fd92b616d1&hl=es

De hecho tengo que decir que de un tiempo a esta parte, he perdido mucho posicionamiento y creo que el culpable es ese fallo

Saludos.

Link to comment
Share on other sites

Hola Pitxi_glass, parece que por desgracia, no se arregla el fallo con esa modificación.

Yo de modificado el archivo canonicalurl.php y he puesto lo que dice el amigo NeODarK, pero me voy y miro en las estadísticas del panel de prestashop, en el modulo de paginas no encontradas y SIGUEN apareciendo muchos enlaces del tipo http://www.mipagina.com/comprar-accesorios-baratos/www.mipagina.com/comprar-accesorios-baratos/41-bateria-para-movil-sciphone-i9-i68-en-oferta.html-admin404

Algo esta mal en esta version de prestashop, htaccess, robots.txt, o no se donde, pero el error lo seguimos teniendo.

Ademas lo que mas me mosquea es que si fuera culpa del modulo canonica url, porque si lo desistalamos sigue dando errores ???

Habra que desistalarlo y borrarlo también de nuestro servidor, todos los archivos de ese modulo ????

A ver si entre todos damos con la solución a este problema.

Por favor los moderadores del foro que sabéis mucho de prestashop, os agradeceríamos mucho que nos ayudarais si podéis.

Gracias, un saludo.

Link to comment
Share on other sites

Supongo que google las tendrá indexadas y te seguirá mandando visitas a esas urls erroneas.

El que prestashop no te genere urls extrañas (con esta modificacion se soluciona), no significa que durante un tiempo no te sigan llegando peticiones a urls que no existen, tendrás que tener paciencia y esperar a que los buscadores las vayan eliminando conforme se encuentran que no existen y que dan error 404.

Como yo he tenido el mismo problema y voy anotando dia a dia las estadisticas de las herramientas de webmaster, ire comentando por aqui mis impresiones.

Saludos

Link to comment
Share on other sites

Hola Pitxi_glass, acabo de probar la utilidad Xenu y en principio no veo url extrañas, es decir de las 5000 url que me aparecen no veo ninguna que tenga la direccion http://www.mipagina.com/www.mipagina.com etc...
Eso quiere decir que ya no tengo el error en mi prestashop ??? Ojala se asi, jeje.

Has probado tu a ver las estadísticas de prestashop en el modulo de paginas no encontradas a ver si te siguen apareciendo mas paginas después de la modificación ????

Saludos.

Link to comment
Share on other sites

Hola Pitxi_glass, acabo de probar la utilidad Xenu y en principio no veo url extrañas, es decir de las 5000 url que me aparecen no veo ninguna que tenga la direccion http://www.mipagina.com/www.mipagina.com etc...
Eso quiere decir que ya no tengo el error en mi prestashop ??? Ojala se asi, jeje.

Has probado tu a ver las estadísticas de prestashop en el modulo de paginas no encontradas a ver si te siguen apareciendo mas paginas después de la modificación ????

Saludos.


Si, sigue apareciendo alguna.
Link to comment
Share on other sites



Hola, segun he leido en la pagina del autor, ese modulo es para las versiones 1.2 y nosotros tenemos instalada la 1.3.
Creo que ese modulo es para hacer sitemap correctamente, porque el modulo que tenia la 1.2 daba errores.

Pero creo que el modulo sitemaps version 1.6 que tiene la 1.3 no da esos errores, por lo menos yo no los veo.

este es mi sitemap para el que desee lo revise y me diga si esta correcto http://www.moviltecno.com/sitemap.xml

gracias un saludo.
Link to comment
Share on other sites



Hola, segun he leido en la pagina del autor, ese modulo es para las versiones 1.2 y nosotros tenemos instalada la 1.3.
Creo que ese modulo es para hacer sitemap correctamente, porque el modulo que tenia la 1.2 daba errores.

Pero creo que el modulo sitemaps version 1.6 que tiene la 1.3 no da esos errores, por lo menos yo no los veo.

este es mi sitemap para el que desee lo revise y me diga si esta correcto http://www.moviltecno.com/sitemap.xml

gracias un saludo.


Gracias 4webs, pero el fallo no es el sitemap, el cual la version 1.3.2.3 lo genera bien. El problema claramente era el urlcanonical:

¡¡¡ Acabo de ver que he bajado mucho el nº de paginas que tenia con títulos y descripciones duplicadas !!!

Descripciones duplicadas: de más de 600, a 73
Etiquetas de titulo duplicadas: de 1925 a 541

Tengo que decir que la mayoría de las url duplicadas, son por directorios /lang-es, /lang-fr y /lang-en, a los cuales he cortado el acceso mediante robots.txt y espero que en los proximos dias se solucione. Tengo controlado que cada 4 dias se actualizan las sugerencias en html de google webmasters, al menos en mi web.

Sauldso
Link to comment
Share on other sites



Hola, segun he leido en la pagina del autor, ese modulo es para las versiones 1.2 y nosotros tenemos instalada la 1.3.
Creo que ese modulo es para hacer sitemap correctamente, porque el modulo que tenia la 1.2 daba errores.

Pero creo que el modulo sitemaps version 1.6 que tiene la 1.3 no da esos errores, por lo menos yo no los veo.

este es mi sitemap para el que desee lo revise y me diga si esta correcto http://www.moviltecno.com/sitemap.xml

gracias un saludo.


Gracias 4webs, pero el fallo no es el sitemap, el cual la version 1.3.2.3 lo genera bien. El problema claramente era el urlcanonical:

¡¡¡ Acabo de ver que he bajado mucho el nº de paginas que tenia con títulos y descripciones duplicadas !!!

Descripciones duplicadas: de más de 600, a 73
Etiquetas de titulo duplicadas: de 1925 a 541

Tengo que decir que la mayoría de las url duplicadas, son por directorios /lang-es, /lang-fr y /lang-en, a los cuales he cortado el acceso mediante robots.txt y espero que en los proximos dias se solucione. Tengo controlado que cada 4 dias se actualizan las sugerencias en html de google webmasters, al menos en mi web.

Sauldso


Hola, Pitxi_glass, yo no tengo los problemas de los idiomas porque solo tengo activado el Español, pero si tengo el problema de las url no encontradas tipo http://www.mipagina.com/www.mipagina.com/201-alarma-para-casa-en-oferta-con-gsm.html

Aun después de haber modificado el archivo urlcanonical, incluso en la ultima revisión de google de ayer me han subido las paginas no encontradas de 210 a 237.

Como corto el acceso a todas estas paginas desde el robots txt ????

he probado a poner Disallow: /www.mipagina.com/

pero no se si tengo que poner una a una todas las 237 direcciones, que seria una locura.

Gracias.
Link to comment
Share on other sites

Pero los idiomas que indicáis los tenéis activados? e introducis la información correspondiente en su idioma, porque si no introduces en su idioma los contenidos y los tienes activados introduce lo mismo que en español, por lo que la página va a aparecer en los 3 idiomas igual....

Link to comment
Share on other sites


Hola, Pitxi_glass, yo no tengo los problemas de los idiomas porque solo tengo activado el Español, pero si tengo el problema de las url no encontradas tipo http://www.mipagina.com/www.mipagina.com/201-alarma-para-casa-en-oferta-con-gsm.html

Aun después de haber modificado el archivo urlcanonical, incluso en la ultima revisión de google de ayer me han subido las paginas no encontradas de 210 a 237.

Como corto el acceso a todas estas paginas desde el robots txt ????

he probado a poner Disallow: /www.mipagina.com/

pero no se si tengo que poner una a una todas las 237 direcciones, que seria una locura.

Gracias.


Lo que has puesto en robots.txt está bien. Eso impedirá que los robots vuelven a encontrar esas url.
Yo tambien tengo desactivado para los robots cualquier url con parametro, con la siguiente linea:
Disallow: /*?*
Es decir, como sabes una url puede ser del tipo:
http://www.mipagina.com/www.mipagina.com/201-alarma-para-casa-en-oferta-con-gsm.html
y es lo mismo que, por ejemplo
http://www.mipagina.com/www.mipagina.com/product.php?p=10
Al final resulta que las 2 urls te llevan al mismo sitio, o sea, contenido duplicado.

Por otra parte, para eliminar las urls raras lo tienes facil, puesto que todas estan en un direcorio, en la opción de eliminar urls, tienes la opcion de ELIMINAR DIRECTORIOS.

Pero no te agobies, suele tardar un tiempo en desaparecer esas url

Saludos
Link to comment
Share on other sites

Pero los idiomas que indicáis los tenéis activados? e introducis la información correspondiente en su idioma, porque si no introduces en su idioma los contenidos y los tienes activados introduce lo mismo que en español, por lo que la página va a aparecer en los 3 idiomas igual....


Hola 4webs, yo los tengo desactivados, pero en tiempos no lo estaban, asi que durante un tiempo google indexo los directorios /lang-es, /lang-en y /lang-fr.
Ahora mismo los tengo restringidos por robots.txt y borré esos directorios desde google webmasters.

Saludos
Link to comment
Share on other sites


Hola, Pitxi_glass, yo no tengo los problemas de los idiomas porque solo tengo activado el Español, pero si tengo el problema de las url no encontradas tipo http://www.mipagina.com/www.mipagina.com/201-alarma-para-casa-en-oferta-con-gsm.html

Aun después de haber modificado el archivo urlcanonical, incluso en la ultima revisión de google de ayer me han subido las paginas no encontradas de 210 a 237.

Como corto el acceso a todas estas paginas desde el robots txt ????

he probado a poner Disallow: /www.mipagina.como/

pero no se si tengo que poner una a una todas las 237 direcciones, que seria una locura.

Gracias.


Lo que has puesto en robots.txt está bien. Eso impedirá que los robots vuelven a encontrar esas url.
Yo tambien tengo desactivado para los robots cualquier url con parametro, con la siguiente linea:
Disallow: /*?*
Es decir, como sabes una url puede ser del tipo:
http://www.mipagina.com/www.mipagina.com/201-alarma-para-casa-en-oferta-con-gsm.html
y es lo mismo que, por ejemplo
http://www.mipagina.com/www.mipagina.com/product.php?p=10
Al final resulta que las 2 urls te llevan al mismo sitio, o sea, contenido duplicado.

Por otra parte, para eliminar las urls raras lo tienes facil, puesto que todas estan en un direcorio, en la opción de eliminar urls, tienes la opcion de ELIMINAR DIRECTORIOS.

Pero no te agobies, suele tardar un tiempo en desaparecer esas url

Saludos


Hola yo tambien le he puesto ahora Disallow: /*?*
Como hago para eliminar directorios en la opcion de eliminar url ???
Veo en google webmaster , nueva solicitud de eliminacion - Introduzca la URL que desee eliminar (distingue entre mayúsculas y minúsculas).
Y en teoria ahi tengo que escribir 1 url, pero como lo hago para que me elimine todo lo que este en /www.mipagina.com/ ????

Muchas gracias por tu ayuda, estoy seguro que al final lo conseguiré, aunque me esta dando muchos quebraderos de cabeza.
Incluso no se si desistalar el modulo de url canonicas, pero creo que aunque lo desistale, los errores siguen apareciendo.


saludos
Link to comment
Share on other sites


Hola, Pitxi_glass, yo no tengo los problemas de los idiomas porque solo tengo activado el Español, pero si tengo el problema de las url no encontradas tipo http://www.mipagina.com/www.mipagina.com/201-alarma-para-casa-en-oferta-con-gsm.html

Aun después de haber modificado el archivo urlcanonical, incluso en la ultima revisión de google de ayer me han subido las paginas no encontradas de 210 a 237.

Como corto el acceso a todas estas paginas desde el robots txt ????

he probado a poner Disallow: /www.mipagina.como/

pero no se si tengo que poner una a una todas las 237 direcciones, que seria una locura.

Gracias.


Lo que has puesto en robots.txt está bien. Eso impedirá que los robots vuelven a encontrar esas url.
Yo tambien tengo desactivado para los robots cualquier url con parametro, con la siguiente linea:
Disallow: /*?*
Es decir, como sabes una url puede ser del tipo:
http://www.mipagina.com/www.mipagina.com/201-alarma-para-casa-en-oferta-con-gsm.html
y es lo mismo que, por ejemplo
http://www.mipagina.com/www.mipagina.com/product.php?p=10
Al final resulta que las 2 urls te llevan al mismo sitio, o sea, contenido duplicado.

Por otra parte, para eliminar las urls raras lo tienes facil, puesto que todas estan en un direcorio, en la opción de eliminar urls, tienes la opcion de ELIMINAR DIRECTORIOS.

Pero no te agobies, suele tardar un tiempo en desaparecer esas url

Saludos


Hola yo tambien le he puesto ahora Disallow: /*?*
Como hago para eliminar directorios en la opcion de eliminar url ???
Veo en google webmaster , nueva solicitud de eliminacion - Introduzca la URL que desee eliminar (distingue entre mayúsculas y minúsculas).
Y en teoria ahi tengo que escribir 1 url, pero como lo hago para que me elimine todo lo que este en /www.mipagina.com/ ????

Muchas gracias por tu ayuda, estoy seguro que al final lo conseguiré, aunque me esta dando muchos quebraderos de cabeza.
Incluso no se si desistalar el modulo de url canonicas, pero creo que aunque lo desistale, los errores siguen apareciendo.


saludos


Pues muy sencillo:
Pon esta url para eliminar: /www.mipagina.com/ (asegurate de que es ese directorio el que tienes que borrar), y en el siguiente paso te aparece un desplegable, con una opcion que es "eliminar directorio"

Yo no lo desinstalaria el modulo canonical, no creo que ganes nada, sin embargo te va a ayudar a no generar contenido duplicado, ahora que funciona bien. Estuve probando el que viene con la version 1.4.02 y parece que funciona bien.
Link to comment
Share on other sites

He actualizado a versión 1.3.3
He borrado las páginas erróneas de la caché del google
He añadido en el módulo Canonicals las modificaciones de programación que indicaron
He probado hasta a "desinstalar" mi web en google herramientas webmaster, para después volverla a incluir...

Creo que he probado de todo y el problema persiste.

Link to comment
Share on other sites

Guest
This topic is now closed to further replies.
×
×
  • Create New...