Jump to content

Recommended Posts

Tengo configurado un cron diario para que me genere el fichero sitemap.xml. Además periódicamente regenero el fichero robots.txt después de reindexar los productos desde el backoffice.

 

Desde hace tiempo mi posicionamiento no ha dejado de caer y no entiendo bien por qué. Quizá sea porque no entiendo el funcionamiento que google hace de estos dos ficheros.

 

Si miro las herramientas del webmaster de google veo que tengo: 8207 páginas web enviadas. 3486 indexadas y 2853 imágenes indexadas.

 

preguntas:

1.- ¿No debería tener el mimsmo nº de páginas indexadas que enviadas?

2.- Estos datos corresponden al último fichero sites.xml que subí a mano. Si genero diariamente un sites.xml nuevo ¿no debería subir a google automáticamente?. He visto que si no lo subo a mano, no se actualiza automáticamnete en google. Además tengo configurado que el robot googleboot lea el fichero robot.txt cada 3 días.

Link to comment
Share on other sites

Hola!! te respondo:

 

1.- No necesariamente, porque por ejemplo, hoy pude haber enviado 100 páginas a google, pero si su googleboot no las ha visitado no serán indexadas.

2.- Porqué generas el site.xml todos los días? todos los días cambia tu sitio con más páginas??

Link to comment
Share on other sites

Gracias por la rápida respuesta.

Genero el site.xml porque prácticamente todos los días hay cambios de catálogo (altas y bajas de productos). Estoy manejando un catálogo de más de 8.000 productos aunque mi proveedor maneja más de 10.000 referencias.

Entonces... aunque genere automáticamente el fichero sites.xml, ¿lo tengo que subir a mano a google con las herramientas del webmaster? Si es así... ¿para qué sirve entonces el robot googleboot y el fichero robots.txt?.

 

Entiendo lo que comentas de que aunque lo suba y luego envíe 100 páginas, si el googleboot no las ha visitado, no las indexará, pero no me salen las cuentas.

 

Como te comento envié el fichero con 8207 páginas de las que sólo me indexa 3486. Este fichero lo subí hace una semana por lo que si el googleboot se ejecuta cada 3 días, debería haberlas indexado todas a día de hoy, pero sigo teniendo la misma cantidad de páginas indexadas.

 

Tengo claro que hay algo que no estoy haciendo bien porque me falla algún concepto, pero ¿cual?

Link to comment
Share on other sites

jimmayoral como estas!. Miles de factores se pueden considerar por las caídas de posición. De hecho, en enero - febrero, el algoritmo de google cambió, ésto corresponde a lo que ahora toma en cuenta Google para posicionar tu web. Si gustas puedes dejar tu sitio web y le hecho un vistazo.

Link to comment
Share on other sites

Guest
This topic is now closed to further replies.
×
×
  • Create New...