Avisos
Vaciar todo

Robots.txt bloquea páginas en auditoría SEO

2 Respuestas
2 Usuarios
0 Reactions
3 Visitas
 Joan
Respuestas: 3
New Member
Topic starter
 

Hola buenas. Tengo un robots.txt que he editado en base a uno de vuestros posts sobre este tema.
Después de revisar una auditoría SEO de SERanking compruebo que todas las páginas me aparecen como bloqueadas por robots, excepto el dominio principal.
Aunque las páginas sí aparecen como indexadas correctamente en Google Search Console.

Sabéis cual puede ser el problema?

Gracias.

Contenido solo visible a usuarios registrados


 
Respondido : 07/11/2022 1:06 pm
Karen Rios
Respuestas: 18663
Illustrious Member Moderator
 

Hola Joan,

Verificando tu robots.txt no veo que tengas algún bloqueo general a las páginas de tu sitio web, lo mismo sucede si ingreso a alguna página interna veo correctamente la etiqueta de index, follow. En este caso puedes compartirnos algunas capturas sobre los resultados del análisis que realizas de esta forma podemos revisar con mayor detalle lo que nos comentas.

De manera general ten en cuenta que Google está rastreando tu sitio web, ya que muestra los resultados de búsqueda con diferentes páginas como resultados 

image

Un saludo 


 
Respondido : 07/11/2022 1:21 pm