Avisos
Vaciar todo

Robots.txt bloquea páginas en auditoría SEO

2 Respuestas
2 Usuarios
0 Reactions
3 Visitas
 Joan
Respuestas: 3
New Member
Topic starter
Translate
English
Spanish
French
German
Italian
Portuguese
Russian
Chinese
Japanese
Korean
Arabic
Hindi
Dutch
Polish
Turkish
Vietnamese
Thai
Swedish
Danish
Finnish
Norwegian
Czech
Hungarian
Romanian
Greek
Hebrew
Indonesian
Malay
Ukrainian
Bulgarian
Croatian
Slovak
Slovenian
Serbian
Lithuanian
Latvian
Estonian
 

Hola buenas. Tengo un robots.txt que he editado en base a uno de vuestros posts sobre este tema.
Después de revisar una auditoría SEO de SERanking compruebo que todas las páginas me aparecen como bloqueadas por robots, excepto el dominio principal.
Aunque las páginas sí aparecen como indexadas correctamente en Google Search Console.

Sabéis cual puede ser el problema?

Gracias.

Contenido solo visible a usuarios registrados


 
Respondido : 07/11/2022 1:06 pm
Karen Rios
Respuestas: 20077
Illustrious Member Moderator
Translate
English
Spanish
French
German
Italian
Portuguese
Russian
Chinese
Japanese
Korean
Arabic
Hindi
Dutch
Polish
Turkish
Vietnamese
Thai
Swedish
Danish
Finnish
Norwegian
Czech
Hungarian
Romanian
Greek
Hebrew
Indonesian
Malay
Ukrainian
Bulgarian
Croatian
Slovak
Slovenian
Serbian
Lithuanian
Latvian
Estonian
 

Hola Joan,

Verificando tu robots.txt no veo que tengas algún bloqueo general a las páginas de tu sitio web, lo mismo sucede si ingreso a alguna página interna veo correctamente la etiqueta de index, follow. En este caso puedes compartirnos algunas capturas sobre los resultados del análisis que realizas de esta forma podemos revisar con mayor detalle lo que nos comentas.

De manera general ten en cuenta que Google está rastreando tu sitio web, ya que muestra los resultados de búsqueda con diferentes páginas como resultados 

image

Un saludo 


 
Respondido : 07/11/2022 1:21 pm