O Robots.txt é um arquivo de texto presente em todos os sites da internet, incluindo a sua loja virtual. Ele funciona como um guia para os mecanismos de busca (como o Google), indicando quais páginas devem ou não ser indexadas e exibidas nos resultados de pesquisa. Essa configuração é fundamental para melhorar o posicionamento de SEO do seu negócio.
É possível editar o arquivo Robots.txt?
Atualmente, não é possível editar o arquivo Robots.txt manualmente na Nuvemshop. A plataforma gera e gerencia esse arquivo de forma automática para garantir que as melhores práticas de SEO sejam aplicadas na sua loja.
O sistema bloqueia automaticamente a indexação de páginas sistêmicas que não agregam valor ao ranqueamento orgânico, como: tela de login (/account/), painel administrador (/admin/), página de finalização de compra (/checkout/) e páginas internas do sistema de frete ou contato.
Como visualizar o arquivo da minha loja?
Para visualizar o conteúdo configurado no arquivo da sua loja, basta adicionar /robots.txt ao final do seu domínio principal no navegador.
Por exemplo: https://www.sualoja.com.br/robots.txt
O conteúdo exibido na tela será semelhante à estrutura abaixo:
Agente de usuário: * Disallow: /admin/ Disallow: /account/ Disallow: /checkout/ Disallow: /ar/buy/ Disallow: /ar/shipping/ Disallow: /ar/fb-comment/ Permitir: /
O que significa "Página bloqueada pelo robots.txt" no relatório do Google Search Console?
Todas as URLs marcadas com a regra Disallow no arquivo são bloqueadas propositalmente e podem aparecer como um "Aviso" ou "Página bloqueada pelo robots.txt" no relatório do seu Google Search Console.
Esse comportamento é normal e esperado. O objetivo dessa trava é otimizar o limite de rastreamento do Google, garantindo que ele foque os seus esforços em indexar apenas as páginas que realmente importam e trazem acessos para a sua loja, como os seus produtos e categorias.