Skip to main content
PASSIRO CRAWLER

Como funciona o nosso crawler.

O Passiro Crawler analisa websites para encontrar problemas de acessibilidade. É respeitoso, transparente e fácil de controlar.

Identificação

Como identificar o nosso crawler

O Passiro Crawler identifica-se em cada pedido com a seguinte string User-Agent:

Mozilla/5.0 (...) Chrome/131.0.0.0 Safari/537.36 PassiroCrawler/1.0 (+https://passiro.com/bot)

Pode identificar o nosso crawler procurando por PassiroCrawler no cabeçalho User-Agent.

O que faz

Construído para analisar, não para recolher dados.

Análise de acessibilidade

Carregamos as suas páginas num navegador headless e executamos o axe-core, o motor de testes de acessibilidade padrão da indústria utilizado pela Google, Microsoft e W3C. Testamos de acordo com os padrões WCAG 2.1 AA.

Capturas de ecrã

Tiramos capturas de ecrã das páginas analisadas para criar relatórios visuais que mostram exatamente onde ocorrem os problemas de acessibilidade. As capturas de ecrã são armazenadas de forma segura e mostradas apenas ao proprietário do site ou em avaliações públicas.

Descoberta de links

Seguimos links internos para descobrir páginas no seu site. Apenas seguimos links dentro do mesmo domínio e respeitamos um limite máximo de páginas. Também verificamos a sua sitemap.xml se estiver disponível.

Comportamento de crawl

Respeitoso por conceção.

Limitação de velocidade

Máximo de 2 pedidos por segundo. Nunca sobrecarregamos o seu servidor.

Crawling com reconhecimento de templates

O nosso crawler deteta inteligentemente templates de páginas. Em sites de e-commerce com milhares de páginas de produtos com o mesmo layout, identificamos automaticamente o template e passamos para outros tipos de páginas únicos. Isto significa cobertura total com pedidos mínimos.

Sem extração de dados

Não recolhemos nem armazenamos o seu conteúdo, preços ou dados de utilizadores. Tiramos capturas de ecrã para relatórios visuais e analisamos a estrutura HTML para conformidade de acessibilidade — nada mais.

Proteção de timeout

Cada página tem um timeout de 10 segundos e o tempo total de crawl é limitado a 5 minutos. Nunca ficamos pendurados no seu servidor.

Apenas o mesmo domínio

Apenas seguimos links dentro do domínio que está a ser analisado. Nunca visitamos websites externos durante uma análise.

Análise inteligente

Vê o seu site como os utilizadores o veem.

Para produzir resultados de acessibilidade precisos e capturas de ecrã limpas, o nosso crawler trata automaticamente os popups e overlays que aparecem em websites modernos.

Banners de consentimento de cookies — aceites automaticamente em todas as principais plataformas de consentimento (Cookiebot, OneTrust, Usercentrics, Didomi e mais) nos 24 idiomas da UE.

Popups e modais — subscrições de newsletter, overlays promocionais e outros elementos interruptivos são detetados e fechados.

Overlays de fundo — camadas de escurecimento e fundos em ecrã inteiro são removidos para que as capturas de ecrã mostrem o conteúdo real da página.

Shadow DOM — percorremos shadow roots para encontrar e fechar elementos de consentimento que estão ocultos dentro de web components.

Personalização

Ajuste o crawler para o seu site.

A nossa deteção automática trata a maioria dos websites, mas alguns sites têm popups personalizados, fluxos de consentimento únicos ou elementos que precisam de tratamento especial. Os proprietários de sites podem configurar regras de crawler personalizadas nas definições do site para tratar estes casos extremos.

Seletores de clique

Especifique seletores CSS de botões ou elementos que o crawler deve clicar antes da análise — por exemplo, para fechar um popup personalizado que a nossa deteção automática não reconhece.

Seletores de ocultação

Force a ocultação de elementos específicos antes de tirar capturas de ecrã. Útil para banners fixos, widgets de chat ou overlays que não devem aparecer no seu relatório de acessibilidade.

Cookies pré-definidos

Defina cookies antes de o crawler carregar as suas páginas — por exemplo, um cookie de consentimento para ignorar completamente o banner de cookies, ou um cookie de teste A/B para analisar uma variante específica.

Caminhos ignorados e limites de páginas

Exclua caminhos de URL específicos da análise e defina um limite de páginas personalizado. Útil se partes do seu site estão atrás de login ou contêm conteúdo que não precisa de ser analisado.

Estas definições estão disponíveis no separador Definições do seu site no dashboard do Passiro. As alterações entram em vigor na próxima análise.

O seu controlo

Como bloquear o nosso crawler

Se não quiser que o Passiro Crawler visite o seu website, pode bloqueá-lo usando o seu ficheiro robots.txt:

User-agent: PassiroCrawler Disallow: /

Também pode bloquear caminhos ou secções específicas do seu site. Respeitamos todas as diretivas standard do robots.txt.

Em alternativa, pode contactar-nos e adicionaremos o seu domínio à nossa lista de exclusão.

Questões sobre o nosso crawler?

Se tem questões, preocupações ou precisa de reportar um problema com o Passiro Crawler, teremos todo o gosto em ajudar.

Contacte-nos