Skip to main content
PASSIRO CRAWLER

Cómo funciona nuestro crawler.

Passiro Crawler analiza sitios web en busca de problemas de accesibilidad. Es respetuoso, transparente y fácil de controlar.

Identificación

Cómo identificar nuestro crawler

El Passiro Crawler se identifica en cada solicitud con la siguiente cadena User-Agent:

Mozilla/5.0 (...) Chrome/131.0.0.0 Safari/537.36 PassiroCrawler/1.0 (+https://passiro.com/bot)

Puedes identificar nuestro crawler buscando PassiroCrawler en el encabezado User-Agent.

Qué hace

Diseñado para escanear, no para extraer datos.

Escaneo de accesibilidad

Cargamos tus páginas en un navegador headless y ejecutamos axe-core, el motor de pruebas de accesibilidad estándar de la industria utilizado por Google, Microsoft y el W3C. Probamos contra los estándares WCAG 2.1 AA.

Capturas de pantalla

Tomamos capturas de pantalla de las páginas analizadas para crear informes visuales que destacan exactamente dónde ocurren los problemas de accesibilidad. Las capturas se almacenan de forma segura y solo se muestran al propietario del sitio o en las evaluaciones públicas.

Descubrimiento de enlaces

Seguimos enlaces internos para descubrir páginas en tu sitio. Solo seguimos enlaces dentro del mismo dominio y respetamos un límite máximo de páginas. También comprobamos tu sitemap.xml si está disponible.

Comportamiento del crawler

Respetuoso desde el diseño.

Velocidad limitada

Máximo 2 solicitudes por segundo. Nunca sobrecargamos tu servidor.

Crawling inteligente por plantilla

Nuestro crawler detecta de forma inteligente las plantillas de página. En sitios de e-commerce con miles de páginas de producto que comparten el mismo diseño, identificamos automáticamente la plantilla y pasamos a otros tipos de página únicos. Esto significa cobertura completa con solicitudes mínimas.

Sin extracción de datos

No extraemos ni almacenamos tu contenido, precios ni datos de usuario. Tomamos capturas de pantalla para informes visuales y analizamos la estructura HTML para el cumplimiento de accesibilidad — nada más.

Protección por timeout

Cada página tiene un timeout de 10 segundos y el tiempo total de rastreo está limitado a 5 minutos. Nunca nos quedamos colgados en tu servidor.

Solo el mismo dominio

Solo seguimos enlaces dentro del dominio que se está escaneando. Nunca visitamos sitios web externos durante un análisis.

Escaneo inteligente

Ve tu sitio como lo ven tus usuarios.

Para producir resultados de accesibilidad precisos y capturas de pantalla limpias, nuestro crawler gestiona automáticamente los popups y overlays que aparecen en los sitios web modernos.

Banners de consentimiento de cookies — aceptados automáticamente en todas las principales plataformas de consentimiento (Cookiebot, OneTrust, Usercentrics, Didomi y más) en los 24 idiomas de la UE.

Popups y modales — suscripciones a newsletters, overlays promocionales y otros elementos intrusivos se detectan y cierran.

Overlays de fondo — capas de oscurecimiento y fondos a pantalla completa se eliminan para que las capturas muestren el contenido real de la página.

Shadow DOM — recorremos los shadow roots para encontrar y cerrar elementos de consentimiento ocultos dentro de componentes web.

Personalización

Ajusta el crawler para tu sitio.

Nuestra detección automática gestiona la mayoría de los sitios web, pero algunos sitios tienen popups personalizados, flujos de consentimiento únicos o elementos que requieren tratamiento especial. Los propietarios de sitios pueden configurar reglas de crawler personalizadas en el panel de configuración del sitio para manejar estos casos especiales.

Selectores de clic

Especifica selectores CSS de botones o elementos en los que el crawler debe hacer clic antes del escaneo — por ejemplo, para cerrar un popup personalizado que nuestra detección automática no reconoce.

Selectores de ocultación

Fuerza la ocultación de elementos específicos antes de tomar capturas de pantalla. Útil para banners fijos, widgets de chat u overlays que no deberían aparecer en tu informe de accesibilidad.

Cookies preestablecidas

Establece cookies antes de que el crawler cargue tus páginas — por ejemplo, una cookie de consentimiento para omitir el banner de cookies por completo, o una cookie de test A/B para escanear una variante específica.

Rutas ignoradas y límites de páginas

Excluye rutas de URL específicas del escaneo y establece un límite de páginas personalizado. Útil si partes de tu sitio están tras un inicio de sesión o contienen contenido que no necesitas escanear.

Estos ajustes están disponibles en la pestaña Configuración de tu sitio en el panel de Passiro. Los cambios se aplican en el siguiente escaneo.

Tu control

Cómo bloquear nuestro crawler

Si no deseas que el Passiro Crawler visite tu sitio web, puedes bloquearlo usando tu archivo robots.txt:

User-agent: PassiroCrawler Disallow: /

También puedes bloquear rutas o secciones específicas de tu sitio. Respetamos todas las directivas estándar de robots.txt.

Alternativamente, puedes contactarnos y añadiremos tu dominio a nuestra lista de exclusión.

¿Preguntas sobre nuestro crawler?

Si tienes preguntas, inquietudes o necesitas reportar un problema con el Passiro Crawler, estaremos encantados de ayudar.

Contáctanos