Comment fonctionne notre crawler.
Passiro Crawler analyse les sites web à la recherche de problèmes d'accessibilité. Il est respectueux, transparent et facile à contrôler.
Identification
Comment identifier notre crawler
Le Passiro Crawler s'identifie dans chaque requête avec la chaîne User-Agent suivante :
Vous pouvez identifier notre crawler en recherchant PassiroCrawler dans l'en-tête User-Agent.
Ce qu'il fait
Conçu pour analyser, pas pour extraire.
Analyse d'accessibilité
Nous chargeons vos pages dans un navigateur headless et exécutons axe-core, le moteur de test d'accessibilité standard de l'industrie utilisé par Google, Microsoft et le W3C. Nous testons selon les normes WCAG 2.1 AA.
Captures d'écran
Nous prenons des captures d'écran des pages analysées pour créer des rapports visuels qui montrent exactement où se trouvent les problèmes d'accessibilité. Les captures d'écran sont stockées en toute sécurité et ne sont montrées qu'au propriétaire du site ou dans les évaluations publiques.
Découverte de liens
Nous suivons les liens internes pour découvrir les pages de votre site. Nous ne suivons que les liens du même domaine et respectons une limite maximale de pages. Nous vérifions également votre sitemap.xml si disponible.
Comportement du crawler
Respectueux dès la conception.
Débit limité
Maximum 2 requêtes par seconde. Nous ne surchargeons jamais votre serveur.
Crawling intelligent par template
Notre crawler détecte intelligemment les templates de pages. Sur les sites e-commerce avec des milliers de pages produit partageant le même layout, nous identifions automatiquement le template et passons aux autres types de pages uniques. Cela signifie une couverture complète avec un minimum de requêtes.
Aucune extraction de données
Nous ne récupérons ni ne stockons votre contenu, vos prix ou vos données utilisateur. Nous prenons des captures d'écran pour les rapports visuels et analysons la structure HTML pour la conformité en accessibilité — rien d'autre.
Protection par timeout
Chaque page a un timeout de 10 secondes et le temps total de crawl est plafonné à 5 minutes. Nous ne restons jamais bloqués sur votre serveur.
Même domaine uniquement
Nous ne suivons que les liens du domaine analysé. Nous ne visitons jamais de sites web externes pendant une analyse.
Analyse intelligente
Voit votre site comme vos utilisateurs le voient.
Pour produire des résultats d'accessibilité précis et des captures d'écran propres, notre crawler gère automatiquement les popups et overlays qui apparaissent sur les sites web modernes.
Bannières de consentement cookies — automatiquement acceptées sur toutes les principales plateformes de consentement (Cookiebot, OneTrust, Usercentrics, Didomi et plus) dans les 24 langues de l'UE.
Popups et modales — inscriptions à la newsletter, overlays promotionnels et autres éléments intrusifs sont détectés et fermés.
Overlays d'arrière-plan — les couches d'assombrissement et les arrière-plans plein écran sont supprimés pour que les captures d'écran montrent le contenu réel de la page.
Shadow DOM — nous traversons les shadow roots pour trouver et fermer les éléments de consentement cachés à l'intérieur des composants web.
Personnalisation
Affinez le crawler pour votre site.
Notre détection automatique gère la plupart des sites web, mais certains sites ont des popups personnalisés, des flux de consentement uniques ou des éléments nécessitant un traitement spécial. Les propriétaires de sites peuvent configurer des règles de crawler personnalisées dans le tableau de bord des paramètres du site pour gérer ces cas particuliers.
Sélecteurs de clic
Spécifiez les sélecteurs CSS des boutons ou éléments que le crawler doit cliquer avant l'analyse — par exemple, pour fermer un popup personnalisé que notre détection automatique ne reconnaît pas.
Sélecteurs de masquage
Forcez le masquage d'éléments spécifiques avant la prise de captures d'écran. Utile pour les bannières fixes, les widgets de chat ou les overlays qui ne devraient pas apparaître dans votre rapport d'accessibilité.
Cookies prédéfinis
Définissez des cookies avant que le crawler ne charge vos pages — par exemple, un cookie de consentement pour contourner entièrement la bannière cookies, ou un cookie de test A/B pour analyser une variante spécifique.
Chemins ignorés & limites de pages
Excluez des chemins d'URL spécifiques de l'analyse et définissez une limite de pages personnalisée. Utile si des parties de votre site sont derrière une authentification ou contiennent du contenu que vous n'avez pas besoin d'analyser.
Ces paramètres sont disponibles dans l'onglet Paramètres de votre site sur le tableau de bord Passiro. Les modifications prennent effet lors de la prochaine analyse.
Votre contrôle
Comment bloquer notre crawler
Si vous ne souhaitez pas que le Passiro Crawler visite votre site web, vous pouvez le bloquer via votre fichier robots.txt :
Vous pouvez également bloquer des chemins ou sections spécifiques de votre site. Nous respectons toutes les directives standard de robots.txt.
Vous pouvez également nous contacter et nous ajouterons votre domaine à notre liste d'exclusion.
Des questions sur notre crawler ?
Si vous avez des questions, des préoccupations ou devez signaler un problème avec le Passiro Crawler, nous sommes là pour vous aider.
Contactez-nous