Skip to main content
PASSIRO CRAWLER

Hoe onze crawler werkt.

Passiro Crawler scant websites op toegankelijkheidsproblemen. Hij is respectvol, transparant en eenvoudig te beheren.

Identificatie

Hoe je onze crawler herkent

De Passiro Crawler identificeert zichzelf in elk verzoek met de volgende User-Agent-string:

Mozilla/5.0 (...) Chrome/131.0.0.0 Safari/537.36 PassiroCrawler/1.0 (+https://passiro.com/bot)

Je kunt onze crawler herkennen door te zoeken naar PassiroCrawler in de User-Agent-header.

Wat hij doet

Gebouwd om te scannen, niet om te scrapen.

Toegankelijkheidsscanning

We laden je pagina's in een headless browser en draaien axe-core, de industriestandaard testengine voor toegankelijkheid, gebruikt door Google, Microsoft en het W3C. We testen tegen WCAG 2.1 AA-normen.

Screenshots

We maken screenshots van gescande pagina's om visuele rapporten te creëren die precies laten zien waar toegankelijkheidsproblemen voorkomen. Screenshots worden veilig opgeslagen en alleen getoond aan de site-eigenaar of in publieke beoordelingen.

Linkontdekking

We volgen interne links om pagina's op je site te ontdekken. We volgen alleen links binnen hetzelfde domein en respecteren een maximaal paginalimiet. We controleren ook je sitemap.xml indien beschikbaar.

Crawlgedrag

Respectvol vanaf de basis.

Snelheidsbeperkt

Maximaal 2 verzoeken per seconde. We overbelasten nooit je server.

Template-bewust crawlen

Onze crawler detecteert intelligent paginatemplates. Op e-commercesites met duizenden productpagina's met dezelfde layout identificeren we automatisch het template en gaan we verder naar andere unieke paginatypen. Dit betekent volledige dekking met minimale verzoeken.

Geen data-extractie

We scrapen of bewaren je content, prijzen of gebruikersgegevens niet. We maken screenshots voor visuele rapporten en analyseren de HTML-structuur voor toegankelijkheidscompliance — niets anders.

Timeout-bescherming

Elke pagina heeft een timeout van 10 seconden en de totale crawltijd is beperkt tot 5 minuten. We blijven nooit hangen op je server.

Alleen hetzelfde domein

We volgen alleen links binnen het domein dat wordt gescand. We bezoeken nooit externe websites tijdens een scan.

Slimme scanning

Ziet je site zoals je gebruikers dat doen.

Om nauwkeurige toegankelijkheidsresultaten en schone screenshots te produceren, behandelt onze crawler automatisch de popups en overlays die op moderne websites verschijnen.

Cookietoestemmingsbanners — automatisch geaccepteerd op alle grote toestemmingsplatformen (Cookiebot, OneTrust, Usercentrics, Didomi en meer) in alle 24 EU-talen.

Popups en modals — nieuwsbriefinschrijvingen, promotionele overlays en andere storende elementen worden gedetecteerd en gesloten.

Achtergrond-overlays — dimlagen en schermvullende achtergronden worden verwijderd zodat screenshots de daadwerkelijke pagina-inhoud tonen.

Shadow DOM — we doorzoeken shadow roots om toestemmingselementen te vinden en te sluiten die verborgen zijn in webcomponenten.

Aanpassing

Stem de crawler af op jouw site.

Onze automatische detectie behandelt de meeste websites, maar sommige sites hebben aangepaste popups, unieke toestemmingsflows of elementen die speciale behandeling vereisen. Site-eigenaren kunnen aangepaste crawlerregels configureren in het site-instellingendashboard om deze edge cases aan te pakken.

Klik-selectors

Geef CSS-selectors op van knoppen of elementen waarop de crawler moet klikken vóór het scannen — bijvoorbeeld om een aangepaste popup te sluiten die onze automatische detectie niet herkent.

Verberg-selectors

Forceer het verbergen van specifieke elementen voordat screenshots worden gemaakt. Handig voor vaste banners, chatwidgets of overlays die niet in je toegankelijkheidsrapport moeten verschijnen.

Vooraf ingestelde cookies

Stel cookies in voordat de crawler je pagina's laadt — bijvoorbeeld een toestemmingscookie om de cookiebanner volledig te omzeilen, of een A/B-testcookie om een specifieke variant te scannen.

Genegeerde paden & paginalimiet

Sluit specifieke URL-paden uit van scanning en stel een aangepaste paginalimiet in. Handig als delen van je site achter een login zitten of content bevatten die je niet hoeft te scannen.

Deze instellingen zijn beschikbaar in het tabblad Instellingen van je site op het Passiro-dashboard. Wijzigingen worden van kracht bij de volgende scan.

Jouw controle

Hoe je onze crawler blokkeert

Als je niet wilt dat de Passiro Crawler je website bezoekt, kun je hem blokkeren via je robots.txt-bestand:

User-agent: PassiroCrawler Disallow: /

Je kunt ook specifieke paden of secties van je site blokkeren. We respecteren alle standaard robots.txt-richtlijnen.

Je kunt ook contact met ons opnemen en we voegen je domein toe aan onze uitsluitingslijst.

Vragen over onze crawler?

Als je vragen, zorgen hebt of een probleem met de Passiro Crawler wilt melden, helpen we je graag.

Neem contact op