Så fungerar vår crawler.
Passiro Crawler skannar webbplatser efter tillgänglighetsproblem. Den är respektfull, transparent och enkel att kontrollera.
Identifiering
Så identifierar du vår crawler
Passiro Crawler identifierar sig i varje förfrågan med följande User-Agent-sträng:
Du kan identifiera vår crawler genom att leta efter PassiroCrawler i User-Agent-headern.
Vad den gör
Byggd för att skanna, inte för att skrapa.
Tillgänglighetsskanning
Vi laddar dina sidor i en headless-webbläsare och kör axe-core, branschstandarden för tillgänglighetstestning som används av Google, Microsoft och W3C. Vi testar mot WCAG 2.1 AA-standarder.
Skärmbilder
Vi tar skärmbilder av skannade sidor för att skapa visuella rapporter som visar exakt var tillgänglighetsproblem uppstår. Skärmbilderna lagras säkert och visas bara för webbplatsägaren eller i offentliga omdömen.
Länkupptäckt
Vi följer interna länkar för att upptäcka sidor på din webbplats. Vi följer bara länkar inom samma domän och respekterar en maximal sidgräns. Vi kontrollerar även din sitemap.xml om den finns tillgänglig.
Crawlningsbeteende
Respektfull från grunden.
Hastighetsbegränsad
Maximalt 2 förfrågningar per sekund. Vi överbelastar aldrig din server.
Mallmedveten crawlning
Vår crawler identifierar intelligent sidmallar. På e-handelsplatser med tusentals produktsidor med samma layout identifierar vi automatiskt mallen och går vidare till andra unika sidtyper. Det innebär full täckning med minimala förfrågningar.
Ingen dataextraktion
Vi skrapar eller lagrar inte ditt innehåll, dina priser eller användardata. Vi tar skärmbilder för visuella rapporter och analyserar HTML-strukturen för tillgänglighetsefterlevnad — inget annat.
Timeoutskydd
Varje sida har en timeout på 10 sekunder och den totala crawlningstiden är begränsad till 5 minuter. Vi hänger aldrig på din server.
Samma domän enbart
Vi följer bara länkar inom den domän som skannas. Vi besöker aldrig externa webbplatser under en skanning.
Smart skanning
Ser din webbplats så som användarna gör.
För att ge korrekta tillgänglighetsresultat och rena skärmbilder hanterar vår crawler automatiskt popup-fönster och överlägg som visas på moderna webbplatser.
Cookiesamtyckesbanners — accepteras automatiskt för alla stora samtyckesplattformar (Cookiebot, OneTrust, Usercentrics, Didomi med flera) på alla 24 EU-språk.
Popup-fönster och modaler — nyhetsbrevs-registreringar, kampanjöverlägg och andra avbrytande element upptäcks och stängs.
Bakgrundsöverlägg — nedtoningslager och helskärmsöverlägg tas bort så att skärmbilderna visar det faktiska sidinnehållet.
Shadow DOM — vi traverserar shadow roots för att hitta och stänga samtyckeselement som är dolda inuti webbkomponenter.
Anpassning
Finjustera crawlern för din webbplats.
Vår automatiska detektering hanterar de flesta webbplatser, men vissa sajter har anpassade popup-fönster, unika samtyckesflöden eller element som behöver specialbehandling. Webbplatsägare kan konfigurera anpassade crawlerregler i webbplatsens inställningar för att hantera dessa specialfall.
Klickväljare
Ange CSS-väljare för knappar eller element som crawlern ska klicka på innan skanning — till exempel för att stänga en anpassad popup som vår automatiska detektering inte känner igen.
Döljväljare
Tvångsdölj specifika element innan skärmbilder tas. Användbart för fasta banners, chattwidgetar eller överlägg som inte bör synas i din tillgänglighetsrapport.
Förinställda cookies
Ställ in cookies innan crawlern laddar dina sidor — till exempel en samtyckes-cookie för att hoppa över cookiebannern helt, eller en A/B-test-cookie för att skanna en specifik variant.
Ignorerade sökvägar och sidgränser
Exkludera specifika URL-sökvägar från skanning och ställ in en anpassad sidgräns. Användbart om delar av din webbplats ligger bakom inloggning eller innehåller material som inte behöver skannas.
Dessa inställningar finns i webbplatsens Inställningar-flik på Passiro-dashboarden. Ändringar träder i kraft vid nästa skanning.
Din kontroll
Så blockerar du vår crawler
Om du inte vill att Passiro Crawler ska besöka din webbplats kan du blockera den med din robots.txt-fil:
Du kan även blockera specifika sökvägar eller delar av din webbplats. Vi respekterar alla standarddirektiv i robots.txt.
Alternativt kan du kontakta oss så lägger vi till din domän i vår uteslutningslista.
Frågor om vår crawler?
Om du har frågor, funderingar eller behöver rapportera ett problem med Passiro Crawler hjälper vi gärna till.
Kontakta oss