Skip to main content
PASSIRO CRAWLER

Så fungerar vår crawler.

Passiro Crawler skannar webbplatser efter tillgänglighetsproblem. Den är respektfull, transparent och enkel att kontrollera.

Identifiering

Så identifierar du vår crawler

Passiro Crawler identifierar sig i varje förfrågan med följande User-Agent-sträng:

Mozilla/5.0 (...) Chrome/131.0.0.0 Safari/537.36 PassiroCrawler/1.0 (+https://passiro.com/bot)

Du kan identifiera vår crawler genom att leta efter PassiroCrawler i User-Agent-headern.

Vad den gör

Byggd för att skanna, inte för att skrapa.

Tillgänglighetsskanning

Vi laddar dina sidor i en headless-webbläsare och kör axe-core, branschstandarden för tillgänglighetstestning som används av Google, Microsoft och W3C. Vi testar mot WCAG 2.1 AA-standarder.

Skärmbilder

Vi tar skärmbilder av skannade sidor för att skapa visuella rapporter som visar exakt var tillgänglighetsproblem uppstår. Skärmbilderna lagras säkert och visas bara för webbplatsägaren eller i offentliga omdömen.

Länkupptäckt

Vi följer interna länkar för att upptäcka sidor på din webbplats. Vi följer bara länkar inom samma domän och respekterar en maximal sidgräns. Vi kontrollerar även din sitemap.xml om den finns tillgänglig.

Crawlningsbeteende

Respektfull från grunden.

Hastighetsbegränsad

Maximalt 2 förfrågningar per sekund. Vi överbelastar aldrig din server.

Mallmedveten crawlning

Vår crawler identifierar intelligent sidmallar. På e-handelsplatser med tusentals produktsidor med samma layout identifierar vi automatiskt mallen och går vidare till andra unika sidtyper. Det innebär full täckning med minimala förfrågningar.

Ingen dataextraktion

Vi skrapar eller lagrar inte ditt innehåll, dina priser eller användardata. Vi tar skärmbilder för visuella rapporter och analyserar HTML-strukturen för tillgänglighetsefterlevnad — inget annat.

Timeoutskydd

Varje sida har en timeout på 10 sekunder och den totala crawlningstiden är begränsad till 5 minuter. Vi hänger aldrig på din server.

Samma domän enbart

Vi följer bara länkar inom den domän som skannas. Vi besöker aldrig externa webbplatser under en skanning.

Smart skanning

Ser din webbplats så som användarna gör.

För att ge korrekta tillgänglighetsresultat och rena skärmbilder hanterar vår crawler automatiskt popup-fönster och överlägg som visas på moderna webbplatser.

Cookiesamtyckesbanners — accepteras automatiskt för alla stora samtyckesplattformar (Cookiebot, OneTrust, Usercentrics, Didomi med flera) på alla 24 EU-språk.

Popup-fönster och modaler — nyhetsbrevs-registreringar, kampanjöverlägg och andra avbrytande element upptäcks och stängs.

Bakgrundsöverlägg — nedtoningslager och helskärmsöverlägg tas bort så att skärmbilderna visar det faktiska sidinnehållet.

Shadow DOM — vi traverserar shadow roots för att hitta och stänga samtyckeselement som är dolda inuti webbkomponenter.

Anpassning

Finjustera crawlern för din webbplats.

Vår automatiska detektering hanterar de flesta webbplatser, men vissa sajter har anpassade popup-fönster, unika samtyckesflöden eller element som behöver specialbehandling. Webbplatsägare kan konfigurera anpassade crawlerregler i webbplatsens inställningar för att hantera dessa specialfall.

Klickväljare

Ange CSS-väljare för knappar eller element som crawlern ska klicka på innan skanning — till exempel för att stänga en anpassad popup som vår automatiska detektering inte känner igen.

Döljväljare

Tvångsdölj specifika element innan skärmbilder tas. Användbart för fasta banners, chattwidgetar eller överlägg som inte bör synas i din tillgänglighetsrapport.

Förinställda cookies

Ställ in cookies innan crawlern laddar dina sidor — till exempel en samtyckes-cookie för att hoppa över cookiebannern helt, eller en A/B-test-cookie för att skanna en specifik variant.

Ignorerade sökvägar och sidgränser

Exkludera specifika URL-sökvägar från skanning och ställ in en anpassad sidgräns. Användbart om delar av din webbplats ligger bakom inloggning eller innehåller material som inte behöver skannas.

Dessa inställningar finns i webbplatsens Inställningar-flik på Passiro-dashboarden. Ändringar träder i kraft vid nästa skanning.

Din kontroll

Så blockerar du vår crawler

Om du inte vill att Passiro Crawler ska besöka din webbplats kan du blockera den med din robots.txt-fil:

User-agent: PassiroCrawler Disallow: /

Du kan även blockera specifika sökvägar eller delar av din webbplats. Vi respekterar alla standarddirektiv i robots.txt.

Alternativt kan du kontakta oss så lägger vi till din domän i vår uteslutningslista.

Frågor om vår crawler?

Om du har frågor, funderingar eller behöver rapportera ett problem med Passiro Crawler hjälper vi gärna till.

Kontakta oss