Skip to main content
PASSIRO CRAWLER

Slik fungerer crawleren vår.

Passiro Crawler skanner nettsteder for tilgjengelighetsproblemer. Den er respektfull, transparent og enkel å kontrollere.

Identifikasjon

Slik identifiserer du crawleren vår

Passiro Crawler identifiserer seg i hver forespørsel med følgende User-Agent-streng:

Mozilla/5.0 (...) Chrome/131.0.0.0 Safari/537.36 PassiroCrawler/1.0 (+https://passiro.com/bot)

Du kan identifisere crawleren vår ved å se etter PassiroCrawler i User-Agent-headeren.

Hva den gjør

Bygget for å skanne, ikke for å skrape.

Tilgjengelighetsskanning

Vi laster sidene dine i en hodeløs nettleser og kjører axe-core, bransjestandarden for tilgjengelighetstesting som brukes av Google, Microsoft og W3C. Vi tester mot WCAG 2.1 AA-standarder.

Skjermbilder

Vi tar skjermbilder av skannede sider for å lage visuelle rapporter som viser nøyaktig hvor tilgjengelighetsproblemer oppstår. Skjermbildene lagres sikkert og vises bare for nettstedeieren eller i offentlige anmeldelser.

Lenkeoppdagelse

Vi følger interne lenker for å oppdage sider på nettstedet ditt. Vi følger bare lenker innenfor samme domene og respekterer en maksimal sidegrense. Vi sjekker også din sitemap.xml hvis den er tilgjengelig.

Crawle-atferd

Respektfull fra grunnen av.

Hastighetsbegrenset

Maksimalt 2 forespørsler per sekund. Vi overbelaster aldri serveren din.

Malbevisst crawling

Crawleren vår oppdager intelligent sidemaler. På e-handelsnettsteder med tusenvis av produktsider med samme layout identifiserer vi automatisk malen og går videre til andre unike sidetyper. Det betyr full dekning med minimale forespørsler.

Ingen datauthenting

Vi skraper eller lagrer ikke innholdet ditt, prisene dine eller brukerdata. Vi tar skjermbilder for visuelle rapporter og analyserer HTML-strukturen for tilgjengelighetssamsvar — ingenting annet.

Timeoutbeskyttelse

Hver side har en timeout på 10 sekunder, og den totale crawletiden er begrenset til 5 minutter. Vi henger aldri på serveren din.

Kun samme domene

Vi følger bare lenker innenfor domenet som skannes. Vi besøker aldri eksterne nettsteder under en skanning.

Smart skanning

Ser nettstedet ditt slik brukerne gjør.

For å gi nøyaktige tilgjengelighetsresultater og rene skjermbilder håndterer crawleren vår automatisk popup-vinduer og overlegg som vises på moderne nettsteder.

Informasjonskapselsamtykkebannere — aksepteres automatisk på tvers av alle store samtykkeplattformer (Cookiebot, OneTrust, Usercentrics, Didomi med flere) på alle 24 EU-språk.

Popup-vinduer og modaler — nyhetsbrevregistreringer, kampanjeoverlegg og andre forstyrrende elementer oppdages og lukkes.

Bakgrunnsoverlegg — dimminglag og fullskjermsoverlegg fjernes slik at skjermbildene viser det faktiske sideinnholdet.

Shadow DOM — vi traverserer shadow roots for å finne og lukke samtykke-elementer som er skjult inne i webkomponenter.

Tilpasning

Finjuster crawleren for nettstedet ditt.

Vår automatiske deteksjon håndterer de fleste nettsteder, men noen sider har tilpassede popup-vinduer, unike samtykkeflyter eller elementer som trenger spesialbehandling. Nettstedeiere kan konfigurere egne crawlerregler i nettstedets innstillinger for å håndtere disse spesialtilfellene.

Klikkvelgere

Angi CSS-velgere for knapper eller elementer crawleren skal klikke på før skanning — for eksempel for å lukke en tilpasset popup som vår automatiske deteksjon ikke gjenkjenner.

Skjulvelgere

Tvangsfjern spesifikke elementer før skjermbilder tas. Nyttig for faste bannere, chatwidgeter eller overlegg som ikke bør vises i tilgjengelighetsrapporten din.

Forhåndsinnstilte informasjonskapsler

Sett informasjonskapsler før crawleren laster sidene dine — for eksempel en samtykkekapsel for å hoppe over informasjonskapselbanneret helt, eller en A/B-testkapsel for å skanne en spesifikk variant.

Ignorerte stier og sidegrenser

Ekskluder spesifikke URL-stier fra skanning og sett en tilpasset sidegrense. Nyttig hvis deler av nettstedet ditt er bak innlogging eller inneholder innhold som ikke trenger skanning.

Disse innstillingene er tilgjengelige i nettstedets Innstillinger-fane på Passiro-dashboardet. Endringer trer i kraft ved neste skanning.

Din kontroll

Slik blokkerer du crawleren vår

Hvis du ikke ønsker at Passiro Crawler skal besøke nettstedet ditt, kan du blokkere den med robots.txt-filen din:

User-agent: PassiroCrawler Disallow: /

Du kan også blokkere spesifikke stier eller deler av nettstedet ditt. Vi respekterer alle standard robots.txt-direktiver.

Alternativt kan du kontakte oss så legger vi domenet ditt til ekskluderingslisten vår.

Spørsmål om crawleren vår?

Hvis du har spørsmål, bekymringer eller trenger å rapportere et problem med Passiro Crawler, hjelper vi gjerne.

Kontakt oss