Skip to main content
PASSIRO CRAWLER

Sådan fungerer vores crawler.

Passiro Crawler scanner websites for tilgængelighedsproblemer. Den er respektfuld, gennemsigtig og nem at kontrollere.

Identifikation

Sådan identificerer du vores crawler

Passiro Crawler identificerer sig i hver forespørgsel med følgende User-Agent-streng:

Mozilla/5.0 (...) Chrome/131.0.0.0 Safari/537.36 PassiroCrawler/1.0 (+https://passiro.com/bot)

Du kan identificere vores crawler ved at lede efter PassiroCrawler i User-Agent-headeren.

Hvad den gør

Bygget til at scanne, ikke til at skrabe.

Tilgængelighedsscanning

Vi indlæser dine sider i en headless browser og kører axe-core, branchens standard-testmotor for tilgængelighed, brugt af Google, Microsoft og W3C. Vi tester mod WCAG 2.1 AA-standarder.

Screenshots

Vi tager screenshots af scannede sider for at skabe visuelle rapporter, der fremhæver præcis, hvor tilgængelighedsproblemer forekommer. Screenshots opbevares sikkert og vises kun til siteejeren eller i offentlige anmeldelser.

Link-opdagelse

Vi følger interne links for at opdage sider på dit site. Vi følger kun links inden for det samme domæne og respekterer en maksimal sidegrænse. Vi tjekker også din sitemap.xml, hvis den er tilgængelig.

Crawl-adfærd

Respektfuld fra grunden.

Hastighedsbegrænset

Maksimalt 2 forespørgsler per sekund. Vi overbelaster aldrig din server.

Template-bevidst crawling

Vores crawler opdager intelligent sideskabeloner. På e-commerce-sites med tusindvis af produktsider, der deler det samme layout, identificerer vi automatisk skabelonen og går videre til andre unikke sidetyper. Det betyder fuld dækning med minimale forespørgsler.

Ingen dataudtræk

Vi skraber eller gemmer ikke dit indhold, dine priser eller brugerdata. Vi tager screenshots til visuelle rapporter og analyserer HTML-strukturen for tilgængelighedsoverholdelse — intet andet.

Timeout-beskyttelse

Hver side har en 10-sekunders timeout, og den samlede crawltid er begrænset til 5 minutter. Vi hænger aldrig på din server.

Kun samme domæne

Vi følger kun links inden for det domæne, der scannes. Vi besøger aldrig eksterne websites under en scanning.

Smart scanning

Ser dit site, som brugerne gør.

For at producere præcise tilgængelighedsresultater og rene screenshots håndterer vores crawler automatisk de popups og overlays, der dukker op på moderne websites.

Cookie-samtykkebannere — accepteres automatisk på tværs af alle større samtykkeplatforme (Cookiebot, OneTrust, Usercentrics, Didomi og flere) på alle 24 EU-sprog.

Popups og modaler — nyhedsbrevstilmeldinger, kampagneoverlays og andre forstyrrende elementer opdages og afvises.

Baggrunds-overlays — dæmpningslag og fuldskærmsoverlay fjernes, så screenshots viser det faktiske sideindhold.

Shadow DOM — vi gennemgår shadow roots for at finde og afvise samtykkeelementer, der er skjult inde i webkomponenter.

Tilpasning

Finjustér crawleren til dit site.

Vores automatiske detektion håndterer de fleste websites, men nogle sites har tilpassede popups, unikke samtykkeflows eller elementer, der kræver særlig behandling. Siteejere kan konfigurere tilpassede crawlerregler i siteindstillingernes dashboard for at håndtere disse edge cases.

Klik-selektorer

Angiv CSS-selektorer for knapper eller elementer, som crawleren skal klikke på før scanning — for eksempel for at afvise en tilpasset popup, vores automatiske detektion ikke genkender.

Skjul-selektorer

Tving skjul af specifikke elementer før screenshots tages. Nyttigt til faste bannere, chat-widgets eller overlays, der ikke bør vises i din tilgængelighedsrapport.

Forudindstillede cookies

Sæt cookies, før crawleren indlæser dine sider — for eksempel en samtykkecookie for at omgå cookiebanneret helt, eller en A/B-testcookie for at scanne en bestemt variant.

Ignorerede stier og sidegrænser

Ekskludér specifikke URL-stier fra scanning og sæt en tilpasset sidegrænse. Nyttigt, hvis dele af dit site er bag login eller indeholder indhold, du ikke behøver scannet.

Disse indstillinger er tilgængelige i dit sites Indstillinger-fane på Passiro-dashboardet. Ændringer træder i kraft ved næste scanning.

Din kontrol

Sådan blokerer du vores crawler

Hvis du ikke ønsker, at Passiro Crawler besøger din website, kan du blokere den med din robots.txt-fil:

User-agent: PassiroCrawler Disallow: /

Du kan også blokere specifikke stier eller sektioner af dit site. Vi respekterer alle standard robots.txt-direktiver.

Alternativt kan du kontakte os, så tilføjer vi dit domæne til vores udelukningsliste.

Spørgsmål om vores crawler?

Hvis du har spørgsmål, bekymringer eller har brug for at rapportere et problem med Passiro Crawler, hjælper vi gerne.

Kontakt os