Sådan fungerer vores crawler.
Passiro Crawler scanner websites for tilgængelighedsproblemer. Den er respektfuld, gennemsigtig og nem at kontrollere.
Identifikation
Sådan identificerer du vores crawler
Passiro Crawler identificerer sig i hver forespørgsel med følgende User-Agent-streng:
Du kan identificere vores crawler ved at lede efter PassiroCrawler i User-Agent-headeren.
Hvad den gør
Bygget til at scanne, ikke til at skrabe.
Tilgængelighedsscanning
Vi indlæser dine sider i en headless browser og kører axe-core, branchens standard-testmotor for tilgængelighed, brugt af Google, Microsoft og W3C. Vi tester mod WCAG 2.1 AA-standarder.
Screenshots
Vi tager screenshots af scannede sider for at skabe visuelle rapporter, der fremhæver præcis, hvor tilgængelighedsproblemer forekommer. Screenshots opbevares sikkert og vises kun til siteejeren eller i offentlige anmeldelser.
Link-opdagelse
Vi følger interne links for at opdage sider på dit site. Vi følger kun links inden for det samme domæne og respekterer en maksimal sidegrænse. Vi tjekker også din sitemap.xml, hvis den er tilgængelig.
Crawl-adfærd
Respektfuld fra grunden.
Hastighedsbegrænset
Maksimalt 2 forespørgsler per sekund. Vi overbelaster aldrig din server.
Template-bevidst crawling
Vores crawler opdager intelligent sideskabeloner. På e-commerce-sites med tusindvis af produktsider, der deler det samme layout, identificerer vi automatisk skabelonen og går videre til andre unikke sidetyper. Det betyder fuld dækning med minimale forespørgsler.
Ingen dataudtræk
Vi skraber eller gemmer ikke dit indhold, dine priser eller brugerdata. Vi tager screenshots til visuelle rapporter og analyserer HTML-strukturen for tilgængelighedsoverholdelse — intet andet.
Timeout-beskyttelse
Hver side har en 10-sekunders timeout, og den samlede crawltid er begrænset til 5 minutter. Vi hænger aldrig på din server.
Kun samme domæne
Vi følger kun links inden for det domæne, der scannes. Vi besøger aldrig eksterne websites under en scanning.
Smart scanning
Ser dit site, som brugerne gør.
For at producere præcise tilgængelighedsresultater og rene screenshots håndterer vores crawler automatisk de popups og overlays, der dukker op på moderne websites.
Cookie-samtykkebannere — accepteres automatisk på tværs af alle større samtykkeplatforme (Cookiebot, OneTrust, Usercentrics, Didomi og flere) på alle 24 EU-sprog.
Popups og modaler — nyhedsbrevstilmeldinger, kampagneoverlays og andre forstyrrende elementer opdages og afvises.
Baggrunds-overlays — dæmpningslag og fuldskærmsoverlay fjernes, så screenshots viser det faktiske sideindhold.
Shadow DOM — vi gennemgår shadow roots for at finde og afvise samtykkeelementer, der er skjult inde i webkomponenter.
Tilpasning
Finjustér crawleren til dit site.
Vores automatiske detektion håndterer de fleste websites, men nogle sites har tilpassede popups, unikke samtykkeflows eller elementer, der kræver særlig behandling. Siteejere kan konfigurere tilpassede crawlerregler i siteindstillingernes dashboard for at håndtere disse edge cases.
Klik-selektorer
Angiv CSS-selektorer for knapper eller elementer, som crawleren skal klikke på før scanning — for eksempel for at afvise en tilpasset popup, vores automatiske detektion ikke genkender.
Skjul-selektorer
Tving skjul af specifikke elementer før screenshots tages. Nyttigt til faste bannere, chat-widgets eller overlays, der ikke bør vises i din tilgængelighedsrapport.
Forudindstillede cookies
Sæt cookies, før crawleren indlæser dine sider — for eksempel en samtykkecookie for at omgå cookiebanneret helt, eller en A/B-testcookie for at scanne en bestemt variant.
Ignorerede stier og sidegrænser
Ekskludér specifikke URL-stier fra scanning og sæt en tilpasset sidegrænse. Nyttigt, hvis dele af dit site er bag login eller indeholder indhold, du ikke behøver scannet.
Disse indstillinger er tilgængelige i dit sites Indstillinger-fane på Passiro-dashboardet. Ændringer træder i kraft ved næste scanning.
Din kontrol
Sådan blokerer du vores crawler
Hvis du ikke ønsker, at Passiro Crawler besøger din website, kan du blokere den med din robots.txt-fil:
Du kan også blokere specifikke stier eller sektioner af dit site. Vi respekterer alle standard robots.txt-direktiver.
Alternativt kan du kontakte os, så tilføjer vi dit domæne til vores udelukningsliste.
Spørgsmål om vores crawler?
Hvis du har spørgsmål, bekymringer eller har brug for at rapportere et problem med Passiro Crawler, hjælper vi gerne.
Kontakt os