Kako deluje naš crawler.
Passiro Crawler skenira spletne strani za težave z dostopnostjo. Je spoštljiv, transparenten in enostaven za nadzor.
Identifikacija
Kako prepoznati naš crawler
Passiro Crawler se v vsaki zahtevi identificira z naslednjim User-Agent nizom:
Naš crawler lahko prepoznate tako, da v glavi User-Agent poiščete PassiroCrawler.
Kaj počne
Zgrajen za skeniranje, ne za praskanje.
Skeniranje dostopnosti
Vaše strani naložimo v brezglavi brskalnik in zaženemo axe-core, industrijski standardni motor za testiranje dostopnosti, ki ga uporabljajo Google, Microsoft in W3C. Testiramo po standardih WCAG 2.1 AA.
Posnetki zaslona
Zajamemo posnetke zaslona skeniranih strani za ustvarjanje vizualnih poročil, ki natančno poudarjajo, kje se pojavljajo težave z dostopnostjo. Posnetki so varno shranjeni in prikazani samo lastniku strani ali v javnih ocenah.
Odkrivanje povezav
Sledimo notranjim povezavam za odkrivanje strani na vašem spletnem mestu. Sledimo samo povezavam znotraj iste domene in upoštevamo največjo omejitev strani. Preverimo tudi vaš sitemap.xml, če je na voljo.
Vedenje crawlerja
Spoštljiv po zasnovi.
Omejitev hitrosti
Največ 2 zahtevi na sekundo. Nikoli ne preobremenimo vašega strežnika.
Crawlanje z zavedanjem predlog
Naš crawler inteligentno zaznava predloge strani. Na straneh za e-commerce s tisoči produktnih strani z enako postavitvijo samodejno identificira predlogo in se premakne na druge edinstvene tipe strani. To pomeni polno pokritost z minimalnim številom zahtev.
Brez ekstrakcije podatkov
Ne praskamo in ne shranjujemo vaše vsebine, cen ali uporabniških podatkov. Zajamemo posnetke zaslona za vizualna poročila in analiziramo strukturo HTML za skladnost z dostopnostjo — nič drugega.
Zaščita pred pretečenim časom
Vsaka stran ima 10-sekundno omejitev časa, celotni čas crawlanja pa je omejen na 5 minut. Nikoli ne visimo na vašem strežniku.
Samo znotraj domene
Sledimo samo povezavam znotraj domene, ki jo skeniramo. Med skeniranjem nikoli ne obiskemo zunanjih spletnih strani.
Pametno skeniranje
Vidi vašo stran tako, kot jo vidijo uporabniki.
Za natančne rezultate dostopnosti in čiste posnetke zaslona naš crawler samodejno obravnava pojavna okna in prekrivne sloje, ki se pojavljajo na sodobnih spletnih straneh.
Pasice za soglasje za piškotke — samodejno sprejete na vseh večjih platformah za soglasje (Cookiebot, OneTrust, Usercentrics, Didomi in več) v vseh 24 jezikih EU.
Pojavna okna in modalna okna — prijave na novice, promocijski prekrivni sloji in drugi moteči elementi so zaznani in odstranjeni.
Prekrivni sloji ozadja — zatemnitveni sloji in celozaslonska ozadja so odstranjena, da posnetki zaslona prikazujejo dejansko vsebino strani.
Shadow DOM — prečkamo shadow DOM korenine, da najdemo in odstranimo elemente za soglasje, ki so skriti znotraj spletnih komponent.
Prilagoditev
Natančno prilagodite crawler za vašo stran.
Naše samodejno zaznavanje obravnava večino spletnih strani, vendar imajo nekatere strani lastna pojavna okna, edinstvene procese soglasja ali elemente, ki potrebujejo posebno obravnavo. Lastniki strani lahko konfigurirajo pravila crawlerja po meri v nastavitvah strani na nadzorni plošči.
Selektorji za klik
Določite CSS selektorje gumbov ali elementov, ki jih naj crawler klikne pred skeniranjem — na primer za zaprtje lastnega pojavnega okna, ki ga naše samodejno zaznavanje ne prepozna.
Selektorji za skrivanje
Prisilno skrijte določene elemente pred zajemom posnetkov zaslona. Uporabno za fiksne pasice, klepetalne pripomočke ali prekrivne sloje, ki ne bi smeli biti prikazani v vašem poročilu o dostopnosti.
Vnaprej nastavljeni piškotki
Nastavite piškotke, preden crawler naloži vaše strani — na primer piškotke za soglasje za obhod pasice za piškotke ali piškotke za A/B testiranje za skeniranje določene različice.
Ignorirane poti in omejitve strani
Izključite določene URL poti iz skeniranja in nastavite omejitev strani po meri. Uporabno, če so deli vaše strani za prijavo ali vsebujejo vsebino, ki je ni treba skenirati.
Te nastavitve so na voljo v zavihku Nastavitve vaše strani na nadzorni plošči Passiro. Spremembe začnejo veljati ob naslednjem skeniranju.
Vaša kontrola
Kako blokirati naš crawler
Če ne želite, da Passiro Crawler obišče vašo spletno stran, ga lahko blokirate z vašo datoteko robots.txt:
Blokirate lahko tudi določene poti ali odseke vaše strani. Spoštujemo vse standardne direktive robots.txt.
Lahko pa nas tudi kontaktirate in vašo domeno bomo dodali na naš izključitveni seznam.
Vprašanja o našem crawlerju?
Če imate vprašanja, pomisleke ali morate prijaviti težavo s Passiro Crawlerjem, vam z veseljem pomagamo.
Kontaktirajte nas