Skip to main content
PASSIRO CRAWLER

Kako deluje naš crawler.

Passiro Crawler skenira spletne strani za težave z dostopnostjo. Je spoštljiv, transparenten in enostaven za nadzor.

Identifikacija

Kako prepoznati naš crawler

Passiro Crawler se v vsaki zahtevi identificira z naslednjim User-Agent nizom:

Mozilla/5.0 (...) Chrome/131.0.0.0 Safari/537.36 PassiroCrawler/1.0 (+https://passiro.com/bot)

Naš crawler lahko prepoznate tako, da v glavi User-Agent poiščete PassiroCrawler.

Kaj počne

Zgrajen za skeniranje, ne za praskanje.

Skeniranje dostopnosti

Vaše strani naložimo v brezglavi brskalnik in zaženemo axe-core, industrijski standardni motor za testiranje dostopnosti, ki ga uporabljajo Google, Microsoft in W3C. Testiramo po standardih WCAG 2.1 AA.

Posnetki zaslona

Zajamemo posnetke zaslona skeniranih strani za ustvarjanje vizualnih poročil, ki natančno poudarjajo, kje se pojavljajo težave z dostopnostjo. Posnetki so varno shranjeni in prikazani samo lastniku strani ali v javnih ocenah.

Odkrivanje povezav

Sledimo notranjim povezavam za odkrivanje strani na vašem spletnem mestu. Sledimo samo povezavam znotraj iste domene in upoštevamo največjo omejitev strani. Preverimo tudi vaš sitemap.xml, če je na voljo.

Vedenje crawlerja

Spoštljiv po zasnovi.

Omejitev hitrosti

Največ 2 zahtevi na sekundo. Nikoli ne preobremenimo vašega strežnika.

Crawlanje z zavedanjem predlog

Naš crawler inteligentno zaznava predloge strani. Na straneh za e-commerce s tisoči produktnih strani z enako postavitvijo samodejno identificira predlogo in se premakne na druge edinstvene tipe strani. To pomeni polno pokritost z minimalnim številom zahtev.

Brez ekstrakcije podatkov

Ne praskamo in ne shranjujemo vaše vsebine, cen ali uporabniških podatkov. Zajamemo posnetke zaslona za vizualna poročila in analiziramo strukturo HTML za skladnost z dostopnostjo — nič drugega.

Zaščita pred pretečenim časom

Vsaka stran ima 10-sekundno omejitev časa, celotni čas crawlanja pa je omejen na 5 minut. Nikoli ne visimo na vašem strežniku.

Samo znotraj domene

Sledimo samo povezavam znotraj domene, ki jo skeniramo. Med skeniranjem nikoli ne obiskemo zunanjih spletnih strani.

Pametno skeniranje

Vidi vašo stran tako, kot jo vidijo uporabniki.

Za natančne rezultate dostopnosti in čiste posnetke zaslona naš crawler samodejno obravnava pojavna okna in prekrivne sloje, ki se pojavljajo na sodobnih spletnih straneh.

Pasice za soglasje za piškotke — samodejno sprejete na vseh večjih platformah za soglasje (Cookiebot, OneTrust, Usercentrics, Didomi in več) v vseh 24 jezikih EU.

Pojavna okna in modalna okna — prijave na novice, promocijski prekrivni sloji in drugi moteči elementi so zaznani in odstranjeni.

Prekrivni sloji ozadja — zatemnitveni sloji in celozaslonska ozadja so odstranjena, da posnetki zaslona prikazujejo dejansko vsebino strani.

Shadow DOM — prečkamo shadow DOM korenine, da najdemo in odstranimo elemente za soglasje, ki so skriti znotraj spletnih komponent.

Prilagoditev

Natančno prilagodite crawler za vašo stran.

Naše samodejno zaznavanje obravnava večino spletnih strani, vendar imajo nekatere strani lastna pojavna okna, edinstvene procese soglasja ali elemente, ki potrebujejo posebno obravnavo. Lastniki strani lahko konfigurirajo pravila crawlerja po meri v nastavitvah strani na nadzorni plošči.

Selektorji za klik

Določite CSS selektorje gumbov ali elementov, ki jih naj crawler klikne pred skeniranjem — na primer za zaprtje lastnega pojavnega okna, ki ga naše samodejno zaznavanje ne prepozna.

Selektorji za skrivanje

Prisilno skrijte določene elemente pred zajemom posnetkov zaslona. Uporabno za fiksne pasice, klepetalne pripomočke ali prekrivne sloje, ki ne bi smeli biti prikazani v vašem poročilu o dostopnosti.

Vnaprej nastavljeni piškotki

Nastavite piškotke, preden crawler naloži vaše strani — na primer piškotke za soglasje za obhod pasice za piškotke ali piškotke za A/B testiranje za skeniranje določene različice.

Ignorirane poti in omejitve strani

Izključite določene URL poti iz skeniranja in nastavite omejitev strani po meri. Uporabno, če so deli vaše strani za prijavo ali vsebujejo vsebino, ki je ni treba skenirati.

Te nastavitve so na voljo v zavihku Nastavitve vaše strani na nadzorni plošči Passiro. Spremembe začnejo veljati ob naslednjem skeniranju.

Vaša kontrola

Kako blokirati naš crawler

Če ne želite, da Passiro Crawler obišče vašo spletno stran, ga lahko blokirate z vašo datoteko robots.txt:

User-agent: PassiroCrawler Disallow: /

Blokirate lahko tudi določene poti ali odseke vaše strani. Spoštujemo vse standardne direktive robots.txt.

Lahko pa nas tudi kontaktirate in vašo domeno bomo dodali na naš izključitveni seznam.

Vprašanja o našem crawlerju?

Če imate vprašanja, pomisleke ali morate prijaviti težavo s Passiro Crawlerjem, vam z veseljem pomagamo.

Kontaktirajte nas