Skip to main content
PASSIRO CRAWLER

Jak náš crawler funguje.

Passiro Crawler skenuje weby na problémy s přístupností. Je respektující, transparentní a snadno ovladatelný.

Identifikace

Jak identifikovat náš crawler

Passiro Crawler se identifikuje v každém požadavku následujícím řetězcem User-Agent:

Mozilla/5.0 (...) Chrome/131.0.0.0 Safari/537.36 PassiroCrawler/1.0 (+https://passiro.com/bot)

Náš crawler můžete identifikovat hledáním PassiroCrawler v hlavičce User-Agent.

Co dělá

Vytvořen pro skenování, ne pro scraping.

Skenování přístupnosti

Načteme vaše stránky v bezhlavém prohlížeči a spustíme axe-core, průmyslový standard pro testování přístupnosti používaný Google, Microsoftem a W3C. Testujeme proti standardům WCAG 2.1 AA.

Snímky obrazovky

Pořizujeme snímky skenovaných stránek pro vytváření vizuálních reportů, které přesně ukazují, kde se problémy s přístupností vyskytují. Snímky jsou bezpečně uloženy a zobrazují se pouze majiteli webu nebo ve veřejných recenzích.

Objevování odkazů

Sledujeme interní odkazy k objevování stránek na vašem webu. Sledujeme pouze odkazy v rámci stejné domény a respektujeme maximální limit stránek. Kontrolujeme také váš sitemap.xml, pokud je k dispozici.

Chování crawleru

Respektující od základu.

Omezení rychlosti

Maximálně 2 požadavky za sekundu. Nikdy nezahltíme váš server.

Crawling s rozpoznáním šablon

Náš crawler inteligentně rozpoznává šablony stránek. Na e-shopech s tisíci produktových stránek se stejným rozložením automaticky identifikujeme šablonu a přejdeme k dalším unikátním typům stránek. To znamená plné pokrytí s minimem požadavků.

Žádná extrakce dat

Neskenujeme ani neukládáme váš obsah, ceny ani uživatelská data. Pořizujeme snímky obrazovky pro vizuální reporty a analyzujeme HTML strukturu pro soulad s přístupností — nic víc.

Ochrana časovým limitem

Každá stránka má časový limit 10 sekund a celkový čas crawlování je omezen na 5 minut. Nikdy se nezasekáváme na vašem serveru.

Pouze stejná doména

Sledujeme pouze odkazy v rámci skenované domény. Nikdy nenavštěvujeme externí weby během skenování.

Chytré skenování

Vidí váš web tak, jak ho vidí uživatelé.

Pro přesné výsledky přístupnosti a čisté snímky obrazovky náš crawler automaticky zpracovává vyskakovací okna a překryvy, které se objevují na moderních webech.

Bannery souhlasu s cookies — automaticky přijímány na všech hlavních platformách pro souhlas (Cookiebot, OneTrust, Usercentrics, Didomi a další) ve všech 24 jazycích EU.

Vyskakovací okna a modály — registrace k odběru novinek, propagační překryvy a další rušivé prvky jsou detekovány a zavřeny.

Překryvy pozadí — ztmavující vrstvy a celoobrazovkové překryvy pozadí jsou odstraněny, aby snímky ukazovaly skutečný obsah stránky.

Shadow DOM — procházíme shadow roots, abychom našli a zavřeli prvky souhlasu skryté uvnitř webových komponent.

Přizpůsobení

Přizpůsobte crawler pro svůj web.

Naše automatická detekce zvládne většinu webů, ale některé mají vlastní vyskakovací okna, unikátní toky souhlasu nebo prvky, které vyžadují speciální zacházení. Majitelé webů mohou konfigurovat vlastní pravidla crawleru v nastavení webu pro řešení těchto speciálních případů.

Selektory pro klikání

Zadejte CSS selektory tlačítek nebo prvků, na které by crawler měl kliknout před skenováním — například k zavření vlastního vyskakovacího okna, které naše automatická detekce nerozpozná.

Selektory pro skrytí

Vynuťte skrytí určitých prvků před pořízením snímků. Užitečné pro fixní bannery, chatovací widgety nebo překryvy, které by se neměly objevovat ve vaší zprávě o přístupnosti.

Přednastavené cookies

Nastavte cookies předtím, než crawler načte vaše stránky — například souhlas s cookies pro úplné přeskočení banneru, nebo A/B testovací cookie pro skenování konkrétní varianty.

Ignorované cesty a limity stránek

Vyloučte konkrétní URL cesty ze skenování a nastavte vlastní limit stránek. Užitečné, pokud části vašeho webu jsou za přihlášením nebo obsahují obsah, který nepotřebuje skenování.

Tato nastavení jsou k dispozici na záložce Nastavení vašeho webu v Passiro nástěnce. Změny se projeví při dalším skenování.

Vaše kontrola

Jak zablokovat náš crawler

Pokud nechcete, aby Passiro Crawler navštěvoval váš web, můžete ho zablokovat pomocí souboru robots.txt:

User-agent: PassiroCrawler Disallow: /

Můžete také zablokovat konkrétní cesty nebo sekce vašeho webu. Respektujeme všechny standardní direktivy robots.txt.

Případně nás můžete kontaktovat a my přidáme vaší doménu na náš seznam vyloučení.

Dotazy k našemu crawleru?

Pokud máte dotazy, obavy nebo potřebujete nahlásit problém s Passiro Crawlerem, rádi vám pomůžeme.

Kontaktujte nás