Jak náš crawler funguje.
Passiro Crawler skenuje weby na problémy s přístupností. Je respektující, transparentní a snadno ovladatelný.
Identifikace
Jak identifikovat náš crawler
Passiro Crawler se identifikuje v každém požadavku následujícím řetězcem User-Agent:
Náš crawler můžete identifikovat hledáním PassiroCrawler v hlavičce User-Agent.
Co dělá
Vytvořen pro skenování, ne pro scraping.
Skenování přístupnosti
Načteme vaše stránky v bezhlavém prohlížeči a spustíme axe-core, průmyslový standard pro testování přístupnosti používaný Google, Microsoftem a W3C. Testujeme proti standardům WCAG 2.1 AA.
Snímky obrazovky
Pořizujeme snímky skenovaných stránek pro vytváření vizuálních reportů, které přesně ukazují, kde se problémy s přístupností vyskytují. Snímky jsou bezpečně uloženy a zobrazují se pouze majiteli webu nebo ve veřejných recenzích.
Objevování odkazů
Sledujeme interní odkazy k objevování stránek na vašem webu. Sledujeme pouze odkazy v rámci stejné domény a respektujeme maximální limit stránek. Kontrolujeme také váš sitemap.xml, pokud je k dispozici.
Chování crawleru
Respektující od základu.
Omezení rychlosti
Maximálně 2 požadavky za sekundu. Nikdy nezahltíme váš server.
Crawling s rozpoznáním šablon
Náš crawler inteligentně rozpoznává šablony stránek. Na e-shopech s tisíci produktových stránek se stejným rozložením automaticky identifikujeme šablonu a přejdeme k dalším unikátním typům stránek. To znamená plné pokrytí s minimem požadavků.
Žádná extrakce dat
Neskenujeme ani neukládáme váš obsah, ceny ani uživatelská data. Pořizujeme snímky obrazovky pro vizuální reporty a analyzujeme HTML strukturu pro soulad s přístupností — nic víc.
Ochrana časovým limitem
Každá stránka má časový limit 10 sekund a celkový čas crawlování je omezen na 5 minut. Nikdy se nezasekáváme na vašem serveru.
Pouze stejná doména
Sledujeme pouze odkazy v rámci skenované domény. Nikdy nenavštěvujeme externí weby během skenování.
Chytré skenování
Vidí váš web tak, jak ho vidí uživatelé.
Pro přesné výsledky přístupnosti a čisté snímky obrazovky náš crawler automaticky zpracovává vyskakovací okna a překryvy, které se objevují na moderních webech.
Bannery souhlasu s cookies — automaticky přijímány na všech hlavních platformách pro souhlas (Cookiebot, OneTrust, Usercentrics, Didomi a další) ve všech 24 jazycích EU.
Vyskakovací okna a modály — registrace k odběru novinek, propagační překryvy a další rušivé prvky jsou detekovány a zavřeny.
Překryvy pozadí — ztmavující vrstvy a celoobrazovkové překryvy pozadí jsou odstraněny, aby snímky ukazovaly skutečný obsah stránky.
Shadow DOM — procházíme shadow roots, abychom našli a zavřeli prvky souhlasu skryté uvnitř webových komponent.
Přizpůsobení
Přizpůsobte crawler pro svůj web.
Naše automatická detekce zvládne většinu webů, ale některé mají vlastní vyskakovací okna, unikátní toky souhlasu nebo prvky, které vyžadují speciální zacházení. Majitelé webů mohou konfigurovat vlastní pravidla crawleru v nastavení webu pro řešení těchto speciálních případů.
Selektory pro klikání
Zadejte CSS selektory tlačítek nebo prvků, na které by crawler měl kliknout před skenováním — například k zavření vlastního vyskakovacího okna, které naše automatická detekce nerozpozná.
Selektory pro skrytí
Vynuťte skrytí určitých prvků před pořízením snímků. Užitečné pro fixní bannery, chatovací widgety nebo překryvy, které by se neměly objevovat ve vaší zprávě o přístupnosti.
Přednastavené cookies
Nastavte cookies předtím, než crawler načte vaše stránky — například souhlas s cookies pro úplné přeskočení banneru, nebo A/B testovací cookie pro skenování konkrétní varianty.
Ignorované cesty a limity stránek
Vyloučte konkrétní URL cesty ze skenování a nastavte vlastní limit stránek. Užitečné, pokud části vašeho webu jsou za přihlášením nebo obsahují obsah, který nepotřebuje skenování.
Tato nastavení jsou k dispozici na záložce Nastavení vašeho webu v Passiro nástěnce. Změny se projeví při dalším skenování.
Vaše kontrola
Jak zablokovat náš crawler
Pokud nechcete, aby Passiro Crawler navštěvoval váš web, můžete ho zablokovat pomocí souboru robots.txt:
Můžete také zablokovat konkrétní cesty nebo sekce vašeho webu. Respektujeme všechny standardní direktivy robots.txt.
Případně nás můžete kontaktovat a my přidáme vaší doménu na náš seznam vyloučení.
Dotazy k našemu crawleru?
Pokud máte dotazy, obavy nebo potřebujete nahlásit problém s Passiro Crawlerem, rádi vám pomůžeme.
Kontaktujte nás