Как работи нашият crawler.
Passiro Crawler сканира уебсайтове за проблеми с достъпността. Той е уважителен, прозрачен и лесен за контролиране.
Идентификация
Как да разпознаете нашия crawler
Passiro Crawler се идентифицира при всяка заявка със следния User-Agent:
Можете да разпознаете нашия crawler, като потърсите PassiroCrawler в User-Agent хедъра.
Какво прави
Създадено за сканиране, не за извличане на данни.
Сканиране за достъпност
Зареждаме страниците ви в headless браузър и изпълняваме axe-core, индустриалния стандарт за тестване на достъпност, използван от Google, Microsoft и W3C. Тестваме спрямо стандартите WCAG 2.1 AA.
Екранни снимки
Правим екранни снимки на сканираните страници, за да създадем визуални отчети, които маркират точно къде се появяват проблеми с достъпността. Снимките се съхраняват сигурно и се показват само на собственика на сайта или в публични отзиви.
Откриване на линкове
Следваме вътрешни линкове, за да открием страници на вашия сайт. Следваме само линкове в рамките на същия домейн и спазваме максимален лимит на страници. Проверяваме и sitemap.xml, ако е наличен.
Поведение на crawler
Уважителен по дизайн.
Ограничена скорост
Максимум 2 заявки в секунда. Никога не претоварваме сървъра ви.
Обхождане с разпознаване на шаблони
Нашият crawler интелигентно разпознава шаблони на страници. На e-commerce сайтове с хиляди продуктови страници, споделящи едно и също оформление, автоматично идентифицираме шаблона и преминаваме към други уникални типове страници. Това означава пълно покритие с минимален брой заявки.
Без извличане на данни
Не извличаме и не съхраняваме вашето съдържание, цени или потребителски данни. Правим екранни снимки за визуални отчети и анализираме HTML структурата за съответствие с достъпността — нищо друго.
Защита от timeout
Всяка страница има timeout от 10 секунди, а общото време за обхождане е ограничено до 5 минути. Никога не висим на сървъра ви.
Само същият домейн
Следваме само линкове в рамките на сканирания домейн. Никога не посещаваме външни уебсайтове по време на сканиране.
Интелигентно сканиране
Вижда сайта ви, както потребителите.
За да осигурим точни резултати за достъпност и чисти екранни снимки, нашият crawler автоматично обработва изскачащите прозорци и overlay-ите, които се появяват на съвременните уебсайтове.
Банери за съгласие за бисквитки — автоматично приети на всички основни платформи за съгласие (Cookiebot, OneTrust, Usercentrics, Didomi и други) на всички 24 езика на ЕС.
Изскачащи прозорци и модали — абонаменти за бюлетин, промоционални overlay-и и други прекъсващи елементи се засичат и затварят.
Фонови overlay-и — затъмняващи слоеве и пълноекранни фонове се премахват, така че екранните снимки показват действителното съдържание на страницата.
Shadow DOM — обхождаме shadow roots, за да намерим и затворим елементи за съгласие, скрити в web components.
Персонализация
Настройте crawler за вашия сайт.
Нашата автоматична детекция обработва повечето уебсайтове, но някои имат персонализирани изскачащи прозорци, уникални потоци за съгласие или елементи, изискващи специално третиране. Собствениците на сайтове могат да конфигурират персонализирани правила за crawler в настройките на сайта в dashboard, за да обработят тези случаи.
Селектори за клик
Посочете CSS селектори на бутони или елементи, върху които crawler трябва да кликне преди сканиране — например, за да затвори персонализиран изскачащ прозорец, който автоматичната ни детекция не разпознава.
Селектори за скриване
Принудително скриване на конкретни елементи преди правене на екранни снимки. Полезно за фиксирани банери, чат уиджети или overlay-и, които не трябва да се появяват в отчета за достъпност.
Предварително зададени бисквитки
Задайте бисквитки преди crawler да зареди страниците ви — например бисквитка за съгласие за пълно заобикаляне на банера за бисквитки, или A/B тест бисквитка за сканиране на конкретен вариант.
Игнорирани пътища и лимити на страници
Изключете конкретни URL пътища от сканирането и задайте персонализиран лимит на страници. Полезно, ако части от сайта ви са зад вход или съдържат съдържание, което не се нуждае от сканиране.
Тези настройки са налични в раздела Настройки на вашия сайт в Passiro dashboard. Промените влизат в сила при следващото сканиране.
Вашият контрол
Как да блокирате нашия crawler
Ако не искате Passiro Crawler да посещава уебсайта ви, можете да го блокирате чрез вашия файл robots.txt:
Можете също да блокирате конкретни пътища или секции на вашия сайт. Спазваме всички стандартни robots.txt директиви.
Алтернативно, можете да се свържете с нас и ще добавим домейна ви към нашия списък за изключване.
Въпроси относно нашия crawler?
Ако имате въпроси, притеснения или трябва да докладвате проблем с Passiro Crawler, ще се радваме да помогнем.
Свържете се с нас