Skip to main content
PASSIRO CRAWLER

Cum funcționează crawler-ul nostru.

Passiro Crawler scanează site-urile web pentru probleme de accesibilitate. Este respectuos, transparent și ușor de controlat.

Identificare

Cum să identifici crawler-ul nostru

Passiro Crawler se identifică în fiecare cerere cu următorul User-Agent:

Mozilla/5.0 (...) Chrome/131.0.0.0 Safari/537.36 PassiroCrawler/1.0 (+https://passiro.com/bot)

Poți identifica crawler-ul nostru căutând PassiroCrawler în header-ul User-Agent.

Ce face

Construit pentru a scana, nu pentru a extrage date.

Scanare de accesibilitate

Încărcăm paginile tale într-un browser headless și rulăm axe-core, motorul standard industrial de testare a accesibilității folosit de Google, Microsoft și W3C. Testăm conform standardelor WCAG 2.1 AA.

Capturi de ecran

Facem capturi de ecran ale paginilor scanate pentru a crea rapoarte vizuale care evidențiază exact unde apar problemele de accesibilitate. Capturile sunt stocate în siguranță și afișate doar proprietarului site-ului sau în recenziile publice.

Descoperirea link-urilor

Urmăm link-urile interne pentru a descoperi pagini pe site-ul tău. Urmăm doar link-uri din cadrul aceluiași domeniu și respectăm un număr maxim de pagini. Verificăm și sitemap.xml dacă este disponibil.

Comportamentul crawler-ului

Respectuos prin design.

Rata limitată

Maximum 2 cereri pe secundă. Nu inundăm niciodată serverul tău.

Crawling conștient de template-uri

Crawler-ul nostru detectează inteligent template-urile paginilor. Pe site-urile de e-commerce cu mii de pagini de produse care partajează același layout, identificăm automat template-ul și trecem la alte tipuri de pagini unice. Aceasta înseamnă acoperire completă cu cereri minime.

Fără extragere de date

Nu extragem și nu stocăm conținutul, prețurile sau datele utilizatorilor tăi. Facem capturi de ecran pentru rapoarte vizuale și analizăm structura HTML pentru conformitatea cu accesibilitatea — nimic altceva.

Protecție la timeout

Fiecare pagină are un timeout de 10 secunde, iar timpul total de crawling este limitat la 5 minute. Nu rămânem niciodată blocați pe serverul tău.

Doar același domeniu

Urmăm doar link-uri din cadrul domeniului scanat. Nu vizităm niciodată site-uri externe în timpul unei scanări.

Scanare inteligentă

Vede site-ul tău așa cum îl văd utilizatorii.

Pentru a produce rezultate precise de accesibilitate și capturi de ecran curate, crawler-ul nostru gestionează automat popup-urile și overlay-urile care apar pe site-urile moderne.

Bannere de consimțământ pentru cookie-uri — acceptate automat pe toate platformele majore de consimțământ (Cookiebot, OneTrust, Usercentrics, Didomi și altele) în toate cele 24 de limbi ale UE.

Popup-uri și modale — înscrierile la newsletter, overlay-urile promoționale și alte elemente care întrerup sunt detectate și eliminate.

Overlay-uri de fundal — straturile de estompare și fundalurile pe ecran complet sunt eliminate, astfel încât capturile de ecran să arate conținutul real al paginii.

Shadow DOM — parcurgem rădăcinile shadow pentru a găsi și elimina elementele de consimțământ ascunse în web components.

Personalizare

Ajustează crawler-ul pentru site-ul tău.

Detecția noastră automată gestionează majoritatea site-urilor, dar unele au popup-uri personalizate, fluxuri unice de consimțământ sau elemente care necesită tratament special. Proprietarii de site-uri pot configura reguli personalizate pentru crawler în setările site-ului din dashboard pentru a gestiona aceste cazuri speciale.

Selectori de click

Specifică selectori CSS ai butoanelor sau elementelor pe care crawler-ul ar trebui să dea click înainte de scanare — de exemplu, pentru a închide un popup personalizat pe care detecția noastră automată nu îl recunoaște.

Selectori de ascundere

Forțează ascunderea unor elemente specifice înainte de captura de ecran. Util pentru bannere fixe, widget-uri de chat sau overlay-uri care nu ar trebui să apară în raportul tău de accesibilitate.

Cookie-uri presetate

Setează cookie-uri înainte ca crawler-ul să încarce paginile tale — de exemplu, un cookie de consimțământ pentru a ocoli complet bannerul de cookie-uri, sau un cookie de test A/B pentru a scana o variantă specifică.

Căi ignorate și limite de pagini

Exclude căi URL specifice din scanare și setează o limită personalizată de pagini. Util dacă părți ale site-ului tău sunt în spatele unui login sau conțin conținut care nu necesită scanare.

Aceste setări sunt disponibile în fila Setări a site-ului tău din panoul de control Passiro. Modificările intră în vigoare la următoarea scanare.

Controlul tău

Cum să blochezi crawler-ul nostru

Dacă nu dorești ca Passiro Crawler să viziteze site-ul tău, îl poți bloca folosind fișierul tău robots.txt:

User-agent: PassiroCrawler Disallow: /

Poți bloca și căi sau secțiuni specifice ale site-ului tău. Respectăm toate directivele standard robots.txt.

Alternativ, ne poți contacta și vom adăuga domeniul tău pe lista noastră de excludere.

Întrebări despre crawler-ul nostru?

Dacă ai întrebări, preocupări sau trebuie să raportezi o problemă cu Passiro Crawler, suntem bucuroși să ajutăm.

Contactează-ne