Cum funcționează crawler-ul nostru.
Passiro Crawler scanează site-urile web pentru probleme de accesibilitate. Este respectuos, transparent și ușor de controlat.
Identificare
Cum să identifici crawler-ul nostru
Passiro Crawler se identifică în fiecare cerere cu următorul User-Agent:
Poți identifica crawler-ul nostru căutând PassiroCrawler în header-ul User-Agent.
Ce face
Construit pentru a scana, nu pentru a extrage date.
Scanare de accesibilitate
Încărcăm paginile tale într-un browser headless și rulăm axe-core, motorul standard industrial de testare a accesibilității folosit de Google, Microsoft și W3C. Testăm conform standardelor WCAG 2.1 AA.
Capturi de ecran
Facem capturi de ecran ale paginilor scanate pentru a crea rapoarte vizuale care evidențiază exact unde apar problemele de accesibilitate. Capturile sunt stocate în siguranță și afișate doar proprietarului site-ului sau în recenziile publice.
Descoperirea link-urilor
Urmăm link-urile interne pentru a descoperi pagini pe site-ul tău. Urmăm doar link-uri din cadrul aceluiași domeniu și respectăm un număr maxim de pagini. Verificăm și sitemap.xml dacă este disponibil.
Comportamentul crawler-ului
Respectuos prin design.
Rata limitată
Maximum 2 cereri pe secundă. Nu inundăm niciodată serverul tău.
Crawling conștient de template-uri
Crawler-ul nostru detectează inteligent template-urile paginilor. Pe site-urile de e-commerce cu mii de pagini de produse care partajează același layout, identificăm automat template-ul și trecem la alte tipuri de pagini unice. Aceasta înseamnă acoperire completă cu cereri minime.
Fără extragere de date
Nu extragem și nu stocăm conținutul, prețurile sau datele utilizatorilor tăi. Facem capturi de ecran pentru rapoarte vizuale și analizăm structura HTML pentru conformitatea cu accesibilitatea — nimic altceva.
Protecție la timeout
Fiecare pagină are un timeout de 10 secunde, iar timpul total de crawling este limitat la 5 minute. Nu rămânem niciodată blocați pe serverul tău.
Doar același domeniu
Urmăm doar link-uri din cadrul domeniului scanat. Nu vizităm niciodată site-uri externe în timpul unei scanări.
Scanare inteligentă
Vede site-ul tău așa cum îl văd utilizatorii.
Pentru a produce rezultate precise de accesibilitate și capturi de ecran curate, crawler-ul nostru gestionează automat popup-urile și overlay-urile care apar pe site-urile moderne.
Bannere de consimțământ pentru cookie-uri — acceptate automat pe toate platformele majore de consimțământ (Cookiebot, OneTrust, Usercentrics, Didomi și altele) în toate cele 24 de limbi ale UE.
Popup-uri și modale — înscrierile la newsletter, overlay-urile promoționale și alte elemente care întrerup sunt detectate și eliminate.
Overlay-uri de fundal — straturile de estompare și fundalurile pe ecran complet sunt eliminate, astfel încât capturile de ecran să arate conținutul real al paginii.
Shadow DOM — parcurgem rădăcinile shadow pentru a găsi și elimina elementele de consimțământ ascunse în web components.
Personalizare
Ajustează crawler-ul pentru site-ul tău.
Detecția noastră automată gestionează majoritatea site-urilor, dar unele au popup-uri personalizate, fluxuri unice de consimțământ sau elemente care necesită tratament special. Proprietarii de site-uri pot configura reguli personalizate pentru crawler în setările site-ului din dashboard pentru a gestiona aceste cazuri speciale.
Selectori de click
Specifică selectori CSS ai butoanelor sau elementelor pe care crawler-ul ar trebui să dea click înainte de scanare — de exemplu, pentru a închide un popup personalizat pe care detecția noastră automată nu îl recunoaște.
Selectori de ascundere
Forțează ascunderea unor elemente specifice înainte de captura de ecran. Util pentru bannere fixe, widget-uri de chat sau overlay-uri care nu ar trebui să apară în raportul tău de accesibilitate.
Cookie-uri presetate
Setează cookie-uri înainte ca crawler-ul să încarce paginile tale — de exemplu, un cookie de consimțământ pentru a ocoli complet bannerul de cookie-uri, sau un cookie de test A/B pentru a scana o variantă specifică.
Căi ignorate și limite de pagini
Exclude căi URL specifice din scanare și setează o limită personalizată de pagini. Util dacă părți ale site-ului tău sunt în spatele unui login sau conțin conținut care nu necesită scanare.
Aceste setări sunt disponibile în fila Setări a site-ului tău din panoul de control Passiro. Modificările intră în vigoare la următoarea scanare.
Controlul tău
Cum să blochezi crawler-ul nostru
Dacă nu dorești ca Passiro Crawler să viziteze site-ul tău, îl poți bloca folosind fișierul tău robots.txt:
Poți bloca și căi sau secțiuni specifice ale site-ului tău. Respectăm toate directivele standard robots.txt.
Alternativ, ne poți contacta și vom adăuga domeniul tău pe lista noastră de excludere.
Întrebări despre crawler-ul nostru?
Dacă ai întrebări, preocupări sau trebuie să raportezi o problemă cu Passiro Crawler, suntem bucuroși să ajutăm.
Contactează-ne