Come funziona il nostro crawler.
Passiro Crawler scansiona i siti web alla ricerca di problemi di accessibilità. È rispettoso, trasparente e facile da controllare.
Identificazione
Come identificare il nostro crawler
Il Passiro Crawler si identifica in ogni richiesta con la seguente stringa User-Agent:
Puoi identificare il nostro crawler cercando PassiroCrawler nell'header User-Agent.
Cosa fa
Costruito per scansionare, non per estrarre dati.
Scansione di accessibilità
Carichiamo le tue pagine in un browser headless e eseguiamo axe-core, il motore di test di accessibilità standard del settore utilizzato da Google, Microsoft e il W3C. Testiamo rispetto agli standard WCAG 2.1 AA.
Screenshot
Scattiamo screenshot delle pagine scansionate per creare report visivi che evidenziano esattamente dove si verificano i problemi di accessibilità. Gli screenshot sono conservati in modo sicuro e mostrati solo al proprietario del sito o nelle recensioni pubbliche.
Scoperta dei link
Seguiamo i link interni per scoprire le pagine del tuo sito. Seguiamo solo i link all'interno dello stesso dominio e rispettiamo un limite massimo di pagine. Controlliamo anche il tuo sitemap.xml se disponibile.
Comportamento del crawler
Rispettoso fin dalla progettazione.
Velocità limitata
Massimo 2 richieste al secondo. Non sovraccarichiamo mai il tuo server.
Crawling intelligente per template
Il nostro crawler rileva in modo intelligente i template delle pagine. Sui siti e-commerce con migliaia di pagine prodotto che condividono lo stesso layout, identifichiamo automaticamente il template e passiamo ad altri tipi di pagina unici. Questo significa copertura completa con richieste minime.
Nessuna estrazione di dati
Non estraiamo né memorizziamo i tuoi contenuti, prezzi o dati utente. Scattiamo screenshot per i report visivi e analizziamo la struttura HTML per la conformità all'accessibilità — nient'altro.
Protezione timeout
Ogni pagina ha un timeout di 10 secondi e il tempo totale di crawl è limitato a 5 minuti. Non rimaniamo mai bloccati sul tuo server.
Solo lo stesso dominio
Seguiamo solo i link all'interno del dominio scansionato. Non visitiamo mai siti web esterni durante una scansione.
Scansione intelligente
Vede il tuo sito come lo vedono i tuoi utenti.
Per produrre risultati di accessibilità accurati e screenshot puliti, il nostro crawler gestisce automaticamente i popup e gli overlay che compaiono sui siti web moderni.
Banner di consenso cookie — accettati automaticamente su tutte le principali piattaforme di consenso (Cookiebot, OneTrust, Usercentrics, Didomi e altre) in tutte le 24 lingue dell'UE.
Popup e modali — iscrizioni alla newsletter, overlay promozionali e altri elementi intrusivi vengono rilevati e chiusi.
Overlay di sfondo — livelli di oscuramento e sfondi a schermo intero vengono rimossi affinché gli screenshot mostrino il contenuto effettivo della pagina.
Shadow DOM — esploriamo le shadow root per trovare e chiudere elementi di consenso nascosti all'interno di componenti web.
Personalizzazione
Personalizza il crawler per il tuo sito.
Il nostro rilevamento automatico gestisce la maggior parte dei siti web, ma alcuni siti hanno popup personalizzati, flussi di consenso unici o elementi che richiedono un trattamento speciale. I proprietari dei siti possono configurare regole personalizzate del crawler nella dashboard delle impostazioni del sito per gestire questi casi particolari.
Selettori di clic
Specifica i selettori CSS di pulsanti o elementi su cui il crawler deve fare clic prima della scansione — ad esempio, per chiudere un popup personalizzato che il nostro rilevamento automatico non riconosce.
Selettori di nascondimento
Forza il nascondimento di elementi specifici prima di scattare gli screenshot. Utile per banner fissi, widget di chat o overlay che non dovrebbero comparire nel tuo report di accessibilità.
Cookie preimpostati
Imposta cookie prima che il crawler carichi le tue pagine — ad esempio, un cookie di consenso per aggirare completamente il banner dei cookie, o un cookie di test A/B per scansionare una variante specifica.
Percorsi ignorati e limiti di pagina
Escludi percorsi URL specifici dalla scansione e imposta un limite di pagine personalizzato. Utile se parti del tuo sito sono dietro login o contengono contenuti che non hai bisogno di scansionare.
Queste impostazioni sono disponibili nella scheda Impostazioni del tuo sito sulla dashboard di Passiro. Le modifiche diventano effettive alla scansione successiva.
Il tuo controllo
Come bloccare il nostro crawler
Se non desideri che il Passiro Crawler visiti il tuo sito web, puoi bloccarlo tramite il tuo file robots.txt:
Puoi anche bloccare percorsi o sezioni specifiche del tuo sito. Rispettiamo tutte le direttive standard di robots.txt.
In alternativa, puoi contattarci e aggiungeremo il tuo dominio alla nostra lista di esclusione.
Domande sul nostro crawler?
Se hai domande, dubbi o devi segnalare un problema con il Passiro Crawler, siamo felici di aiutarti.
Contattaci