Skip to main content
PASSIRO CRAWLER

Come funziona il nostro crawler.

Passiro Crawler scansiona i siti web alla ricerca di problemi di accessibilità. È rispettoso, trasparente e facile da controllare.

Identificazione

Come identificare il nostro crawler

Il Passiro Crawler si identifica in ogni richiesta con la seguente stringa User-Agent:

Mozilla/5.0 (...) Chrome/131.0.0.0 Safari/537.36 PassiroCrawler/1.0 (+https://passiro.com/bot)

Puoi identificare il nostro crawler cercando PassiroCrawler nell'header User-Agent.

Cosa fa

Costruito per scansionare, non per estrarre dati.

Scansione di accessibilità

Carichiamo le tue pagine in un browser headless e eseguiamo axe-core, il motore di test di accessibilità standard del settore utilizzato da Google, Microsoft e il W3C. Testiamo rispetto agli standard WCAG 2.1 AA.

Screenshot

Scattiamo screenshot delle pagine scansionate per creare report visivi che evidenziano esattamente dove si verificano i problemi di accessibilità. Gli screenshot sono conservati in modo sicuro e mostrati solo al proprietario del sito o nelle recensioni pubbliche.

Scoperta dei link

Seguiamo i link interni per scoprire le pagine del tuo sito. Seguiamo solo i link all'interno dello stesso dominio e rispettiamo un limite massimo di pagine. Controlliamo anche il tuo sitemap.xml se disponibile.

Comportamento del crawler

Rispettoso fin dalla progettazione.

Velocità limitata

Massimo 2 richieste al secondo. Non sovraccarichiamo mai il tuo server.

Crawling intelligente per template

Il nostro crawler rileva in modo intelligente i template delle pagine. Sui siti e-commerce con migliaia di pagine prodotto che condividono lo stesso layout, identifichiamo automaticamente il template e passiamo ad altri tipi di pagina unici. Questo significa copertura completa con richieste minime.

Nessuna estrazione di dati

Non estraiamo né memorizziamo i tuoi contenuti, prezzi o dati utente. Scattiamo screenshot per i report visivi e analizziamo la struttura HTML per la conformità all'accessibilità — nient'altro.

Protezione timeout

Ogni pagina ha un timeout di 10 secondi e il tempo totale di crawl è limitato a 5 minuti. Non rimaniamo mai bloccati sul tuo server.

Solo lo stesso dominio

Seguiamo solo i link all'interno del dominio scansionato. Non visitiamo mai siti web esterni durante una scansione.

Scansione intelligente

Vede il tuo sito come lo vedono i tuoi utenti.

Per produrre risultati di accessibilità accurati e screenshot puliti, il nostro crawler gestisce automaticamente i popup e gli overlay che compaiono sui siti web moderni.

Banner di consenso cookie — accettati automaticamente su tutte le principali piattaforme di consenso (Cookiebot, OneTrust, Usercentrics, Didomi e altre) in tutte le 24 lingue dell'UE.

Popup e modali — iscrizioni alla newsletter, overlay promozionali e altri elementi intrusivi vengono rilevati e chiusi.

Overlay di sfondo — livelli di oscuramento e sfondi a schermo intero vengono rimossi affinché gli screenshot mostrino il contenuto effettivo della pagina.

Shadow DOM — esploriamo le shadow root per trovare e chiudere elementi di consenso nascosti all'interno di componenti web.

Personalizzazione

Personalizza il crawler per il tuo sito.

Il nostro rilevamento automatico gestisce la maggior parte dei siti web, ma alcuni siti hanno popup personalizzati, flussi di consenso unici o elementi che richiedono un trattamento speciale. I proprietari dei siti possono configurare regole personalizzate del crawler nella dashboard delle impostazioni del sito per gestire questi casi particolari.

Selettori di clic

Specifica i selettori CSS di pulsanti o elementi su cui il crawler deve fare clic prima della scansione — ad esempio, per chiudere un popup personalizzato che il nostro rilevamento automatico non riconosce.

Selettori di nascondimento

Forza il nascondimento di elementi specifici prima di scattare gli screenshot. Utile per banner fissi, widget di chat o overlay che non dovrebbero comparire nel tuo report di accessibilità.

Cookie preimpostati

Imposta cookie prima che il crawler carichi le tue pagine — ad esempio, un cookie di consenso per aggirare completamente il banner dei cookie, o un cookie di test A/B per scansionare una variante specifica.

Percorsi ignorati e limiti di pagina

Escludi percorsi URL specifici dalla scansione e imposta un limite di pagine personalizzato. Utile se parti del tuo sito sono dietro login o contengono contenuti che non hai bisogno di scansionare.

Queste impostazioni sono disponibili nella scheda Impostazioni del tuo sito sulla dashboard di Passiro. Le modifiche diventano effettive alla scansione successiva.

Il tuo controllo

Come bloccare il nostro crawler

Se non desideri che il Passiro Crawler visiti il tuo sito web, puoi bloccarlo tramite il tuo file robots.txt:

User-agent: PassiroCrawler Disallow: /

Puoi anche bloccare percorsi o sezioni specifiche del tuo sito. Rispettiamo tutte le direttive standard di robots.txt.

In alternativa, puoi contattarci e aggiungeremo il tuo dominio alla nostra lista di esclusione.

Domande sul nostro crawler?

Se hai domande, dubbi o devi segnalare un problema con il Passiro Crawler, siamo felici di aiutarti.

Contattaci