So funktioniert unser Crawler.
Passiro Crawler scannt Websites auf Barrierefreiheitsprobleme. Er ist respektvoll, transparent und einfach zu kontrollieren.
Identifikation
So erkennen Sie unseren Crawler
Der Passiro Crawler identifiziert sich in jeder Anfrage mit dem folgenden User-Agent-String:
Sie können unseren Crawler erkennen, indem Sie im User-Agent-Header nach PassiroCrawler suchen.
Was er tut
Zum Scannen gebaut, nicht zum Scrapen.
Barrierefreiheits-Scanning
Wir laden Ihre Seiten in einem Headless-Browser und führen axe-core aus, die Industriestandard-Engine für Barrierefreiheitstests, die von Google, Microsoft und dem W3C verwendet wird. Wir testen gegen WCAG 2.1 AA-Standards.
Screenshots
Wir erstellen Screenshots gescannter Seiten, um visuelle Berichte zu erstellen, die genau zeigen, wo Barrierefreiheitsprobleme auftreten. Screenshots werden sicher gespeichert und nur dem Website-Inhaber oder in öffentlichen Bewertungen angezeigt.
Link-Erkennung
Wir folgen internen Links, um Seiten auf Ihrer Website zu entdecken. Wir folgen nur Links innerhalb derselben Domain und respektieren ein maximales Seitenlimit. Wir prüfen auch Ihre sitemap.xml, falls verfügbar.
Crawl-Verhalten
Von Grund auf respektvoll.
Ratenbegrenzt
Maximal 2 Anfragen pro Sekunde. Wir überlasten Ihren Server niemals.
Template-bewusstes Crawling
Unser Crawler erkennt intelligent Seitenvorlagen. Bei E-Commerce-Websites mit Tausenden von Produktseiten mit demselben Layout identifizieren wir automatisch das Template und gehen zu anderen einzigartigen Seitentypen über. Das bedeutet volle Abdeckung mit minimalen Anfragen.
Keine Datenextraktion
Wir scrapen oder speichern Ihre Inhalte, Preise oder Benutzerdaten nicht. Wir erstellen Screenshots für visuelle Berichte und analysieren die HTML-Struktur auf Barrierefreiheits-Compliance — sonst nichts.
Timeout-Schutz
Jede Seite hat ein 10-Sekunden-Timeout und die gesamte Crawl-Zeit ist auf 5 Minuten begrenzt. Wir hängen nie auf Ihrem Server.
Nur dieselbe Domain
Wir folgen nur Links innerhalb der gescannten Domain. Wir besuchen während eines Scans niemals externe Websites.
Intelligentes Scanning
Sieht Ihre Website so, wie Ihre Benutzer sie sehen.
Um präzise Barrierefreiheitsergebnisse und saubere Screenshots zu liefern, behandelt unser Crawler automatisch die Popups und Overlays, die auf modernen Websites erscheinen.
Cookie-Einwilligungsbanner — werden automatisch über alle großen Einwilligungsplattformen (Cookiebot, OneTrust, Usercentrics, Didomi und mehr) in allen 24 EU-Sprachen akzeptiert.
Popups und Modals — Newsletter-Anmeldungen, Werbe-Overlays und andere störende Elemente werden erkannt und geschlossen.
Hintergrund-Overlays — Abdunkelungsebenen und Vollbild-Hintergründe werden entfernt, damit Screenshots den tatsächlichen Seiteninhalt zeigen.
Shadow DOM — wir durchsuchen Shadow Roots, um Einwilligungselemente zu finden und zu schließen, die in Webkomponenten versteckt sind.
Anpassung
Passen Sie den Crawler an Ihre Website an.
Unsere automatische Erkennung behandelt die meisten Websites, aber einige Websites haben benutzerdefinierte Popups, einzigartige Einwilligungsabläufe oder Elemente, die besondere Behandlung erfordern. Website-Inhaber können benutzerdefinierte Crawler-Regeln im Website-Einstellungs-Dashboard konfigurieren, um diese Sonderfälle zu behandeln.
Klick-Selektoren
Geben Sie CSS-Selektoren für Schaltflächen oder Elemente an, die der Crawler vor dem Scannen anklicken soll — zum Beispiel, um ein benutzerdefiniertes Popup zu schließen, das unsere automatische Erkennung nicht erkennt.
Ausblende-Selektoren
Erzwingen Sie das Ausblenden bestimmter Elemente vor der Screenshot-Erstellung. Nützlich für fixierte Banner, Chat-Widgets oder Overlays, die nicht in Ihrem Barrierefreiheitsbericht erscheinen sollten.
Voreingestellte Cookies
Setzen Sie Cookies, bevor der Crawler Ihre Seiten lädt — zum Beispiel einen Einwilligungs-Cookie, um das Cookie-Banner vollständig zu umgehen, oder einen A/B-Test-Cookie, um eine bestimmte Variante zu scannen.
Ignorierte Pfade & Seitenlimits
Schließen Sie bestimmte URL-Pfade vom Scannen aus und legen Sie ein benutzerdefiniertes Seitenlimit fest. Nützlich, wenn Teile Ihrer Website hinter einem Login stehen oder Inhalte enthalten, die nicht gescannt werden müssen.
Diese Einstellungen sind im Einstellungen-Tab Ihrer Website im Passiro-Dashboard verfügbar. Änderungen werden beim nächsten Scan wirksam.
Ihre Kontrolle
So blockieren Sie unseren Crawler
Wenn Sie nicht möchten, dass der Passiro Crawler Ihre Website besucht, können Sie ihn über Ihre robots.txt-Datei blockieren:
Sie können auch bestimmte Pfade oder Bereiche Ihrer Website blockieren. Wir respektieren alle Standard-robots.txt-Direktiven.
Alternativ können Sie uns kontaktieren und wir fügen Ihre Domain zu unserer Ausschlussliste hinzu.
Fragen zu unserem Crawler?
Wenn Sie Fragen, Bedenken haben oder ein Problem mit dem Passiro Crawler melden möchten, helfen wir Ihnen gerne.
Kontaktieren Sie uns