Zum Inhalt springen
← Alle Artikel Blog

Facettennavigation und SEO: So vermeidest du Duplicate Content

Warum Filter und Sortieroptionen dein Ranking ruinieren koennen - und wie du das verhinderst.

Eric Menge · · 7 Min. Lesezeit
Schema einer Facettennavigation mit URL-Struktur und Canonical Tags

Facettennavigation ist ein Segen fuer Nutzer und ein Fluch fuer SEO. Jeder Online-Shop kennt sie: Filter nach Groesse, Farbe, Preis, Marke, Material, Bewertung. Fuer den Besucher ist das komfortabel. Fuer Suchmaschinen erzeugt es ein Labyrinth aus Tausenden nahezu identischer URLs, die sich nur in den Query-Parametern unterscheiden.

Das Ergebnis: Index Bloat, verschwendetes Crawl Budget und verwässerte Rankings. In diesem Artikel zeige ich dir, warum das passiert, wie du es erkennst und welche Strategien tatsaechlich funktionieren.

Das URL-Explosionsproblem

Stell dir einen Online-Shop mit 5.000 Produkten vor. Jedes Produkt hat Attribute wie Farbe (10 Optionen), Groesse (8 Optionen), Material (5 Optionen) und Preis (4 Bereiche). Jede Kombination erzeugt eine eigene URL.

Bei 15 filterbaren Attributen mit jeweils 8 Optionen ergeben sich theoretisch Billionen moeglicher Kombinationen. In der Praxis zeigt die Google Search Console dann 50.000 indexierte Seiten bei nur 5.000 tatsaechlichen Produkten. Die restlichen 45.000 sind Filterkombinationen, die Google gefunden und indexiert hat.

Jede dieser Seiten zeigt im Wesentlichen denselben Inhalt - nur in einer anderen Sortierung oder Filterung. Fuer Google ist das Duplicate Content. Und Duplicate Content heisst: Deine Ranking-Signale verteilen sich auf Tausende URLs statt sich auf die wenigen zu konzentrieren, die wirklich zaehlen.

Crawl Budget: Die unsichtbare Grenze

Google weist jeder Website ein begrenztes Crawl Budget zu - die Anzahl an Seiten, die Googlebot in einem bestimmten Zeitraum besucht. Bei einer kleinen Website mit 200 Seiten ist das kein Problem. Bei einem Shop mit 50.000 Facetten-URLs wird es kritisch.

Wenn Googlebot seine Zeit damit verbringt, URLs wie /jacken?groesse=xl&farbe=rot&preis=100-200&seite=12 zu crawlen, bleibt weniger Budget fuer deine eigentlich wichtigen Seiten: Kategorieseiten, Produktseiten, Blog-Artikel. Im schlimmsten Fall werden neue Inhalte erst nach Wochen indexiert, weil Google mit dem Crawlen von Filterkombinationen beschaeftigt ist.

Das Problem: Googles URL-Parameter-Tool, mit dem man frueher explizit steuern konnte, wie Google bestimmte Query-Parameter behandelt, wurde aus der Search Console entfernt. Du musst die Steuerung jetzt vollstaendig selbst uebernehmen.

Strategie 1: Canonical Tags richtig einsetzen

Der Canonical Tag (link rel="canonical") zeigt Google, welche URL die bevorzugte Version einer Seite ist. Jede gefilterte Variante sollte auf die ungefilterte Kategorieseite verweisen:

Die URL /jacken?farbe=rot&groesse=xl bekommt ein Canonical auf /jacken. Damit signalisierst du Google: Die Rankings sollen auf die Hauptkategorie fliessen, nicht auf die gefilterte Variante.

Aber Vorsicht: Canonical Tags sind fuer Google Hinweise, keine Anweisungen. Google kann sie ignorieren, wenn die Signale widerspruechlich sind. Wenn zum Beispiel interne Links massenhaft auf gefilterte URLs zeigen, waehrend das Canonical auf die Hauptkategorie verweist, kann Google sich entscheiden, die gefilterte URL trotzdem zu indexieren.

Deshalb funktioniert eine Canonical-Tag-Strategie nur als Teil eines groesseren Konzepts, nicht als Einzelmassnahme.

Strategie 2: Robots.txt und noindex

Fuer Filter, die keine eigenstaendige Suchintention bedienen, ist ein haerterer Ansatz sinnvoll:

  • Robots.txt - Blockiere das Crawlen bestimmter Parametermuster komplett. Zum Beispiel: Disallow fuer alle URLs, die Preis- oder Sortierparameter enthalten. Vorteil: Spart Crawl Budget. Nachteil: Google sieht auch das Canonical Tag nicht, weil die Seite gar nicht gecrawlt wird.
  • Meta-noindex - Die Seite wird gecrawlt, aber nicht indexiert. Vorteil: Google kann die internen Links auf der Seite trotzdem folgen. Nachteil: Verbraucht weiterhin Crawl Budget.

Die Entscheidung haengt vom konkreten Fall ab. Fuer reine Sortierungs-URLs (sortiert nach Preis, Datum, Bewertung) ist robots.txt sinnvoll - diese Seiten haben keinen eigenstaendigen Inhalt. Fuer Farbfilter oder Markenfilter, die eigenstaendige Suchintentionen bedienen ("rote Jacken"), kann eine eigene Landing Page mit unique Content die bessere Loesung sein.

Strategie 3: Clientseitige Filter

Der eleganteste Ansatz: Filter aendern die URL gar nicht. Statt serverseitig neue URLs zu generieren, filtert JavaScript die Produkte direkt im Browser. AJAX-basierte Filter aktualisieren den Inhalt, ohne eine neue URL zu erzeugen. Fuer Google existieren die Filterkombinationen schlicht nicht.

Das funktioniert hervorragend fuer Filter, die kein eigenes Ranking brauchen: Preisbereiche, Verfuegbarkeit, Bewertungen. Fuer SEO-relevante Filter (Marken, Kategorien, Materialien) solltest du dagegen eigenstaendige URLs beibehalten, damit Google diese Seiten finden und ranken kann.

Die Kombination ist der Schluessel: SEO-relevante Facetten mit eigenen URLs und Unique Content, alles andere clientseitig ohne URL-Aenderung.

Strategie 4: Saubere URL-Architektur

Wie deine URLs aufgebaut sind, bestimmt, wie gut sich Facettennavigation kontrollieren laesst. Eine flache Struktur mit Query-Parametern ist einfacher zu steuern als verschachtelte Pfade:

  • Gut: /jacken?farbe=rot - Parameter lassen sich per Robots.txt-Regeln oder serverseitiger Logik filtern.
  • Problematisch: /jacken/rot/xl/guenstig - Jede Kombination erzeugt einen eigenen Pfad, der schwer zu kontrollieren ist.

Eine Alternative sind URL-Fragmente (Hash-Zeichen). Alles nach dem Hashtag wird nicht an den Server gesendet und von Google ignoriert. /jacken#farbe=rot erzeugt keine neue URL fuer Google. Der Nachteil: Server-Side Rendering wird schwieriger, und Nutzer koennen gefilterte Ansichten nicht per Link teilen.

Checkliste: So auditierst du deine Facettennavigation

Bevor du optimierst, brauchst du ein klares Bild der aktuellen Situation:

  • Search Console pruefen: Wie viele Seiten hat Google indexiert? Vergleiche mit der tatsaechlichen Anzahl einzigartiger Seiten. Ein grosser Unterschied deutet auf Index Bloat hin.
  • Crawl-Analyse durchfuehren: Tools wie Screaming Frog zeigen dir, welche Facetten-URLs Google erreichen kann. Pruefe, ob gefilterte URLs intern verlinkt sind.
  • Canonical Tags pruefen: Verweisen gefilterte Seiten korrekt auf die Hauptkategorie? Oder zeigen sie auf sich selbst?
  • Suchintentionen bewerten: Welche Filterkombinationen haben eigenes Suchvolumen? "Rote Jacken" wird gesucht, "Jacken sortiert nach Preis absteigend" nicht.
  • Log-Dateien analysieren: Server-Logs zeigen, welche URLs Googlebot tatsaechlich crawlt. Wenn 70 Prozent der Crawls auf Facetten-URLs entfallen, ist das ein klares Signal fuer verschwendetes Budget.

Der Unterschied zwischen Theorie und Praxis

In der Theorie klingt Facettennavigation einfach: Canonical Tags setzen, fertig. In der Praxis ist es ein Zusammenspiel aus URL-Architektur, interner Verlinkung, Crawl-Steuerung und Content-Strategie. Jeder Shop ist anders, und eine Loesung, die bei 500 Produkten funktioniert, kann bei 50.000 Produkten versagen.

Der wichtigste Grundsatz: Facetten-SEO ist kein einmaliges Projekt, sondern ein laufender Prozess. Neue Filter, neue Kategorien und neue Produkte veraendern die Situation staendig. Regelmaessige Crawl-Audits und ein Blick in die Search Console sollten fester Bestandteil deiner SEO-Routine sein.

Dein Shop hat ein Indexierungs-Problem?

Wir analysieren deine Facettennavigation, identifizieren Crawl-Budget-Verschwendung und entwickeln eine Strategie, die Rankings schuetzt und Duplicate Content eliminiert.

SEO-Analyse anfordern