Wielu właścicieli sklepów internetowych myśli, że problem duplikacji dotyczy tylko treści. Tymczasem największym źródłem błędów SEO w e-commerce są filtry i facety, czyli niewidzialna warstwa URL-i generowana automatycznie przez system sklepu. Każdy filtr (np. kolor, rozmiar, cena, producent) może tworzyć tysiące kombinacji adresów. Jeśli Google je zaindeksuje, powstaje duplikacja, rozmycie autorytetu domeny i chaos w crawl budget. Dobrze zaprojektowana struktura facetowa może być potężnym narzędziem rozszerzania semantyki long tail i widoczności.

Jak działają filtry i facety w e-commerce?

Facety (ang. faceted navigation) to zestawy filtrów, które pozwalają użytkownikom precyzyjnie zawężać wyniki. Z punktu widzenia SEO każdy wybór filtra to nowy adres URL.

Przykład:
/buty-damskie?kolor=czarny&rozmiar=38&marka=nike

Dla Google to osobna podstrona z unikalnym zestawem parametrów, ale często tą samą treścią. Efekt?

  • tysięczne duplikaty,
  • crawl waste (robot krąży po bezużytecznych kombinacjach),
  • spadek mocy głównych kategorii.

Dobrze zaprojektowana architektura facetowa:

  • pozwala robotom indeksować tylko kombinacje o wysokim potencjale frazowym,
  • daje użytkownikowi pełny UX,
  • a Google’owi czysty sygnał semantyczny.

Kanonikalizacja filtrów – stosowanie rel=”canonical”

Najczęstszy błąd to stosowanie canonical do strony głównej kategorii wszędzie. To tak, jakbyś kazał Google ignorować wszystkie kombinacje filtrów, nawet te wartościowe.

Dobre praktyki:

  1. Canonical do głównej kategorii
    – dla kombinacji technicznie poprawnych, ale niepotrzebnych w indeksie:
    /buty-damskie?sort=price_asc → canonical → /buty-damskie
  2. Self-canonical
    – dla kombinacji filtrów z realnym potencjałem wyszukiwań:
    /buty-damskie?kolor=czarny&rozmiar=38 → canonical → sam do siebie
  3. Dynamiczne reguły canonical
    – oparte o dane z Google Search Console i logów:
    tylko URL-e, które mają ruch, dostają self-canonical.

Nie ma jednej reguły dla wszystkich filtrów. Canonicalizacja powinna być logicznie powiązana z intencją użytkownika.

Noindex i robots.txt w praktyce – jak chronić indeks od śmieciowych URL-i

MechanizmDziałanieUżycie
noindexpozwala robotowi wejść, ale blokuje indeksowaniefiltry niskiej jakości, duplikaty
robots.txt (Disallow)blokuje crawl, robot nie widzi stronynieużywane parametry, np. sortowanie, paginacja

Zasada Bee On Top: „Najpierw crawluj, potem decyduj”.
Nie blokuj wszystkiego od razu. Ustal, które URL-e generują ruch, a dopiero potem wdrażaj noindex.

Przykład robots.txt:

User-agent: *
Disallow: /*?sort=
Disallow: /*?view=
Allow: /*?kolor=
Allow: /*?rozmiar=

Taki plik pozwala robotom skupić się na wartościach semantycznych (kolor, rozmiar) zamiast na parametrach UX (sortowanie, widok).

Parametry, paginacja i filtrowanie – jak zachować równowagę między UX a SEO

Google coraz lepiej radzi sobie z dynamicznymi parametrami, ale UX wciąż potrafi zabić widoczność.

Zasady równowagi:

  • Jedna główna kategoria = jeden statyczny URL.
    /buty-damskie/ – punkt wyjścia dla wszystkich kombinacji.
  • Parametry logiczne (kolor, rozmiar, marka) mogą być otwarte dla indeksu.
  • Parametry techniczne (sort, view, page) → noindex, follow.

Paginacja:

Google nie obsługuje już rel=”next”/”prev”.
Rozwiązanie:

  • stosuj infinite scroll z fallbackiem w HTML (link „pokaż więcej”),
  • lub klasyczne /page/2/, ale z unikalnym tytułem i canonicalem do siebie.

Wzorce URL i architektura facetowa – przykłady poprawnych adresów filtrów

Typ strukturyPrzykładOcena
Parametry w query string/buty?kolor=czarny&rozmiar=38prosty, elastyczny
Ścieżka statyczna/buty/czarne/rozmiar-38/SEO-friendly, ale trudniejsza w zarządzaniu
Hybrydowa/buty/czarne?rozmiar=38kompromis: estetyka + kontrola
Niebezpieczna (parametry bez reguł)/buty?utm=xyz&view=list&sort=desc&abc=1chaos w indeksie

Dla Google ważne są wzorce, nie kolory przycisków. Jeśli Twoje parametry mają sens semantyczny, robot nauczy się ich struktury i zacznie indeksować właściwe kombinacje.

Co indeksować, co kanonizować, a co blokować?

To najczęstsze pytanie w audytach technicznych. Poniżej znajdziesz uproszczone drzewo decyzji Bee On Top:

Struktura SEO-safe

Dla sklepów powyżej 10 000 SKU warto wdrożyć algorytmiczne mapowanie filtrów, np. według danych z GSC, Senuto czy Ahrefs. Filtry o dużym potencjale (np. „czarne sukienki midi”) mogą tworzyć landing pages SEO-ready.

FAQ – filtry, facety i SEO

Czy każdy filtr powinien mieć swój adres URL?
Nie. Tylko te, które odpowiadają realnym zapytaniom użytkowników. Resztę warto obsługiwać przez JS lub noindex.

Jak uniknąć duplikacji meta tagów w filtrach?
Dynamicznie generuj meta tytuły na podstawie nazw filtrów, np. „Czarne buty damskie rozmiar 38 – Sklep X”.

Czy Google widzi filtry oparte na AJAX?
Tak, ale tylko jeśli mają fallback w HTML lub są obsłużone przez prerendering.

Czy facety spowalniają indeksację sklepu?
Tak, jeśli nie mają limitu kombinacji. Warto ograniczyć liczbę możliwych parametrów do 2–3 jednocześnie.

Co z parametrami sortowania i widoku (grid/list)?
Zawsze noindex, follow – nie wnoszą wartości semantycznej.

Czy można używać mapy XML dla URL-i z filtrami?
Tak, ale tylko dla wybranych kombinacji z ruchem organicznym.

Jak testować efekty wdrożeń filtrów?
Porównaj dane GSC (liczba zaindeksowanych adresów vs ruch organiczny) po 4–6 tygodniach od zmian.

Umów 15-min konsultację z Bee On Top i dowiedz się, jak zaprojektować strukturę filtrów, które Google pokocha, a nie zignoruje.

Zobacz projekty, które już zdobywają klientów

Jak będzie wyglądać Twoja nowa strona?

  • Projekt strony www
  • Projekt strony www
  • Projekt strony www
  • Projekt strony www

Polecane posty