
Wielu właścicieli sklepów internetowych myśli, że problem duplikacji dotyczy tylko treści. Tymczasem największym źródłem błędów SEO w e-commerce są filtry i facety, czyli niewidzialna warstwa URL-i generowana automatycznie przez system sklepu. Każdy filtr (np. kolor, rozmiar, cena, producent) może tworzyć tysiące kombinacji adresów. Jeśli Google je zaindeksuje, powstaje duplikacja, rozmycie autorytetu domeny i chaos w crawl budget. Dobrze zaprojektowana struktura facetowa może być potężnym narzędziem rozszerzania semantyki long tail i widoczności.
Jak działają filtry i facety w e-commerce?
Facety (ang. faceted navigation) to zestawy filtrów, które pozwalają użytkownikom precyzyjnie zawężać wyniki. Z punktu widzenia SEO każdy wybór filtra to nowy adres URL.
Przykład:
/buty-damskie?kolor=czarny&rozmiar=38&marka=nike
Dla Google to osobna podstrona z unikalnym zestawem parametrów, ale często tą samą treścią. Efekt?
- tysięczne duplikaty,
- crawl waste (robot krąży po bezużytecznych kombinacjach),
- spadek mocy głównych kategorii.
Dobrze zaprojektowana architektura facetowa:
- pozwala robotom indeksować tylko kombinacje o wysokim potencjale frazowym,
- daje użytkownikowi pełny UX,
- a Google’owi czysty sygnał semantyczny.
Kanonikalizacja filtrów – stosowanie rel=”canonical”
Najczęstszy błąd to stosowanie canonical do strony głównej kategorii wszędzie. To tak, jakbyś kazał Google ignorować wszystkie kombinacje filtrów, nawet te wartościowe.
Dobre praktyki:
- Canonical do głównej kategorii
– dla kombinacji technicznie poprawnych, ale niepotrzebnych w indeksie:
/buty-damskie?sort=price_asc → canonical → /buty-damskie - Self-canonical
– dla kombinacji filtrów z realnym potencjałem wyszukiwań:
/buty-damskie?kolor=czarny&rozmiar=38 → canonical → sam do siebie - Dynamiczne reguły canonical
– oparte o dane z Google Search Console i logów:
tylko URL-e, które mają ruch, dostają self-canonical.
Nie ma jednej reguły dla wszystkich filtrów. Canonicalizacja powinna być logicznie powiązana z intencją użytkownika.
Noindex i robots.txt w praktyce – jak chronić indeks od śmieciowych URL-i
| Mechanizm | Działanie | Użycie |
|---|---|---|
| noindex | pozwala robotowi wejść, ale blokuje indeksowanie | filtry niskiej jakości, duplikaty |
| robots.txt (Disallow) | blokuje crawl, robot nie widzi strony | nieużywane parametry, np. sortowanie, paginacja |
Zasada Bee On Top: „Najpierw crawluj, potem decyduj”.
Nie blokuj wszystkiego od razu. Ustal, które URL-e generują ruch, a dopiero potem wdrażaj noindex.
Przykład robots.txt:
User-agent: * Disallow: /*?sort= Disallow: /*?view= Allow: /*?kolor= Allow: /*?rozmiar=
Taki plik pozwala robotom skupić się na wartościach semantycznych (kolor, rozmiar) zamiast na parametrach UX (sortowanie, widok).
Parametry, paginacja i filtrowanie – jak zachować równowagę między UX a SEO
Google coraz lepiej radzi sobie z dynamicznymi parametrami, ale UX wciąż potrafi zabić widoczność.
Zasady równowagi:
- Jedna główna kategoria = jeden statyczny URL.
/buty-damskie/ – punkt wyjścia dla wszystkich kombinacji. - Parametry logiczne (kolor, rozmiar, marka) mogą być otwarte dla indeksu.
- Parametry techniczne (sort, view, page) → noindex, follow.
Paginacja:
Google nie obsługuje już rel=”next”/”prev”.
Rozwiązanie:
- stosuj infinite scroll z fallbackiem w HTML (link „pokaż więcej”),
- lub klasyczne /page/2/, ale z unikalnym tytułem i canonicalem do siebie.
Wzorce URL i architektura facetowa – przykłady poprawnych adresów filtrów
| Typ struktury | Przykład | Ocena |
|---|---|---|
| Parametry w query string | /buty?kolor=czarny&rozmiar=38 | prosty, elastyczny |
| Ścieżka statyczna | /buty/czarne/rozmiar-38/ | SEO-friendly, ale trudniejsza w zarządzaniu |
| Hybrydowa | /buty/czarne?rozmiar=38 | kompromis: estetyka + kontrola |
| Niebezpieczna (parametry bez reguł) | /buty?utm=xyz&view=list&sort=desc&abc=1 | chaos w indeksie |
Dla Google ważne są wzorce, nie kolory przycisków. Jeśli Twoje parametry mają sens semantyczny, robot nauczy się ich struktury i zacznie indeksować właściwe kombinacje.
Co indeksować, co kanonizować, a co blokować?
To najczęstsze pytanie w audytach technicznych. Poniżej znajdziesz uproszczone drzewo decyzji Bee On Top:

Dla sklepów powyżej 10 000 SKU warto wdrożyć algorytmiczne mapowanie filtrów, np. według danych z GSC, Senuto czy Ahrefs. Filtry o dużym potencjale (np. „czarne sukienki midi”) mogą tworzyć landing pages SEO-ready.
FAQ – filtry, facety i SEO
Czy każdy filtr powinien mieć swój adres URL?
Nie. Tylko te, które odpowiadają realnym zapytaniom użytkowników. Resztę warto obsługiwać przez JS lub noindex.
Jak uniknąć duplikacji meta tagów w filtrach?
Dynamicznie generuj meta tytuły na podstawie nazw filtrów, np. „Czarne buty damskie rozmiar 38 – Sklep X”.
Czy Google widzi filtry oparte na AJAX?
Tak, ale tylko jeśli mają fallback w HTML lub są obsłużone przez prerendering.
Czy facety spowalniają indeksację sklepu?
Tak, jeśli nie mają limitu kombinacji. Warto ograniczyć liczbę możliwych parametrów do 2–3 jednocześnie.
Co z parametrami sortowania i widoku (grid/list)?
Zawsze noindex, follow – nie wnoszą wartości semantycznej.
Czy można używać mapy XML dla URL-i z filtrami?
Tak, ale tylko dla wybranych kombinacji z ruchem organicznym.
Jak testować efekty wdrożeń filtrów?
Porównaj dane GSC (liczba zaindeksowanych adresów vs ruch organiczny) po 4–6 tygodniach od zmian.
Umów 15-min konsultację z Bee On Top i dowiedz się, jak zaprojektować strukturę filtrów, które Google pokocha, a nie zignoruje.
Polecane posty
W dzisiejszym dynamicznym świecie e-commerce, projektowanie sklepów internetowych to kluczowy element sukcesu każdej firmy. Zwiększająca się liczba sklepów online [...]
Budowanie pozytywnych skojarzeń z marką to proces, który ma kluczowy wpływ na sukces każdej firmy. Klienci podejmują decyzje zakupowe [...]
W dzisiejszych czasach efektywna komunikacja z pacjentami w branży medycznej jest kluczowa. Pacjenci oczekują szybkiego i łatwego kontaktu z [...]










