tvxOni se stejně vyhodí jako duplicitní.
Možná by bylo lepší v případě robota ignorovat parametry řazení a filtrů. Čím delší a komplikovanější url, tím větší pravděpodobnost, že ji vyhledávač vůbec nezařadí.
Totiž počet stránek na internetu je hypoteticky nekonečný, a ty strategie vyhledávačů jsou různé. Každá site může mít omezenou přidělenou paměť v indexu, a pokud ji vyčerpá, další stránky se do indexu nedostanou. V případně jsou tam různé optimalizace, například vyhazování stránek, které mají zhruba stejný obsah, nebo jsou hodně podobné, aby se místo ušetřilo. Zvětšit prostor v indexu lze víceméně rankem, případně oblibou mezi návštěvníky, množstvím zpětných odkazů, atd, prostě. přesvědčit vyhledávač, že má smysl držet v indexu víc stránek, z dané site, než konkurenční sites. Protože HW je drahé a fulltext spoliká spoustu místa. Seznam se na svém blogu chlubí trojnásobným množstvím stránek v indexu, já k tomu ještě dodám, že počet mašin, které to spravují bude též skoro trojnásobný (prostor je třeba ještě vynásobit příslušným "raidem") |