BIGHeadDuplicity většinou nebývají penalizované, ale vyhledávač si většinou vybere jednu URL a zbytek vymaže. Přitom nemusí to být ta s tím nejvyšším rankem.
Obecně by se dalo říct, že ve vyhledávači se neustále bojuje o to, která URL vyhraje s duplicitním obsahem. Pokud sbírá a sbírá nové stránky a hledač duplicit je maže a maže (a pokaždé si může vybrat jinou url, která zůstane)... taková URL také zpravidla nemá historii, takže může být určitým způsobem penalizována (ale ne za duplicitu, ale za to, že nemá historii).
Dalším způsobem je (v limitované míře) dívat se na duplicity jako na aliasy. Robot si vybere jednu URL a pod tou URL je stránka uložena a duplicitní obsah se převede na alias (neplést s doménovým aliasem), což je podobné redirectu. Rozdíl je v tom, že zatímco u redirectu máš kontrolu nad tím, co bude "ta hlavní stránka", ve výše uvedené příkladu ne.
Další nevýhodou je, že duplicitní obsah zpravidla vede k vyčerpání počtu URL pro doménu, které je robot ochoten indexovat. Každá doména má určitý limit daný třeba Rankem, nebo jiným indikátorem "popularity". Robot prostě nerad indexuje stránky, které nikdo nikdy hledat nebude.
No a ještě se zmíním o jednom úskalí a to je online duplicita. Seznam například při výdeji odstraňuje z výsledku stránky, které jsou duplicitní. K posouzení duplicity se používá 64-bitový HASH, který se vyhodnocuje po částech. Pokud se mu ve výsledku sejdou stránky, které podle HASHe mohou být do určité míry duplicitní, ta stránka s nižší relevancí z výsledku vypadne. |