Mimochodem, jak jsem popsal níže, je zřejmé, proč si robot a výdej nevybírá podle domény, ale zcela náhodně. Ono to ani v různých fázích zpracování není možné. U výdeje rozhoduje relevance dotazu, která se odvozuje také podle ranku stránky. U duplicitního hledače se většinou jeden stránka po stránce, protože si vem, že může nastat situace, kdy dvě domény nemají zcela duplicitní obsah. Kterou pak upřednostnít. Prostě jsou s tím problémy, proto je lepší duplicitám zamezovat. Buď trvat na variantě: jeden obsah, jedna url, a zbytek vyhazovat 404, nebo používat redirecty, ty vyhledávač zpracuje o sto procent lépe
Mimochodem, problém duplicit není jen problém zrcadlených stránek 1:1. Vem si třeba různé blogy, kdy hlavná stránka obsahuje všechny články komplet a pak ještě existují podstránky z kopiemi těch článků. Kolikrát pak vyhledávač najde tu první stránku, která se velmi často mění, takže na zadaný dotaz už v době hledání nemusí být vůbec relevantní
(Můj návrh, jak tohle lze částečně řešit je zapsán v našem IS, ale zatím nebyl zapracován). |