OK, takze se popere, ja jen, ze se tu kdysi daaavno resilo, ze mysql proste od urciteho mnozstvi zaznamu uz ma problemy.
Teoretockej matematickej aparat jsem jaksi uz pozapomel nebo ani vsechen neznal, ale b-stromy mi jeste neco rikaj... :c]
Takze budu potrebovat hlavne asi dost pameti aby se toho co nejvice delo v ni a rychlej procesor, kloudne to vse natunit, mozna i o filesystemu pouvazovat nejakym rychlym a spolehlivym s nejakym i specifickym nastavenim.
Spojovat se spolu bude na strane bezneho uzivatele nejcasteji tabulka o cca 100tis. zaznamech s tabulkamam kolem 10-100 zaznamy, jedinou vyjimkou bude, kdyz se bude spojovat tabulka s 100tis.zaznamy s tou tabulkou o 1mil. zaznamu, ale tam bude predem filtrace ty milonovy tak na 100 zazamu, coz mysql asi udela prvne.
Problemy ocekavam pri nejakem hromadnem meneni dat, kdy ty vsechny indexy budou doindexovavat jako splaseny... kterezto me ceka temer denne a to v rozsahu aktualizace az vsech zaznamu v tom milionu, casto se tyka i nekterych indexovanych poli ktera se budou tim padem preindexovavat.
Pri aktualizaci se soucasne budou muset spojovat proti sobe bez filtrace cca 100tis zaznamu proti tomu milionu.
No a pak cekam problemy u cachovani nekterych dat, kdy se v cely ty milionovy tabulce budou pocitat pres indexovany polozky...
Pribyvat a ubyvat by zaznamy mely v pomeru k ostatnim problemum minimalne...
zajimalo by me, jaky HW naroky bych na to mel mit, pokud treba nekdo mate zkusenost s necim podobnym... ty aktualizace a podobne by bylo vhodny, kdyby zvladaly behat tak v radu minut, tedy aby clovek kliknul v browseru a dal si trochu kafe, podrbal se, podival na jinej web a bylo to... |