Kui andmeid on nii palju, et need on vaja jagada erinevate andmebaasi serverite vahele, siis on oluline, et kuidas andmeid tükeldada. See on keeruline probleem, millele on palju erinevaid lahendusi. Kuid levinud lähenemine on tükeldada andmete ning jagada tükid selliselt, et ühte serverisse paigutatakse mitu sellist tükki. Ja huvitav küsimus on, et miks tavaliselt tükeldatakse andmeid oluliselt rohkemateks osadeks, kui serverite arv? Võiks tunduda loogiline, et andmeosade arv on võrdne serverite arvuga, kuid tegelikult on see väga ebapraktiline.
Vastusele ilmselt ei mõelda väga tihti, kuid see on väga huvitav ja see on seotud andmete rebalansseerimisega. Nimelt kui muutub serverite arv - mõni läheb katki või lihtsalt lisatakse ja eemaldatakse, siis tuleb andmed serverite vahel uuesti võrdselt ümber jagada. Sellist ümberjaotamist on vaja selleks, et kõik serverid saaksid ligikaudu sama suure koormuse andmete lugemisel ja kirjutamisel. Vastasel korral ei aitaks näiteks serverite lisamine vähendada koormust olemasolevatele serveritele. Andmete ümberjagamisel on aga väga oluline, et see toimuks võimalikult kiiresti, et vähendada andmete sünkroniseerimise probleeme. Mis omakorda tähendab, et mida vähemate andmete indekseid (andmete asukohta) on vaja muuta, seda kiiremini saab andmed ümber jagada. Seega võimaldab suur andmeosadeks jaotamine lihtalt nihutada mõned sellised olemasolevad tükid teise serverisse, ilma et oleks vaja kõigi andmete indekseid uuendada.