Kiedyś w programach, które odwoływały się do znacznej liczby małych plików, był zwyczaj dzielenia tych plików na katalogi/foldery po np. kilkadziesiąt elementów.
Np. wszystkie pliki na literę e w folderze \e, wszystkie zaczynające się na f w folderze \f itd. W każdym razie unikano sytuacji, w której w jednym folderze są tysiące plików.
Z poziomu eksploratora w Windows wielotysięczny katalog otwierał się zauważalnie dłużej. Podobno miało to wynikać z niedostatecznego cache dysku...
Czy dziś z jakichś powodów wydajnościowych warto jest dzielić katalogi z liczbą np. 10 tysięcy plików na mniejsze (np. 100 katalogów po 100 elementów)? Czy program, który odwołuje się do pojedynczego pliku znajdującego się w katalogu np. 100-elementowym będzie wydajniejszy od takiego, który ma 10 tysięcy elementów w jednym folderze?