ZTCW to SRAM jest zawsze w jednym kawałku krzemu, a produkcja dużych układów jest droga. W dużych CPU pamięć podręczna zajmuje zwykle sporą część powierzchni procesora. Wybierając CPU o dużej powierzchni zwykle dostajemy dużą ilość SRAMu. Np Intel® Xeon® Processor E5-2699 v4 ma 55 MiB cache. Xbox One ma 32 MiB eSRAM.
Z drugiej strony jest jeszcze coś takiego jak eDRAM, czyli wbudowany DRAM, co daje możliwości przyspieszenia jego działania. Jest używany w wielu miejscach (https://en.wikipedia.org/wiki/EDRAM), a między innymi jako pamięć podręczna trzeciego poziomu w procesorach IBM POWER 7 i późniejszych. Widocznie wbudowanie DRAM w procesor sprawia, że jest na tyle szybki, by jego zwiększona pojemność przydała się bardziej niż większa szybkość SRAMu.
Kości pamięci zbudowane z SRAMu prawdopodobnie nie miałyby dużego sensu, bo komunikacja między procesorem, a kościami pamięci trochę zajmuje - żądania danych muszą przejść przez pamięci podręczne każdego poziomu, później przez kontroler pamięci, polecieć po płycie do kości, a potem zostać w samej kości pamięci obsłużone. Im większa ilość kości pamięci tym kosztowniejsze jest trasowanie żądań o dane. SRAM zajmuje 3x więcej miejsca niż DRAM, więc zysk z szybkości dostępu w obrębie jednej kości byłby częściowo niwelowany przez kosztowniejsze trasowanie.
Zamiast bawić się w SRAM poza procesorem przemysł idzie w kierunku stosów pamięci DRAM umieszczonych jak najbliżej jednostek obliczeniowych, np https://en.wikipedia.org/wiki/High_Bandwidth_Memory . Umieszczanie pamięci maksymalnie blisko redukuje opóźnienia i pozwala na zwiększenie szerokości szyny danych, bo ta jest prowadzona na znacznie mniejszej długości.