Witam!
Zastanawiam się co jest optymalniej wykorzystać, typ double czy int?
Wiem, że ciężko porównać ale:
W moich algorytmach występuje obróbka danych, spokojnie może być to int, ale nie wszystko da się przewidzieć i nie wiadomo czy będzie potrzebny double/float.
Jeśli procesory teraz przeważnie są 64bitowe to nie powinno mieć znaczenia czy jest to int czy double dla obciążenia procesora, prawda?
Procesory mają wbudowane instrukcje bezpośrednich operacji na liczbach zmiennoprzecinkowych?
Aktualnie wszystko mam na "double" i zaczynam optymalizować algorytmy, zastanawia mnie czy przerobienie na int'y coś przyspieszy obróbkę...