Wydajność CPU vs GPU

0

Hey, zamierzam niebawem zgłębiać tematykę technologii CUDA i wykorzystania karty graficznej do obliczeń matematycznych (np. optymalizowanie funkcji etc.).
Zastanawiam się jednak jak wygląda porównanie GPU w odniesieniu do CPU?
Fakty:

  1. karta graficzna posiada znacznie więcej procesorów (zdaje się, że może być ich koło 100) - mówię o kartach domowego przeznaczenia ofc. natomiast procesor ma obecnie zazwyczaj 4 procesory (rdzenie);
  2. taktowanie procesorów GPU wynosi około 1 GH natomiast CPU 3.5 GH

Zastanawiam się jednak jak jest z wydajnością procesorów GPU - czy są podobnie wydajne? Zdaje się, że CPU może wykonywać wiele operacji w jednym cyklu a jak jest z GPU? Czy różnica między CPU a GPU pod względem wydajności nie biorąc pod uwagę taktowania jest znacząca? Na czyją korzyść?
Zastanawiam się również czy sam dostęp do pamięci na karcie graficznej jest porównywalnie szybki co RAM? Jak wygląda porównanie pamięci GPU (DDR5) z RAM DDR3?

4

W podobnej cenie, GPU mają z reguły dużo wyższą wydajność w obliczeniach zmiennoprzecinkowych pojedynczej precyzji niż CPU. Z wydajnością zmiennoprzecinkową podwójnej precyzji jest z reguły cienko, bo niedrogie GPU mają sztucznie przyciętą wydajność na double'ach, a nawet te droższe GPU i tak mają wydajność na double'ach dużo niższą niż na float'ach - różnica jest dużo większa niż na typowych CPU.

Co do przepustowości RAM to możesz to łatwo policzyć. Konsumencie CPU korzystają zwykle z dwóch 64-bitowych kanałów DDR3. GPU różnie, taki Radeon R9 290X ma szynę 512-bitową i to na GDDR5 (nie DDR5, bo DDR5 jeszcze nie ma, a między DDRx a GDDRx różnica jest zasadnicza). GeForce GTX 770 ma szynę 256-bitową na GDDR5.

Różnica między rdzeniami CPU a rdzeniami GPU jest taka, że te rdzenie GPU są w rzeczywistości praktycznie odpowiednikami pojedynczych potoków w CPU czy konkretnych podrejestrów w SIMDowych instrukcjach. Ciężko to w prostych słowach wytłumaczyć. Sprawa jest jednak taka, że jeśli CPU jest reklamowany jako X rdzeniowy, to może jednocześnie przetwarzać X wątków jednocześnie i mogą to być zupełnie różne wątki. GPU z X rdzeniami musi jednak przetwarzać wątki w dość dużych grupach, gdzie w danej grupie wątki przetwarzają dokładnie tę samą instrukcję, ale dla różnych zestawów rejestrów. Gdybyś chciał odpalić wiele niezależnych wątków to efektywnie ilość rdzeni zmniejszyłaby się kilkanaście bądź kilkadziesiąt razy osiągając wydajność niższą niż CPU za te same pieniądze.

0

Dziękuję Ci bardzo @Wibowit za rzetelną wypowiedź.
Mam jeszcze prośbę, czy mógłbyś wyjaśnić co miałeś na myśli w poniższym zdaniu?

Wibowit napisał(a):

GPU z X rdzeniami musi jednak przetwarzać wątki w dość dużych grupach, gdzie w danej grupie wątki przetwarzają dokładnie tę samą instrukcję, ale dla różnych zestawów rejestrów.

Co to znaczy przetwarzać wątki w dość dużych grupach?
I co to znaczy, że wątki przetważają te sąmą instrukcję? Czy chodzi Ci o to, że jak jeden wątek dodaje to drugi nie może mnożyć w tym samym czasie? - musi mieć dokładnie zadane to samo zadanie do obliczeń?
Innymi słowy nie mogę na połowie rdzeni optymalizować jednej funkcji a na kolejnych wątkach innej funkcji, bo instrukcje będą wyglądały inaczej?

0

W dużym uproszczeniu można przyjąć, że te grupy rdzeni w GPU są jak jednostki wektorowe w CPU. Np masz instrukcję PMULcośtam, która przyjmuje dwa rejestry np typu 8x32-bitowa liczba i zwraca wynik w kolejnym rejestrze tego typu. W GPU miałbyś reklamowane 8 rdzeni dla takiego schematu.

Zapoznaj się z http://en.wikipedia.org/wiki/SIMD

Programowanie GPGPU jest mocno zależne od architektury GPU, które się ciągle dość dynamicznie zmieniają. Mój ostatni GeForce to był GeForce FX 5200, więc nie jestem na czasie z GeForce'ami :P Może po prostu poczytaj jakiś oficjalny tutorial i odpal przykłady? nVidia powinna mieć dobrą dokumentację.

1 użytkowników online, w tym zalogowanych: 0, gości: 1