GPU nvidii do Machine Learningu?

1

Plz polećcie dobre GPU nvidii do 2000 z przeznaczeniem do machine learningu

1

2070. Nikt ci nic innego raczej nie poleci.

1

Do jakiegokolwiek modern deep learningu minimum to bedzie 1080ti albo rtx 2080 (podobno tensorflow 2.0 smiga juz na amd ale na amdkach sie nie znam wiec nic nie polece)

0

a co sądzicie o 2060s, dużo gorsze od 2070?

1

Według tabelki RTX 2060 Super to praktycznie to samo co RTX 2070: https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units#GeForce_20_series

0

Jakiego typu minusy ma zakup tańszej karty (np. 2070 zamiast 2080):

  1. wszystko będzie działać, ale część rzeczy będzie działać wolniej,
    czy może
  2. pewne modele w ogóle nie ruszą (mimo workaroundow)
    ?
1

Nie znam się na programach do uczenia maszynowego, ale karty GeForce RTX 20x0 różnią się przede wszystkim liczbą elementów obliczeniowych i ilością pamięci. Liczba elementów obliczeniowych wpływa na wydajność, ale raczej nie blokuje uruchamiania (no chyba, że coś tam wymaga obliczeń na żywo bez opóźnień i tylko odpowiednio silne karty sobie radzą). Ilość pamięci już prędzej może być problemem. RTX 2060 ma 6 GiB VRAMu, RTX 2060 Super aż do RTX 2080 Super mają 8 GiB VRAMu. RTX 2080 Ti ma 11 GiB pamięci. Myślę, że najrozsądniejszą opcją jest wybranie RTX 2060 Super - to najtańsza karta z Tensor cores mająca 8 GiB VRAMu.

1

Rozważ https://cloud.google.com/tpu/
Może osiągniesz swoje cele bez zawalania mieszkania krzemem.
Może wyjść nawet taniej, wszystko zależy od tego ile tego trenowania.

W wersji próbnej masz 300 $ do wydania.
Jak Ci się skończy użyj wersji Preemptible wtedy o połowę taniej.

1
Michał Kuliński napisał(a):

Rozważ https://cloud.google.com/tpu/
Może osiągniesz swoje cele bez zawalania mieszkania krzemem.
Może wyjść nawet taniej, wszystko zależy od tego ile tego trenowania.

W wersji próbnej masz 300 $ do wydania.
Jak Ci się skończy użyj wersji Preemptible wtedy o połowę taniej.

Tworzenie modeli na TPU rozni sie od GPU i nie da sie testowac tych modeli lokalnie (ogolnie nic nie przetestujesz za free bo colab tpu nie dziala na nowym tensorflow)

@Edit -> od paru dni TPU juz dziala na colabie wiec cofam to co mowilem :P

0

Pytanie skierowanie głównie do @szweszwe i @Patryk27 . Odpowiedzieć może każdy.
Chodzi o dyskusję z komentarzy kilka postów wyżej:

@szweszwe: 2070. rozpoczyna w markdownie listę numerowaną, mającą nieco odmienne formatowanie od standardowego tekstu, która rozjeżdża się przy zbyt dużych liczbach

Nie wiedziałem o co chodzi. Mam zasadę, by o techniczne rzeczy pytać na forum w ostateczności, więc sprawdziłem w googlach wszystkie kombinacji z poniższych:
"gpu" "markdown"
"gpu" "numbered list"
"nlp" "markdown"
"nlp" "numbered list"
"deep learning" "markdown"
"deep learning" "numbered list"
Dla każdego zapytania sprawdziłem wszystkie rezultaty z pierwszej strony.
Niestety nie znalazłem nic, co wiązałoby listę numerowaną w markdownie z gpu computingiem.

Mógłby ktoś z Was powiedzieć o co chodzi?

0

Chodzi o to, że jak wklepiesz:

1. coś tam
1. coś innego
1. blah blah

to dostaniesz:

  1. coś tam
  2. coś innego
  3. blah blah

Spróbuj sobie.

0

Najpierw wypadałoby zadać pytanie na jak dużych zbiorach danych chcesz operować. Bo może nie ma sensu kupować kart z serii 20xx, a starczy np. 16xx. Różnica w cenie spora.

0

komuher napisał:
Do jakiegokolwiek modern deep learningu minimum to bedzie 1080ti albo rtx 2080 (podobno tensorflow 2.0 smiga juz na amd ale na amdkach sie nie znam wiec nic nie polece)

Znalazłem coś takiego.
Wynika z tego, że 1080ti nie obsługuje FP16. Zatem jeśli ktoś "boi się o awaryjne sytuacje, gdzie trzeba będzie więcej VRAMu", to lepszym wyborem zdają się być 8-gigowe turingi, niż 11-gigowe 1080ti.

0

kupiłam rtx 2060 super zobaczymy jak się sprawdzi

1 użytkowników online, w tym zalogowanych: 0, gości: 1