Mam pytanie jak wymnożyć w OpenGL dwie macierze np A[nxn]*B[nxn] gdzie n to np 1000?
Jak zadeklarowac takie macierze dla OpenGL? Chodzi o to by pokazac ze standardowa jednostka CPU nie jest tak wydajna jak GPU. (Wiem ze istnieje cos takiego ja Cg dla Nvidia ale jeszcze sie tego języka nie nauczyłem :| ). Bede mierzył czas za pomocą

GetTickCount

i pokazywał ze np wymnożenie za pomocą OpenGL trwa tyle a za pomocą CPU tyle.

Nikt nie wie jak to zrobic??