dwa rdzenie

0

Mam pytanie: w jaki sposób można wymusić na aplikacji używanie pełnej mocy obliczeniowej procesora (w moim przypadku dwóch rdzeni)??

0

O ile pamiętam, to żeby aplikacja w ogóle mogła wykorzystywać wiele rdzeni, musi być napisana wielowątkowo lub wieloprocesowo. Tzn. system operacyjny nie rozdziela pojedynczego wątku na wiele rdzeni. Poza tym system operacyjny może przydzielić różnym wątkom różne rdzenie, ale nie musi.

Co to za aplikacja?

Pozdrowienia,
Michał, Proidea Software

0

Właśnie w tym problem, że aplikacja jest typowo jedno rdzeniowa.
Czy ostnieje swego rodzaju emulator(nie wiem jak innaczej to nazwać) który mógłby oszukać tą aplikację.

0

znaczy to nie jest twoja aplikacja a chciałbyś ją przyspieszyć dając jej możliwość korzystania z obu rdzeni ?
chyba niemożliwe :/

0

Niemożliwe. AMD pracowało swego czasu nad czymś takim jak ty myślisz (coś w rodzaju odwrotności HyperThreadingu), ale na razie nie ma żadnych efektów w sprzedaży. Jedyne co możesz zrobić to przepisać aplikację na wsparcie wielowątkowości.

0
Ktos napisał(a)

Jedyne co możesz zrobić to przepisać aplikację na wsparcie wielowątkowości.

to nie takie proste, nie wszystko da sie i jest sens zrownoleglic :P

0

Myślałem nad czymś takim ale chyba nie możliwe jest napisanie czegoś takiego:
Są różne wirtualne urządzenia(drukarki, napędy), gdyby tak napisać wirtualny procesor, który swoją moc obliczeniową czerpałby z prawdziwego procesora, a wtedy wystarczyłoby w menadżerze zadań przestawić aplikację na ten procesor. Ale ta "wizja" nadaję się chyba na sci-fi.

0

to by podchodziło pod emulator a emulator z zasady działania nie może być szybszy od procesora w którym pracuje nawet gdyby podwoić jego wydajność

0

Wiem, że 100% nie da się osiągnąć, trudno. Ale zawsze lepsze te 80-90%(zależy ile pamięci zżerałby "emulator") niż 50%

0

nie jestem pewien ale słyszałem że Vistolec coś takiego sam z siebie robi

0
cepa napisał(a)

to nie takie proste, nie wszystko da sie ...

http://pl.wikipedia.org/wiki/Prawo_Gustafsona

cepa napisał(a)

i jest sens zrownoleglic :P

To juz inna sprawa ;)

Swoja droga przeciez procesory obecnie wykorzystuja potoki do wykonywania programow , wydawac by sie moglo ze mozna czesc po prostu wywalic na inny procesor, ale pewnie inzynierowie z intela i amd z jakiegos powodu wykluczyli taka mozliwosc ;)

0
Potwoor_ napisał(a)

nie jestem pewien ale słyszałem że Vistolec coś takiego sam z siebie robi

Jeśli to jakaś żaluzja do Visty, to nie zauważyłem tego typu efektów. Jak coś chodzi w jednym wątku, to zajmuje jeden rdzeń.

0

sorry że OT ale dopiero teraz się skapnąłem że te kropy w avatarze pedrosa zmieniają położenie i że to zegarek ;D

a i żart z vistolcem żałosny strasznie

0

<ort>Niewyobrażam </ort>sobie możliwości przetworzenia aplikacji jedno na wielowątkową - praktycznie trzeba byłoby wszędzie wbić semafory, co chwilę jeden wątek musiałby czekać na drugi. Zarządzanie tymi operacjami zeżarłoby z dużą nawiązką korzyść pracy na dwóch rdzeniach. Nie wspominam tu nawet o trudnościach logicznych, jak miałaby taka translacja wyglądać... Kompletny nonsens.

0

no czyli po prostu sie musisz pogodzić z aktualną szybkością
ewentualnie przerzucić ten jeden wątek na drugi rdzeń jako jedyny i dać mu najwyższy priorytet

a taka ciekawostka że ja mam jeden rdzeń i program do konwersji filmu normalnie i tak zżera 100% procka, a po daniu mu priorytetu "realtime" konwertuje film 20 min szybciej (i tak nie da sie w tym czasie nic innego robić tylko mycha zaczyna troche skakać ale i tak mi sie to wydaje dziwne :-O )

0
patman napisał(a)

Niewyobrażam sobie możliwości przetworzenia aplikacji jedno na wielowątkową - praktycznie trzeba byłoby wszędzie wbić semafory, co chwilę jeden wątek musiałby czekać na drugi. Zarządzanie tymi operacjami zeżarłoby z dużą nawiązką korzyść pracy na dwóch rdzeniach. Nie wspominam tu nawet o trudnościach logicznych, jak miałaby taka translacja wyglądać... Kompletny nonsens.

Brednie... Wystarczy przerobic najbardziej czasochlonne algorytmy na wielowatkowosc. Polecam http://www.threadingbuildingblocks.org/

1 użytkowników online, w tym zalogowanych: 0, gości: 1