czesc
sluchajcie, zrobilem siec neuronowa i mam z nia male problemy.
ciezko mi znalezc blad, bo nie jestem pewien kilku rzeczy:
siec jest wielowarstwowa:
56 wejsc > 3 neurony > 2 neurony > 1 neuron.
na wyjsciu ma byc 0 lub 1 wiec funkcje aktywacji dalem sigmoidalna unipolarna.
generalnie jest tak, ze:
na wyjsciach pierwszej warstwy mam liczby z zakresu 0..1 (czyli chyba tak jak powinno byc).
ale juz na wyjsciach 2 warstwy dostaje liczby z zakresu 0,5...0,73
a na wyjsciu ostatniej warstwy liczby z zakresu 0,67..0,78.
to wszystko jeszcze przed procesem uczenia.
z tego co rozumiem, to na wyjsciu kazdej warstwy powinny byc liczby z zakresu 0..1? :/
najgorsze jest to, ze nie wiem czym to jest spowodowane.
funkcje aktywacji sa takie same dla wszystkich neuronow, wagi poczatkowe tez sa losowane w ten sam sposob...
f(x)=1/(1+exp(-x) );
wagi poczatkowe losowane z zakresu 0,1..1
jestem na 90% pewny, ze wszystko jest dobrze zrobione, wedlug algorytmu z tej strony:
http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html (czytelnie ktrok po kroku, bez miliona nieczytelnych wzorow ;] )
dla pewnosci konsultowalem to jeszcze z wykladowca...
jakies pomysly? :/