"Perceptron – najprostsza sieć neuronowa, składająca się z jednego bądź wielu niezależnych neuronów McCullocha-Pittsa, implementująca algorytm uczenia nadzorowanego klasyfikatorów binarnych. "
Poniżej jeden neuron Mccullocha-Pittsa:
title
Taki rysunek to tylko jakaś tam wizualizacja, nie ma czegoś takiego że wagi są w neuronie albo nie są w neuronie, bo takie coś jak neuron w ogóle nie istnieje
, to tylko sposób przedstawiania funkcji matematycznych na rysunku ( to tak btw). Najpierw masz funkcję liniową, tak jak w modelu regresji liniowej czy liceum tzn. y=w1x1+w2x2+w3x3+........wnxn gdzie n to liczba zmiennych w Twoim modelu, a potem ta liniowa funkcja jest przepuszczana przez funkcje aktywacji. W przypadku perceptrona to jest funkcja, która zwraca 1 jeśli y>0 i 0 jeśli y<0. Jakbyś zamienił tą funkcje aktywacji na funkcje sigmoid albo tanh, to wtedy już by nie był perceptron.
Pojedyńczy neuron składa się z funkcji sumacji ( liniowej :y=w1x1+w2x2+w3x3+........), która jest oznaczona na poniższym rysunku znakiem sumy i z funkcji aktywacji f(y) ( Mcculloch - Pitts, sigmoid, tanh itp.). Wagi to jest to co znajduje się na dendrytach wchodządzych do neurona.
Poniżej sieć z dwom warstwami ukrytymi (czyli łącznie 4 warstwy), która jest perceptronem ponieważ wszystkie neurony w warstwach ukrytych to neurony Mccullocha -Pittsa. W artykule w sumie to jest dość dokładnie wytłumaczone.
title