Cześć, mam pytanie dot. istoty normalizacji w sieci Kohonena. Dla przypomnienia chodzi o takie przekształcenie wektora wejściowego, by suma kwadratów zmiennych wejściowych wynosiła 1 => czyli każdą zmienną wejściową trzeba podzielić przez pierwiastek z sumy kwadratów wszystkich zmiennych wejściowych (nie mylić z normalizacją występującą w sieciach typu MLP).
Chciałem się zapytać jaki jest cel tej normalizacji i czy ona przypadkiem nie "psuje" nam zmiennych?
Weźmy np. taki przykład: mamy 3 zmienne reprezentujące kolory: RGB -> pierwsza zmienna reprezentuje kolor czerwony, druga zielony a trzecia niebieski. Każda zmienna może przyjmować wartości od 0 do 255.
Bez normalizacji każda kombinacja będzie reprezentowała oddzielnych kolor a co za tym idzie pewną pozycję w przestrzeni 3D. Innymi słowy zmienne: R = 100, G = 100, B = 100 będzie całkowicie w innym miejscu w przestrzeni niż zmienne (wektor) R = 200, G = 200, B = 200.
Natomiast stosując normalizację wyjdzie nam, że obie zmienne będą reprezentowały tą samą pozycję w przestrzeni i obie będą wynosić R = 0,57735, G = 0,57735, B = 0,57735
A co za tym idzie centrum dla obu zmiennych będzie w tym samym miejscu. Tak więc neuron zwycięski dla koloru białego będzie również zwyciężcą dla koloru czarnego - chociaż z drugiej strony ciężko znormalizować zmienne, gdy R = 0, G = 0, B = 0, bo pierwiastek sumy ich kwadratów wynosi 0 więc próba normalizacji sprowadza się do działania 0/0 => ZONG ;/
Bardzo proszę o wyjaśnienie sensu normalizacji w sieci typu SOM (Kohonena) i przedstawionego wyżej opisanego problemu - za co z góry dziękuję!