Hej
Mam problem, mianowicie dostałem zadanie od Profesora z informatyki a dokładniej to Pan powiedział żebym zrobił przykład wykorzystania PCA w redukcji wymiarowości, po wysłaniu zadania z chatu gpt (poniewaz w ogóle nie wiem jak to zrobic) dostałem informacje żebym dodał nastepujące rzeczy;
co to jest PCA, po co sie to robi, co to są główne składowe, kiedy możemy zastosować tę metodę a kiedy tego zrobić się nie da.
Proszę o pomoc
Z góry dziekuje za odpowiedz.
Zapomniałem dodać, że ma być w formie notatki w jupyter
Ale czego dokładnie nie wiesz, czym jest PCA, czy jak użyc Jupytera w formie notatnika?
O jaką pomoc prosisz? Ja gotowiec to jest dział ogłoszenia drobne za $
A jaka to jest cena?
213.70 zł
Jak zobacze jak to wyglada to jestem w stanie zaplacic
PCA - principal component analysis.
Miałeś podstawy algebry liniowej?
W PCA chodzi o to, żeby znaleźć taką podprzestrzeń oryginalnej przestrzeni features, która wyjaśniałaby możliwie największą wariację oryginalnych danych.
pca_1 = pierwszy komponent - kierunek największej wariancji oryginalnych danych
pca_2 = drugi komponent - prostopadły do pca_1 i max. wyjaśniający pozostałą wariancję
pca_3 - prostopadły do _1, _2 , ...
itd.
Główne założenia:
- wartości feataerów są numeryczne, skoncentrowane wokół zera i tej samej skali (w jakiś sposób chcemy tę wariancję liczyć, a np. dla feature kolor, ciężko mówić o korelacji. Dlaczego wystarczy spojrzeć jak liczona jest wariancja i korelacja :-))
- PCA jest wrażliwe na "outliers", więc należy je usunąć przed szukaniem komponentów
Im mniej komponentów PCA, tym więcej informacji tracimy. Im więcej, tym więcej szumu łapiemy.
Nie robiłem samemu PCA, ale widziałem kiedyś filmiki na YT o tym od StatQuest (on w ogóle fajnie tłumaczy te fundamenty machine learning, pokazuje z rysunkami itp.), więc jak nie wiesz nic, to pewnie dobry start by był.