Artificial General Intelligence

0

Troszkę luźno i offtopic ;) Czy jest taka szansa, że algorytmy AGI (Artificial General Intelligence) będą podejmować decyzje na poziomie intelektualnym człowieka? Kiedy to nastąpi? Jaki poziom osiągną za 5-10 lat?

4

możliwe że są tacy głupi ludzie

0

Polecam podcast:

Tam wałkuja takie tematy.

4

Naturalna głupota zawsze pokona sztuczną inteligencje!

0

Strzelam, że nigdy. Tj. sztuczna inteligencja będzie w stanie podejmować decyzje na jakimś wąskim poletku i to pewnie lepiej niż niejeden człowiek, natomiast nigdy nie uda nam się zbudować AI, która tak jak człowiek będzie potrafiła się adaptować do sytuacji których nigdy przedtem nie doświadczyła.

Jeśli chodzi o rozwój AI to wszystko dopiero przed nami. W tej chwili uczymy maszyny tylko i wyłącznie rozpoznawać wzorce i wybierać działania na podstawie wzorców ("czerwone" -> "zatrzymaj się", "zielone" -> "jedź"). AI długo nie wpadnie na to, że kiedy skrzyżowanie jest puste, a w samochodzie siedzi rodząca kobieta (ewentualnie goni nas typ z siekierą) to powinno ruszyć z piskiem opon.

Natomiast bardziej skomplikowane reguły typu "jeśli jakiś samochód jedzie szlaczkiem, a droga jest w całkiem dobrym stanie to lepiej zachować większy odstęp" jak najbardziej będą dostępne.

0
Jan943 napisał(a):

Troszkę luźno i offtopic ;) Czy jest taka szansa, że algorytmy AGI (Artificial General Intelligence) będą podejmować decyzje na poziomie intelektualnym człowieka?

To byłaby porażka AI. Przecież większość ludzi nie umie podejmować decyzji w racjonalny sposób.

Więc taka AI musiałaby być mądrzejsza od człowieka, żeby to miało sens.

Z drugiej strony jak będzie za mądra, to jest ryzyko, że będzie podejmować decyzje budzące wątpliwości etyczne. Jest taki dylemat wagonika:
https://pl.wikipedia.org/wiki/Dylemat_wagonika

1

Sztuczna inteligencja już dawno jest w stanie dorównać człowiekowi w pewnych dziedzinach. Analiza dużych zbiorów danych, obliczenia matematyczne, wnioskowane. Problem leży w tym, że obecnie to z czym mamy kontakt, albo o czym słychać nie jest w stanie wystarczająco elastycznie przestawić się z jednej dziedziny na drugą. Czyli mózg niektórych ludzi jest w stanie wykorzystać wyuczoną wiedzę o świecie, do wywnioskowania brakującej informacji, postawić hipotezę i ją udowodnić, albo obalić., jednocześnie wykorzystując informacje płynące ze zmysłów i przekazać je do efektorów, co ostatecznie przełoży się na nie wpakowanie nosa w ścianę ciemnej piwnicy.

Jako ludzie mamy tendencję do myślenia o sobie jako jedynej formie inteligencji, mierzenia jej sposobami dostosowanymi do naszych możliwości i uważamy, że jesteśmy "lepsi" bo nasze mózgi w 10% przypadków robią coś lepiej niż maszyna. Trochę na zasadzie doceniania etykietki "hand made" na jakimś szrocie z cepelii, bo zrobiła go ręka ludzka, a nie maszyna.

0

Czytałem, że niedawno opracowano jakąś nową technologię tworzenia memistorów, które rozmiarem mogą być porównywalne z pojedynczym tranzystorem na krzemie.
Jak to wejdzie do produkcji to będzie to milowy krok w rozwoju akceleratorów AI. Właściwie nawet nie akceleratorów... Technologia pozwoli zbliżyć się do stworzenia sztucznego neuronu.
Czyli już nie obliczanie sum ważonych ani sumowanie sygnałów elektrycznych za pomocą programowalnych "wzmacniaczy operacyjnych", a faktyczny malutki element półprzewodnikowy, którego wejścia programujemy a ten natychmiast bez żadnych opóźnień daje na wyjściu "wynik".
Myślę, że kwestia 5-10 lat jak zaczną produkować układy AI, które mają takich neuronów po miliard w 1000 warstw albo coś w tym stylu...

To nie ten artykuł, który czytałem ale trochę o tym tutaj jest: https://memristor.ai/

0

Wygląda jak "neuron" analogowego perceptronu (tego opartego na przekaźnikach i automatycznie sterowanych potencjometrach. Dobra wiadomość, bo jak do tej pory wzrost mocy obliczeniowej przekładał się skokowo na wzrost możliwości AI.

1 użytkowników online, w tym zalogowanych: 0, gości: 1