Hej wiem że temat był już poruszony ale... Jestem w trakcie pisania programu który uruchomiony wraz z innymi miałby za zadanie zkillować inne i pozostać sam uruchomionym - przetrwać . Przy okazji trochę sobie nad tym "dumam" i tak sobie myślę - pomijając nasz cały biologiczny rozwój może jesteśmy inteligentni bo mamy cel - właśnie przetrwać i się powielić . Może zamiast rozwijać kolejne boty uczące się i analizujące język może trzeba zacząć od czegoś mniejszego. Np. od "nadania celu" programowi . Co o tym myślicie .Chętnie bym pogadał z kimś kto pisze soft antywirusowy , szczególnie w akresie mechanizmów uczących się określonych zachować samych programów . Pozdrawiam
Luźne skojarzenie: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
Zacznij czytać od I wrote a little story
Pantofelek i gąbki mają ma taki sam cel a do bystrzaków nie zależą.
to chyba się nazywa programowanie ewolucyjne, średnio efektywne w programowaniu ale naukowcy to robią żeby lepiej zrozumieć ewolucję (która nie jest tematem trywialnym). aa tylko jeden filozoficzny szczegół. jest kilka metod budowy sztucznej inteligencji i ta daje bardzo duże ryzyko na powstanie "sky net" i dnia sądu ;)
Programy antywirusowe często stosują taktykę odpalania aplikacji czy ich części w wirtualnej maszynie żeby zobaczyć czy nie zachowują się podejrzanie
Antywirusy opierają się na heurystyce, co mają niby mieć wspólnego z sztuczną inteligencją?
Mam dylemat.
Czy stwierdzenie, że "Sztuczna inteligencja jest overrated, ponieważ algorytm będzie się zachowywał tak jak kazał mu programista, czyli przykładowo jeżeli program ma za zadanie: "wybieraj tylko korzystne decyzję", to będą wybierane tylko i wyłącznie korzyści, natomiast człowiek ma możliwość wyjścia poza schemat programisty i podjąć decyzję niekorzystną"
ma prawo bytu?
Moim zdaniem nie do końca. Mamy przecież Machine Learning które niejako samo ustala algorytm wedle wytycznych uczenia. Często dając dość zaskakujace wyniki na które człowiek w ogóle by nie wpadł. Mamy przecież np. uczenie ze wzmocnieniem gdzie ustalamy jedynie "cel" i możliwe "ruchy" a algorytm postępowania jest "wymyślany" przez komputer tak żeby cel osiagnąć. Taki algorytm jak najbardziej może podejmować decyzje lokalnie niekorzystne jeśli tylko prowadzą finalnie do osiagnięcia celu. Zresztą podobnie jest z każdym nie-zachłannym algorytmem optymalizacji globalnej.