Sztuczna inteligencja raz jeszcze

0

Hej wiem że temat był już poruszony ale... Jestem w trakcie pisania programu który uruchomiony wraz z innymi miałby za zadanie zkillować inne i pozostać sam uruchomionym - przetrwać . Przy okazji trochę sobie nad tym "dumam" i tak sobie myślę - pomijając nasz cały biologiczny rozwój może jesteśmy inteligentni bo mamy cel - właśnie przetrwać i się powielić . Może zamiast rozwijać kolejne boty uczące się i analizujące język może trzeba zacząć od czegoś mniejszego. Np. od "nadania celu" programowi . Co o tym myślicie .Chętnie bym pogadał z kimś kto pisze soft antywirusowy , szczególnie w akresie mechanizmów uczących się określonych zachować samych programów . Pozdrawiam

1

Luźne skojarzenie: http://waitbutwhy.com/2015/01[...]ntelligence-revolution-2.html
Zacznij czytać od I wrote a little story

0

Pantofelek i gąbki mają ma taki sam cel a do bystrzaków nie zależą.

0

to chyba się nazywa programowanie ewolucyjne, średnio efektywne w programowaniu ale naukowcy to robią żeby lepiej zrozumieć ewolucję (która nie jest tematem trywialnym). aa tylko jeden filozoficzny szczegół. jest kilka metod budowy sztucznej inteligencji i ta daje bardzo duże ryzyko na powstanie "sky net" i dnia sądu ;)

Programy antywirusowe często stosują taktykę odpalania aplikacji czy ich części w wirtualnej maszynie żeby zobaczyć czy nie zachowują się podejrzanie

0

Antywirusy opierają się na heurystyce, co mają niby mieć wspólnego z sztuczną inteligencją?

0

Mam dylemat.

Czy stwierdzenie, że "Sztuczna inteligencja jest overrated, ponieważ algorytm będzie się zachowywał tak jak kazał mu programista, czyli przykładowo jeżeli program ma za zadanie: "wybieraj tylko korzystne decyzję", to będą wybierane tylko i wyłącznie korzyści, natomiast człowiek ma możliwość wyjścia poza schemat programisty i podjąć decyzję niekorzystną"

ma prawo bytu?

1

Moim zdaniem nie do końca. Mamy przecież Machine Learning które niejako samo ustala algorytm wedle wytycznych uczenia. Często dając dość zaskakujace wyniki na które człowiek w ogóle by nie wpadł. Mamy przecież np. uczenie ze wzmocnieniem gdzie ustalamy jedynie "cel" i możliwe "ruchy" a algorytm postępowania jest "wymyślany" przez komputer tak żeby cel osiagnąć. Taki algorytm jak najbardziej może podejmować decyzje lokalnie niekorzystne jeśli tylko prowadzą finalnie do osiagnięcia celu. Zresztą podobnie jest z każdym nie-zachłannym algorytmem optymalizacji globalnej.

1 użytkowników online, w tym zalogowanych: 0, gości: 1, botów: 0