AI a problemy w fizyce

1

Tak między jedną herbatką a drugą naszła mnie pewna myśl.

Zakładając że obecnie w fizyce modus operandi to budowanie teoretycznych modeli i testowanie ich empirycznie bez zgłębiania się co te modele faktycznie znaczą (mogę się mylić).
To jeśli udałoby nam się wytrenować sieć neuronową która dla różnych danych wejściowych konsekwentnie dostarcza lepszych wyników (bardziej zgodnych z empirią) niż pozwala nam na to obecny stan wiedzy to:

  • moglibyśmy stwierdzić że nasze rozumienie świata nas otaczającego jest pełniejsze
  • doszło do rozwoju naukowego

?

4

To co napisałeś nie ma sensu.

To jeśli udałoby nam się wytrenować sieć neuronową która dla różnych danych wejściowych konsekwentnie dostarcza lepszych wyników (bardziej zgodnych z empirią) niż pozwala nam na to obecny stan wiedzy to:

Trenować sieć możesz jedynie na podstawie istniejących danych, więc nie da się tak zrobić, żeby sieć była dokładniejsza niż dane którymi ją uczyłeś.

0

Chodzi ci o algorytmy genetyczne

2
loza_wykletych napisał(a):

To jeśli udałoby nam się wytrenować sieć neuronową która dla różnych danych wejściowych konsekwentnie dostarcza lepszych wyników (bardziej zgodnych z empirią) niż pozwala nam na to obecny stan wiedzy to:

  • moglibyśmy stwierdzić że nasze rozumienie świata nas otaczającego jest pełniejsze
  • doszło do rozwoju naukowego

Niby jak to miałoby działać?

Fizyka powstała po to, żeby móc przewidywać pewne zjawiska. Tzn. wiemy, że jeśli włożymy piłkę o objętości V i ciężarze Q do wody to jesteśmy w stanie wyliczyć, czy piłka zanurzy się całkowicie czy nie.

Takie teoretyczne modele powstają w dwojaki sposób:

  • albo ktoś tworzy sobie równanie i potem sprawdza, czy pasuje do rzeczywistości. Czyli najpierw zakłada, że Q = g x ro x V i potem wrzuca różne piłki żeby sprawdzić, czy mu się to zgodzi.
  • albo ktoś robi pomiary i na ich podstawie tworzy model. Czyli najpierw wrzuca piłkę, potem obserwuje i wybiega nago krzycząc "EUREKA" by w końcu zapisać równanie.

W obu przypadkach sieć neuronowa nie nadaje się jako zamiennik pomiarów z prostej przyczyny - nigdy przewidywania sieci nie będą bardziej prawdziwe od poprawnie przeprowadzonych pomiarów.

Natomiast jest jeszcze kwestia symulacji. Mając jakiś dobrze opisany model, np. sieć krystaliczną, można patrzeć co się stanie gdy zaaplikujemy jakieś dodatkowe warunki. Tutaj sieci neuronowe mogą się przydać, przy czym nie mogą one w całości zastąpić modelu.

3

W matematyce stosuje się już od dawna zautomatyzowane systemy dowodzenia (słynnym przykładem było zastosowanie komputerów w celu dowiedzenia twierdzenia o czterech barwach), aczkolwiek wciąż wymagana jest ingerencja człowieka, który "wybiera" odpowiednie podstawienia. Szybkie googlanie "authomatic theorem proving neural network" daje nieco wyników, więc jak widać istnieją pewne kroki w tym kierunku.

W fizyce tak się nie da, bo fizyka nie jest aksjomatyzowalna. W szczególności nie możemy zacząć od prostych aksjomatów jak w teorii mnogości Zermela-Fraenkla, ponieważ (zakładając ich istnienie) ich nie znamy - nie mamy póki co na razie nawet spójnej teorii uwzględniającej tak grawitację jak i pozostałe oddziaływania. Z tego względu matematyka stosowana w fizyce jest daleko mniej sformalizowana, więcej jest tu "machania rękami" przy dowodach miast ścisłego rygoru, ponieważ na końcu i tak chodzi o to, żeby otrzymać teorię, która jest zgodna z doświadczeniem. Niektórych wzorów nawet się nie wyprowadzało, lecz się je zgadywało (np. Dirac zgadł po prostu format swojego równania), a są akceptowane ponieważ dają poprawne wyniki. Ciekawe ujmuje to Feynman w tym fragmencie wykładu:

0

Mamy takich sieci neuronowych kilka miliardów i tak fizyka wciąż znajduje fenomeny, które działają wbrew naszej intuicji. Na przykład każdy zdrowy psychicznie człowiek powie, że położenie to punkt. X, Y, Z. A tacy fizycy kwantowi twierdzą inaczej.

0

Chyba gdzieś czytałem, że teoria względności została wyprowadzona z wzorów matematycznych, a dopiero ileś tam lat później dowiedziona eksperymentalnie. Czy to prawda? Jeśli tak to sztuczna inteligencja mogłaby robić podobne rzeczy.

0
Shalom napisał(a):

To co napisałeś nie ma sensu.
Trenować sieć możesz jedynie na podstawie istniejących danych, więc nie da się tak zrobić, żeby sieć była dokładniejsza niż dane którymi ją uczyłeś.

Gdyby było inaczej to by oznaczało że metafizyka jest realna a empiryzm ograniczony. A tego chyba nie chcemy?

0
wartek01 napisał(a):

W obu przypadkach sieć neuronowa nie nadaje się jako zamiennik pomiarów z prostej przyczyny - nigdy przewidywania sieci nie będą bardziej prawdziwe od poprawnie przeprowadzonych pomiarów.

Nigdzie nie piszę że sieć neuronowa jest zamiennikiem pomiarów. Stawiam inne pytanie - czy model sieci neuronowej który przetrwa próbę testowania empirycznego lepiej niż kontrmodel matematyczny (który np. dla pewnych wartości wejściowych wpada w dzielenie przez zero albo zwraca wyniki nieskończone lub też zwraca wyniki empirycznie błędne) sprawia że nasze rozumienie rzeczywistości polepszyło się czy też nie.

0
Wibowit napisał(a):

Chyba gdzieś czytałem, że teoria względności została wyprowadzona z wzorów matematycznych, a dopiero ileś tam lat później dowiedziona eksperymentalnie. Czy to prawda? Jeśli tak to sztuczna inteligencja mogłaby robić podobne rzeczy.

Z czegoś, co obecnie znamy pod nazwą transformacji Lorentz'a zaskakująco wyszło, że zmierzona długość odcinka będzie różniła się w zależności od tego czy punkt pomiaru jest w ruchu czy nie. Dodatkowo wyszło, że do opisu położenia ciała w przestrzeni względem nieruchomego obserwatora potrzebny jest wektor [Kt, x, y, z], a nie [t, x, y, z].

Wtedy nikt nie miał pojęcia czym jest K, sporo osób nad tym się głowiło (bo nie było za bardzo jak tego zmierzyć). Przez dłuższy czas proponowano różne rozwiązania problemu tej stałej, dopiero Einstein wpadł na to, że jest to prędkość światła w próźni.

1
loza_wykletych napisał(a):

Nigdzie nie piszę że sieć neuronowa jest zamiennikiem pomiarów. Stawiam inne pytanie - czy model sieci neuronowej który przetrwa próbę testowania empirycznego lepiej niż kontrmodel matematyczny (który np. dla pewnych wartości wejściowych wpada w dzielenie przez zero albo zwraca wyniki nieskończone lub też zwraca wyniki empirycznie błędne) sprawia że nasze rozumienie rzeczywistości polepszyło się czy też nie.

Odpowiedź brzmi "nie" z trzech powodów:

  • model jest opisem rzeczywistości, sieć neuronowa to po prostu przetworzone w jakiś sposób dane.
  • sieć neuronowa będzie zawsze obciążona rzeczywistością, tj. błędem pomiarowym pochodzącym z danych empirycznych i niedoskonałością badanych obiektów
  • dodatkowo jest jeszcze odwrotność - chaos deterministyczny i niedeterministyczny to fakt, więc sieci neuronowe będą głupieć gdy spróbujesz takimi chaotycznymi danymi nakarmić sieć
0

Tu jest coś na podobnej zasadzie, tylko sieci neuronowe uczyły się z wyników symulacji a nie pomiarów z rzeczywistości.

A co do rozumienia przez ludzi w podobnej sytuacji, a właściwe nawet znacznie dalej posuniętej, to przypomniało mi się krótkie opowiadanko Teda Chianga.
https://www.nature.com/articles/35014679

0
wartek01 napisał(a):

Odpowiedź brzmi "nie" z trzech powodów:

  • model jest opisem rzeczywistości, sieć neuronowa to po prostu przetworzone w jakiś sposób dane.

Czym się różnią wagi poszczególnych komórek sieci od zastosowanych transformacji matematycznych poza ich użytecznością (i ewentualnie dostępnością dla ludzkiego poznania)?

  • sieć neuronowa będzie zawsze obciążona rzeczywistością, tj. błędem pomiarowym pochodzącym z danych empirycznych i niedoskonałością badanych obiektów

Wszystko jest tym obciążone. Przynajmniej w tej rzeczywistości. Nawet równiania matematyczne są niczym jeśli nie zaczniesz na nich kalkulować. A błąd kalkulacji jest wpisany w fizyczny obiekt który je przeprowadza.

  • dodatkowo jest jeszcze odwrotność - chaos deterministyczny i niedeterministyczny to fakt, więc sieci neuronowe będą głupieć gdy spróbujesz takimi chaotycznymi danymi nakarmić sieć

Od tego mamy feedback zwrotny w postaci checku zgodności wyników z rzeczywistością. Może w nauce się coś zmieniło ostatnio ale jak pojawiają wyniki niezgodne z modelem matematycznym to albo się go poprawia albo zawęża jego stosowanie - w ostateczności trafia do kosza.

1
loza_wykletych napisał(a):

Czym się różnią wagi poszczególnych komórek sieci od zastosowanych transformacji matematycznych poza ich użytecznością (i ewentualnie dostępnością dla ludzkiego poznania)?

Nie do końca rozumiem.
Pytasz się, czym się różni model matematyczny wymyślony przez matematyka od maszyny wyrzucającej wyniki?

Różnica jest taka, że mając model matematyczny możesz go podstawić do wzoru i korzystać z dalszych przekształceń. Zbiór wyników - niezależnie od tego jak gęsty by on nie był - tego ci nie da.

Wszystko jest tym obciążone. Przynajmniej w tej rzeczywistości. Nawet równiania matematyczne są niczym jeśli nie zaczniesz na nich kalkulować. A błąd kalkulacji jest wpisany w fizyczny obiekt który je przeprowadza.

Modele nie są obciążone błędem pomiarowym, pomiary są. "Równania matematyczne" - będące de facto tworami algebraicznymi - są dużo bardziej ogólne. Przykładowo mając zapis:
v = f(t) = a*t - gdzie "a" jest stałe to jesteś w stanie bardzo łatwo przeliczyć całkę po tym i będzie ona zależała od wartości początkowej oraz końcowej.
Teraz mając zbiór wektorów [v(n), t(n)], z których każda para jest obarczona błędem pomiarowym to przy próbie przeliczenia numerycznego takiej całki błąd zacznie bardzo szybko rosnąć.

Od tego mamy feedback zwrotny w postaci checku zgodności wyników z rzeczywistością.

To nie ma żadnego znaczenia tutaj. Wzory fizyczne wpadają w chaos tylko przy próbie pomiarów, natomiast sieć neuronowa - jako stworzona na podstawie pomiarów - zawsze będzie wpadać.

Rozważmy układ, który zachowuje się zgodnie z równaniem logistycznym, tj.

X(0) = 0.5
X(n) = r*X(n-1) * (1 - X(n-1))

Pomiarowo wyglądałoby by to tak, że:

  • możesz wyzerować układ
  • zmienić wartość parametru r do dowolnej wartości z pewną dokładnością
  • ruszyć krok dalej (wylicza się n+1)

Naturalnie żeby nauczyć sieć neuronową trzeba by zrobić tak:

  1. Wyzerować układ
  2. Ustawić r
  3. Zmierzyć X(1), potem X(2) ... i tak aż do jakiejś dużej wartości N
  4. Potem powtarzać kroki 1-3 aż do momentu, gdy uznamy sieć za nauczoną.

I tutaj jest zonk. Mając wyżej wspomniany model bardzo łatwo jest przeliczyć, jak układ zachowa się dla r = 1. Natomiast zmierzenie tego jest już bardzo trudne, bo wystarczy, że r będzie większe od 1 o nieskończenie małą wartość (a pamiętaj, że masz skończoną dokładność pomiaru r) i układ zachowa się skrajnie inaczej.
Możesz zbudować dużo takich układów i mierzyć je - to wtedy dostaniesz, że dla części pomiarów dla r = 1 wyjdzie scenariusz pierwszy (bo zamiast r = 1 tak naprawdę ustawisz r = 0,9999999999999997), a dla części drugi (bo zamiast r = 1 ustawisz r = 1,00000000000000000000000002).

I którym danym dasz wiarę? A mając wspomniany model:
a) jesteś w stanie wytłumaczyć, dlaczego układ zachowuje się różnie przy pomiarach
b) jesteś łatwo w stanie przeliczyć jak zachowa się dla 1

I tak, takie układy są dosyć powszechne w fizyce.

0
wartek01 napisał(a):

Nie do końca rozumiem.
Pytasz się, czym się różni model matematyczny wymyślony przez matematyka od maszyny wyrzucającej wyniki?

Pytam się czym się różni model w opisie matematycznym od modelu opisanego poprzez wagi na poszczególnych neuronach wyuczonej sieci które dają powiedzmy wyniki sprawdzalne empirycznie z 99% zakresem ufności.

Jedna ważna uwaga - nie mówię o obecnym stanie rozwoju w sieciach neuronowych i skuteczności ich uczenia - tylko w kontekście ogólnej zasady działania.

Jeden i drugi model pozostają tylko notacją dopóki nie podstawisz wartości, przekalkulujesz i skonfrontujesz wyniki z empirią. Z tym że jeden jest zapisany w notacji przystępnej dla naszego umysłu - to fakt.

Różnica jest taka, że mając model matematyczny możesz go podstawić do wzoru i korzystać z dalszych przekształceń. Zbiór wyników - niezależnie od tego jak gęsty by on nie był - tego ci nie da.

Dalsze przekształcenia będą g**no warte jeśli kolejne dane przestaną się pokrywać z ich przewidywaniami. No chyba że zakładasz że to model jest rzeczywistością a wyniki odbiegające błędem pomiaru.

Modele nie są obciążone błędem pomiarowym, pomiary są. "Równania matematyczne" - będące de facto tworami algebraicznymi - są dużo bardziej ogólne. Przykładowo mając zapis:
v = f(t) = a*t - gdzie "a" jest stałe to jesteś w stanie bardzo łatwo przeliczyć całkę po tym i będzie ona zależała od wartości początkowej oraz końcowej.

Ja nie sugeruję że modele matematyczne są obciążone błędem pomiaru. Co najwyżej mogą być obciążone błędem kalkulacji. Dopóki nie znajdziesz dla nich zastosowania w danych empirycznych to pozostają tam gdzie zostały stworzone - w dziedzinie matematyki.

I którym danym dasz wiarę? A mając wspomniany model:
a) jesteś w stanie wytłumaczyć, dlaczego układ zachowuje się różnie przy pomiarach
b) jesteś łatwo w stanie przeliczyć jak zachowa się dla 1

I tak, takie układy są dosyć powszechne w fizyce.

Czyli wartość tego modelu jest większa ponieważ dla jednego konkretnego przypadku zwraca przewidywalną wartość a dla pozostałych działa jak funkcja haszująca i dane empiryczne (zebrane do tej pory) zachowują się podobnie. Powiedziałbym że to trochę działa jak numerologia.

W zasadzie całość można podsumować tak:

  • modele matematyczne są w tej chwili lepsze i zwiększają naszą wiedzę ponieważ są zapisane w notacji zrozumiałej dla nas i dającej dzięki możliwość przewidywania innych czysto hipotetycznych zjawisk które można sprawdzić w przyszłości
  • modele oparte o sieć neuronalną nie dają żadnego wglądu poza tym że zwracają prawidłowe wyniki
0

modele oparte o sieć neuronalną nie dają żadnego wglądu poza tym że zwracają prawidłowe wyniki

Tylko że nie dają. Komputer ma skończoną precyzje i pomiary też maja skończoną precyzje. A błędy precyzji lubią się kumulować, jak ktoś juz wyżej wspominał.

0
loza_wykletych napisał(a):
wartek01 napisał(a):

Pytam się czym się różni model w opisie matematycznym od modelu opisanego poprzez wagi na poszczególnych neuronach wyuczonej sieci które dają powiedzmy wyniki sprawdzalne empirycznie z 99% zakresem ufności.

No to jeszcze raz - mając model matematyczny, tj. np.
a = dv/dt
jesteś w stanie łatwo przeliczyć, że skoro F = ma to F = mv/t.

Znając ten model i mając przebieg F(t) oraz znając m jesteś w stanie łatwo wyznaczyć, jak zmieniała się prędkość danego ciała. Takie coś możesz podstawić do kolejnego modelu, i do kolejnego, i do kolejnego itp. itd.

Jedna ważna uwaga - nie mówię o obecnym stanie rozwoju w sieciach neuronowych i skuteczności ich uczenia - tylko w kontekście ogólnej zasady działania.

Ja też.

Jeden i drugi model pozostają tylko notacją dopóki nie podstawisz wartości, przekalkulujesz i skonfrontujesz wyniki z empirią. Z tym że jeden jest zapisany w notacji przystępnej dla naszego umysłu - to fakt.

Nie.

Podstawą każdej sieci neuronowej są pomiary empiryczne więc nie ma potrzeby nic "konfrontować".

Dalsze przekształcenia będą g**no warte jeśli kolejne dane przestaną się pokrywać z ich przewidywaniami. No chyba że zakładasz że to model jest rzeczywistością a wyniki odbiegające błędem pomiaru.

Podpowiem ci coś: przy każdym eksperymencie empirycznym istnieje coś takiego jak "błąd pomiaru" i każda hipoteza jest testowana z pewnym prawdopodobieństwem. Różnica jest taka, że model matematyczny powstaje bez udziału błędu pomiaru, sieci neuronowe powstają z ich udziałem.

Powiem jeszcze coś więcej: prawo fizyki jest czymś bardzo "słabym". Tzn. dowolne prawo fizyki może zostać podważone jeśli tylko znajdziesz lepszy sposób opisu.

Przykładowo - stwierdzenie, że Słońce się kręci wokół Ziemi jest prawdą. Tak samo jak to, że Ziemia kręci się wokół Słońca. To jedynie kwestia tego, gdzie ci wygodniej postawić obserwatora.

Dopóki nie znajdziesz dla nich zastosowania w danych empirycznych to pozostają tam gdzie zostały stworzone - w dziedzinie matematyki.

Tak, ale na podstawie właśnie przewidywań teoretycznych wiadomo, gdzie szukać. Wspomniana przeze mnie transformacja Lorentza - przekształcenie stricte matematyczne - doprowadziło do tego, że Einstein opracował teorię względności (któr

Czyli wartość tego modelu jest większa ponieważ dla jednego konkretnego przypadku zwraca przewidywalną wartość a dla pozostałych działa jak funkcja haszująca i dane empiryczne (zebrane do tej pory) zachowują się podobnie. Powiedziałbym że to trochę działa jak numerologia.

Wartość tego modelu jest większa ponieważ pozwala na przewidywanie co się stanie. I jeśli to dla ciebie "numerologia" to tak, to jest numerologia.

W zasadzie całość można podsumować tak:

Nie można tego tak podsumować.

  • modele matematyczne są w tej chwili lepsze i zwiększają naszą wiedzę ponieważ są zapisane w notacji zrozumiałej dla nas i dającej dzięki możliwość przewidywania innych czysto hipotetycznych zjawisk które można sprawdzić w przyszłości

Modele matematycznie nie są "w tej chwili lepsze" bo tutaj nie ma czegoś takiego jak "lepsze" czy "gorsze". Kwestia jest taka, że nie możesz zastąpić modeli matematycznych sieciami neuronowymi bo są to rzeczy, które służą do innych rzeczy.

  • modele oparte o sieć neuronalną nie dają żadnego wglądu poza tym że zwracają prawidłowe wyniki

Tłumaczyłem ci już, że istnieją zachowania chaotyczne gdzie z powodu błędów pomiarowych sieć neuronowa nie będzie w stanie zwrócić ci prawidłowego wyniku.

0
wartek01 napisał(a):

Znając ten model i mając przebieg F(t) oraz znając m jesteś w stanie łatwo wyznaczyć, jak zmieniała się prędkość danego ciała. Takie coś możesz podstawić do kolejnego modelu, i do kolejnego, i do kolejnego itp. itd.

Owszem - tylko co to ma wspólnego z rzeczywistością?

Jeden i drugi model pozostają tylko notacją dopóki nie podstawisz wartości, przekalkulujesz i skonfrontujesz wyniki z empirią. Z tym że jeden jest zapisany w notacji przystępnej dla naszego umysłu - to fakt.

Nie.

Więc jakim cudem istnieją już w rzeczywistości sieci neuronowe które tworzą modele na podstawie samych tylko obserwacji?

Podstawą każdej sieci neuronowej są pomiary empiryczne więc nie ma potrzeby nic "konfrontować".

Jak wyżej.

Dalsze przekształcenia będą g**no warte jeśli kolejne dane przestaną się pokrywać z ich przewidywaniami. No chyba że zakładasz że to model jest rzeczywistością a wyniki odbiegające błędem pomiaru.

Podpowiem ci coś: przy każdym eksperymencie empirycznym istnieje coś takiego jak "błąd pomiaru" i każda hipoteza jest testowana z pewnym prawdopodobieństwem. Różnica jest taka, że model matematyczny powstaje bez udziału błędu pomiaru, sieci neuronowe powstają z ich udziałem.

Jak wyżej.

Powiem jeszcze coś więcej: prawo fizyki jest czymś bardzo "słabym". Tzn. dowolne prawo fizyki może zostać podważone jeśli tylko znajdziesz lepszy sposób opisu.

Przykładowo - stwierdzenie, że Słońce się kręci wokół Ziemi jest prawdą. Tak samo jak to, że Ziemia kręci się wokół Słońca. To jedynie kwestia tego, gdzie ci wygodniej postawić obserwatora.

Więc oba stwierdzenia mają zerową wartość poznawczą z punktu widzenia opisu rzeczywistości.

Dopóki nie znajdziesz dla nich zastosowania w danych empirycznych to pozostają tam gdzie zostały stworzone - w dziedzinie matematyki.

Tak, ale na podstawie właśnie przewidywań teoretycznych wiadomo, gdzie szukać. Wspomniana przeze mnie transformacja Lorentza - przekształcenie stricte matematyczne - doprowadziło do tego, że Einstein opracował teorię względności (któr

Czyli wartość tego modelu jest większa ponieważ dla jednego konkretnego przypadku zwraca przewidywalną wartość a dla pozostałych działa jak funkcja haszująca i dane empiryczne (zebrane do tej pory) zachowują się podobnie. Powiedziałbym że to trochę działa jak numerologia.

Wartość tego modelu jest większa ponieważ pozwala na przewidywanie co się stanie. I jeśli to dla ciebie "numerologia" to tak, to jest numerologia.

Powiedzmy tak. Szansa trafienie szóstki rzucając kostkę to 1/6. Jeśli trafiłem 1000 razy pod rząd szóstkę to znaczy że model opisujący szansę trafienia jest błędny czy nie jest błędny ale tylko dlatego że znam liczbę ścianek sześciościennej kostki?

W zasadzie całość można podsumować tak:

Nie można tego tak podsumować.

  • modele matematyczne są w tej chwili lepsze i zwiększają naszą wiedzę ponieważ są zapisane w notacji zrozumiałej dla nas i dającej dzięki możliwość przewidywania innych czysto hipotetycznych zjawisk które można sprawdzić w przyszłości

Modele matematycznie nie są "w tej chwili lepsze" bo tutaj nie ma czegoś takiego jak "lepsze" czy "gorsze". Kwestia jest taka, że nie możesz zastąpić modeli matematycznych sieciami neuronowymi bo są to rzeczy, które służą do innych rzeczy.

Do czego służą w takim razie modele matematyczne a do czego służą sieci neuronowe. Weź pod uwagę że obecnie sieci neuronowe bazując na danych empirycznych tworząc modele matematyczne i konfrontują je z kolejnymi obserwacjami :)

  • modele oparte o sieć neuronalną nie dają żadnego wglądu poza tym że zwracają prawidłowe wyniki

Tłumaczyłem ci już, że istnieją zachowania chaotyczne gdzie z powodu błędów pomiarowych sieć neuronowa nie będzie w stanie zwrócić ci prawidłowego wyniku.

Jaka jest zatem wartość poznawcza modelu matematycznego przy opisie zjawiska gdzie nie możesz przewidzieć ewolucji układu ani w przód ani w tył z powodu jego inherentnej chaotyczności?

1 użytkowników online, w tym zalogowanych: 0, gości: 1