Trenowanie siatki AI - szybkość ruchu na podstawie obrazu kamery

Odpowiedz Nowy wątek
2019-08-29 15:12
0

Czy Waszym zdaniem, a może przypadkiem jest tu ktoś, kto się tym bawi(ł), da się wytrenować siatkę sztucznej inteligencji aby na podstawie obrazu z kamery umieszczonej nad gruntem (nie zawierającym żadnych wystandaryzowanych znaczników czy miar odległości) potrafiła określać szybkość poruszania się pojazdu (w przedziale 0-30 km/h)?

A może nie potrzeba do tego AI, może gdzieś, ktoś już coś takiego zrobił? Niestety nie udało mi się znaleźć.

Będę wdzięczny.

Pozostało 580 znaków

2019-08-30 13:34
0

Zamiast przeglądać losowe przykłady z githuba wysyłane przez komuhera, których później się wypiera, przeglądnąłem kilka artykułów o mierzeniu prędkości. Tak jak pisałem zawsze pojawia się krok ze skalowaniem do miar ze świata rzeczywistego. Może być to cokolwiek, szerokość pasa ruchu, rozmiary samochodu, prędkość kamery itd

  • skalowanie przy założeniu, że większość pojazdów porusza się z maksymalną prędkością (w Polsce chyba by nie zadziałało)

    1. Calibrate center-pixel-distance/one-frame-duration between two consecutive frames to known speed limit of the road
      https://medium.com/datadriven[...]object-detection-efc0bb9a3c57
  • tutaj dane treningowe na podstawie zmierzonych prędkości GPS

    The data was created by equipping a car with static high-resolution colour and grayscale cameras and driving through streets of Karlsruhe, Germany. The ground truth was collected by using a Velodyne laser and
    29 GPS, where the speed of the vehicle is can be calculated to meters per second (m/s).
    https://esc.fnwi.uva.nl/thesis/centraal/files/f366183560.pdf

  • znowu kalibracja

    If you don't care about the accuracy of your calculations, you can approximate the velocity in terms of pixels/seconds.
    If you need more accurate result, the you need to calibrate your camera to determine its parameters such that you know the trajectory of your object and its movements from real world model to image model and define the final result in terms of m/s.
    https://www.researchgate.net/[...]_a_car_with_opencv_and_python

edytowany 1x, ostatnio: ralf, 2019-08-30 13:36
A źródło tego ostatniego cytatu? - Silv 2019-08-30 13:35
uzupełnione - ralf 2019-08-30 13:36
O, dziękuję. - Silv 2019-08-30 13:36

Pozostało 580 znaków

2019-08-30 14:12
1
ralf napisał(a):

Zamiast przeglądać losowe przykłady z githuba wysyłane przez komuhera, których później się wypiera, przeglądnąłem kilka artykułów o mierzeniu prędkości. Tak jak pisałem zawsze pojawia się krok ze skalowaniem do miar ze świata rzeczywistego. Może być to cokolwiek, szerokość pasa ruchu, rozmiary samochodu, prędkość kamery itd

Nie no masz racje reasearch w ktorym bralo udzial 20 topowych uniwersytow vs Hindus z medium oraz odpowiedzi sprzed 5 lat XD (pro tip ML wtedy raczkowal i to ledwo co)

I jedyny sensowny link jaki podeslales czyli jakis papier od razu mówi o tym ze algorytm nie korzysta z zadnych informacji dotyczacych miar odleglosci wpisanych na sztywno ani ustawien kamery tylko i wylacznie ze zdjec.

Our main contribution is that we directly learn velocity from images. No extra
calculations have to be performed to determine the velocity of the vehicle. Additionally,
we will learn velocity from the vehicle’s point of view (ego-vehicle speed). Traditional
optical flow approaches are static cameras that track movement in the image. The same
approach is used to track vehicles on the road. We place a camera on a vehicle and
use those images to learn velocity. This will cause each pixel in the image to move,
leaving our model to learn velocity when each pixel in the image has moved. Though
much research was conducted into measuring velocity, this has led to new sensors such
as accelerometers that can only measure velocity. With our approach, a camera can
be used to determine the velocity of the vehicle. The images can be used to determine
the velocity of the vehicle, but image analysis techniques can be used to determine the
environment of the vehicle and more. To our knowledge, there has been no research into
learning velocity from two consecutive images before.

I znowu mylisz pojecia -> algorytm vs dane treningowe co z tego ze zebrane dane sa z predkosci GPS'a to nie znaczy ze budujac algorytm musisz mu podawac dane z GPSa

5.2.1 Data set <-------
The data was created by equipping a car with static high-resolution colour and grayscale cameras and driving through streets of Karlsruhe, Germany. The ground truth was collected by using a Velodyne laser and
29 GPS, where the speed of the vehicle is can be calculated to meters per second (m/s).
https://esc.fnwi.uva.nl/thesis/centraal/files/f366183560.pdf

Dalej kolejny podpunkt

5.1 Experiment 1: Measuring Time
We will use TimeNet to predict the time that has passed between frames. The model
must learn what time looks like, by analysing the size of the displacement.
Given a stationary camera at the side of the road that records images at a fixed
frame rate (FPS) of a vehicle driving by at a fixed speed. Between frames f0 and f1,
the car will have moved over a certain distance. Since the distance to the vehicle and
the speed of the vehicle are fixed, the model will be able to learn how much time has
passed. If we keep the velocity of the vehicle the same, but increase the time between
f0 and f1, the vehicle will have travelled a larger distance. If TimeNet can learn the
relation between the magnitude of these displacements, it will have learned how much
time has passed between the frames.
The observed object will have to move at the same pace and distance across the receptive field of the camera. If the object moves closer or changes pace, the displacements
across the image will change. This will make it difficult for TimeNet to learn time from
image pairs

I kolejny

5.2 Experiment 2: Predicting Velocity
This experiment entails the core of our research; for the model to learn velocity. We will
use SpeedNet to do this. SpeedNet must learn that the magnitude of each displacement
can be different over the same time span and learn that this indicates speed. If the
model is successful to map the size of a displacement to a speed, the model has learned
what speed looks like.
Given a stationary camera mounted on a car that records images at a fixed FPS, the
camera will capture images while the car drives around. By looking at all moving parts
in the image, SpeedNet must determine how fast the car is driving. This is a different
problem to learning time, since each pixel in the image will move and there are no fixed
speeds. Additionally, there is other traffic, pedestrians and buildings that could make it
difficult for the model to generalise well. However, if the model is successful in building
an internal representation of each speed it will be able to predict speed.

I na koniec wyniki

Average error To gain insight into our models’ performance, we track their average
prediction error, which is displayed in Table 3. It is shown that SpeedNetSimple has
the smallest average prediction error over the entire test set, whereas LassoCorr has the
largest average prediction error. Between the Correlation and Simple models, the Simple
models outperform the Correlation models.
Model Average error
LassoCorr 3.75
LassoSimple 2.74
SpeedNetCorr 2.39
SpeedNetSimple 2.05
Table 3: Average error per measured velocity in m/s, per model.

Jest to papier powstajacy w roku 2016 wiec 3 lata temu dlatego ja podsylalem linki do rozwiazan sprzed roku ale to tez wystarczy,
Dziekuje do widzenia XD

Przytocze jeszcze tylko problem o ktorym jest dyskusja

Czy ... da się wytrenować siatkę sztucznej inteligencji aby na podstawie obrazu z kamery umieszczonej nad gruntem (nie zawierającym żadnych wystandaryzowanych znaczników czy miar odległości) potrafiła określać szybkość poruszania się pojazdu (w przedziale 0-30 km/h)?

edytowany 1x, ostatnio: komuher, 2019-08-30 14:33

Pozostało 580 znaków

2019-08-30 14:28
0

Nadal nie rozumiesz istoty problemu, metr i sekunda są wartością umowną. Ale dobrze dalej wierz w swoją magiczną AI :)

Pokaż pozostałe 14 komentarzy
Tak podesłałem, ten w którym są dane treningowe z prędkością z GPSa - ralf 2019-08-30 14:54
Właśnie brak wiedzy o NN ma znaczenie bo nie rozumiesz na jakiej zasadzie ww. sieć nauczyła się predykcji prędkości w m/s - machineko 2019-08-30 14:55
Przecież napisałem że programowałem sieć neuronową, co za wybiórcze czytanie? - ralf 2019-08-30 14:56
Wejściem do sieci nie są dane z prędkości GPS'a to jest label czyli to co będzie wyjściem z sieci mylisz pojęcia sieć nie ma pojęcia o czymś takim jak GPS ani o tym jak on mierzy prędkość. Wracam do pracy brb - machineko 2019-08-30 14:59
No tak, TYLKO label, czyli właśnie skala w jakiej prezentowane są wyniki. - ralf 2019-08-30 15:23

Pozostało 580 znaków

2019-08-30 14:51
2

TL:DR Wątku jak komuś nie chcę sie czytać miliona wiadomosci.

Czy Waszym zdaniem, a może przypadkiem jest tu ktoś, kto się tym bawi(ł), da się wytrenować siatkę sztucznej inteligencji aby na podstawie obrazu z kamery umieszczonej nad gruntem (nie zawierającym żadnych wystandaryzowanych znaczników czy miar odległości) potrafiła określać szybkość poruszania się pojazdu (w przedziale 0-30 km/h)?

Wedlug mnie sie da i na to wskazuje opracowanie naukowe podeslane m.in. przez ralf.
A chlopcy chyba nie rozumieją o co sie kłócą bo ja sam nie wiem o co chodzi w metrach ralf'a przeciez dyskusja odnosila sie do kalibracji kamery.

Teraz chodzi już tylko o wygranie wojenki. - PerlMonk 2019-08-30 14:59
Możliwe sam się dałem wciągnąć w dyskusje już :P - machineko 2019-08-30 15:00
Zostaw, niech się tłuką. :) - PerlMonk 2019-08-30 15:05
Pytanie jest czy da się 'wytrenować' bez żadnych innych pomocy na podstawie samego obrazu. We wspomnianym artykule do skalowania potrzebowali danych z przejazdów z GPSem - ralf 2019-08-30 15:28
Ale ja skopiowałem pytanie autora wpisu nie twoją interpretację, autor nic nie piszę o tym że chce trenować bez przykładów treningowych co jest niemożliwe ale o tym że na kamerze nigdzie nie będzie wystandaryzowanych miar odległości. Myślę że wystarczy zawołać autora wpisu i poczekać na jego odpowiedź. - machineko 2019-08-30 15:35

Pozostało 580 znaków

2019-08-30 18:53
0
InfoMan napisał(a):

Jeśli to drugie to pal licho grunt, analizujesz znacznik umieszczony na oponie: optycznie albo magnetycznie (jak w licznikach rowerowych) i dostajesz całkiem sensowne wyniki.

Niesty to drugie.
I niestety nie ma opony, Ani nawet koła. To urządzenie latające ::(

Z tego co pamiętam w starych samolotach robiono prędkościomierze mierzące prędkość przepływu powietrza. Rozwiązanie niestety niedokładne.

Inna możliwość to nawigacja bezwładnościowa:
https://pl.wikipedia.org/wiki/Nawigacja_inercyjna
rozwiązanie również niedokładne.

Zostaje jeszcze lidar i GPS.


I coś, czego jeszcze nie wymyślono. - Silv 2019-08-30 22:34

Pozostało 580 znaków

2019-09-07 16:00
0

" Pytanie jest czy da się 'wytrenować' bez żadnych innych pomocy na podstawie samego obrazu. We wspomnianym artykule do skalowania potrzebowali danych z przejazdów z GPSem - ralf 2019-08-30 15:28
Ale ja skopiowałem pytanie autora wpisu nie twoją interpretację, autor nic nie piszę o tym że chce trenować bez przykładów treningowych co jest niemożliwe ale o tym że na kamerze nigdzie nie będzie wystandaryzowanych miar odległości. Myślę że wystarczy zawołać autora wpisu i poczekać na jego odpowiedź. - machineko 2019-08-30 15:35 "

Autor pytania odpowiada ;)

  • Nie mam ograniczeń co do wcześniejszej kalibracji systemu czy uczenia AI w oparciu o wystandaryzowane miary. Definicja problemu: jak zmierzyć odległość i szybkość bez używania na trasie GPS, albo używając go tylko jako uzupełnienie gdyż w cywilnej wersji jest zbyt niedokładny.
    Nie wyobrażam sobie jak trenować bez wzorca, bo przecież w każdym przypadku musi być jakaś wartość, jakiś stały punkt odniesienia, do którego się porównujemy.

  • Pytanie jest raczej o to jak zestaw (kamera + AI) ma widzieć odległość. Dopuszczam nawet umieszczenie w polu widzenia kamery normalnej miarki np. 0,5 metra i mierzenie czasu w jakim dany obiekt (/chmura obiektów) widziany okiem kamery w kolejnych kadrach razem z miarką przesuwa się w dół. Pytanie tylko jak duży powinien być obszar widzenia kamery (i wystandaryzowanej miarki) aby przy szybkości rzędu 20 km/godz obiekt na gruncie (np. kamyk czy nierówność) był wystarczająco długo w polu jej widzenia.

Pozostało 580 znaków

2019-09-07 16:11
0

Geodeci używają sygnału odniesienia z pomocniczego źródła o znanej lokalizacji, co pozwala korygować błąd celowo dodawany do nieszyfrowanego sygnału odbiorników cywilnych.

A wiesz może czy istnieją, małe, mobilne rozwiązania,które są wyposażone w taką funkcjonalność? Albo może o ile większy jest taki moduł lokalizacji w stosunku do klasycznego modułu GPS?

Pozostało 580 znaków

2019-09-07 16:43
0
InfoMan napisał(a):

A wiesz może czy istnieją, małe, mobilne rozwiązania,które są wyposażone w taką funkcjonalność? Albo może o ile większy jest taki moduł lokalizacji w stosunku do klasycznego modułu GPS?

Nie znam się na tym, znam tylko ogólne teoretyczne podstawy:

https://pl.wikipedia.org/wiki/R%C3%B3%C5%BCnicowy_GPS

Szukaj odbiorników DGPS.


Dzięki :) - InfoMan 2019-09-09 09:33

Pozostało 580 znaków

Odpowiedz
Liczba odpowiedzi na stronę

1 użytkowników online, w tym zalogowanych: 0, gości: 1, botów: 0