mgła - FSD - autopilot - dobra widoczność

t3sla4sun

Zadomawiam się
No zaraz ale przecież z tego co się orientuję to każda matryca posiada filtr wycinający właśnie pasmo podczerwieni, żeby obraz był naturalny, wystarczy ten filtr wyłączyć i mamy kamerę na podczerwień (tak też robią domowe kamer IP). Więc myślę że kamery w Tesli po prostu "widzą" w szerszym spektrum i pan Elon może co do szczegółów mija się z prawdą.

> się orientuję to każda matryca posiada filtr wycinający właśnie pasmo podczerwieni,
Ciekawe! Zupełnie o tym zapomniałem, ale masz rację.
 

t3sla4sun

Zadomawiam się
Obecnie mają 60 klatek na sekundę z każdej kamerki.
Pracują właśnie nad wyłączeniem tych image kernels. Żeby trenować sieci na RAW strumieniu.
Dodatkowo celują w to żeby sieci poradziły sobie obrazu z obrazem 360°C.
Polecam posłuchać co opowiada gościowi który sam pracował w MIT nad computer vision/ autonomous driving.
Masz jakiś link do wywiadu? ;)
 

Michal

Moderator

t3sla4sun

Zadomawiam się
Obok tych analogowych cech obrazu spektrum światła, polaryzacja, filtry i optyka soczewek... jest ta cyfrowa magia operacji na tensorach.
Nim takie rzeczywiste obrazy polecą na sieć neuronową, to na początku są obrabiane algorytmami konwolucyjnymi, by wyostrzyć, obrysować, ulepszyć taki obraz do dalszej obróbki.
Na stronce poniżej jest fajnie i przystępnie pokazany proces takiego ulepszania danych wejściowych - https://setosa.io/ev/image-kernels/

Potem kluczowa jest liczba klatek na sekundę przetwarzanych przy obróbce cyfrowej.
Nie wiem dokładnie z jaką częstotliwością HW3.0 analizuje obraz (już podrasowany) - coś gdzieś mi sie obiło że ok. 2 tys obrazów /sekundę - ale jest tego bardzo dużo, by już z całą pewnością FSD odróżniło "punkt" linii od "punktu" mgły/deszczu/śniegu.
Spoko info o tych "Image kernelach" - kiedyś coś takiego na studiach robiliśmy w sumie. Ale chłopaki to muszą na prawdziwym organizmie ogarniać ;)
 

Michał spod Krakowa

Pionier e-mobilności
Obraz jaki widzi Tesla zawiera znacznie więcej informacji, niż filmy, jakie generuje dla użytkownika - prawdopodobnie to wystarczające wyjaśnienie, dlaczego radzi sobie tak dobrze.

Filtry polaryzujące znacznie zmniejszają ilość światła docierającego do sensora, więc poza szczególnymi sytuacjami raczej nie są używane na stałe.
 

ELuk

Pionier e-mobilności
Patrząc na to jak najnowsze flagowe smartfony radzą sobie ze zdjęciami/filmami to myślę, że obróbka i analiza komputerowa obrazu przez Teslę potrafi wiele danych wyciągnąć.
 

domingo

Fachowiec
Jakie macie doświadczenia z autopilotem we mgle/deszczu/śniegu etc.... ?
Może to i było przed grudniową aktualizacją, ale ja nie miałem najlepszych doświadczeń. W jeździe autostradowej, masa wody na drodze i sporym ruchu unosi się wręcz chmura wody dookoła samochodów. Autopilot się pogniewał i dał sygnał, że zbója widzi w tych kamerach i nie będzie autopilota, ani nawet zwykłego tempomatu. Wydaje mi się, że jakby był radar, a nie kamery, to nie byłoby problemu. W tradycyjnych markach, mogłem sobie włączyć tempomat bez utrzymania pasa ruchu i/lub odstępu od poprzedzającego pojazdu (we mgle to nawet się nie bałem jechać 140, bo wierzyłem że radar dostanie odbitą wiązkę od samochodu z przodu i mi zwolni). W Tesli albo autopilot albo wcale - smuteczek.
 

Michal

Moderator
Niestety z tym radarem to też byś narzekał, bo co jakiś czas pod jakimiś wiaduktami auto hamowało by Ci bez powodu... Tak źle i tak niedobrze.
 
Top