Czy obecnie FSD jest wogóle możliwe...?

lvlthn

Pionier e-mobilności
Wczoraj stojąc bardzo długo w korku, używając AP miałem dość ciekawe spostrzeżenie.
I tak, wiem, że FSD z USA jest krok milowy lepszy niż to co mamy u siebie. Ale

AP w obecnej formie, ma bardzo duże opóźnienie, zarówno przy hamowaniu jak i przyspieszaniu(300-1000ms wartości przybliżone)
W tego typu systemach, jest tzw. pętla PID, coś na zasadzie algorytmu, który na podstawie odczytów sensorów(tutaj np. kamery) stara się tak dopasować parametry, np. hamulca, żeby auto nagle nie stanęło dęba albo zaczęło zbyt późno i delikatnie hamować albo ruszać z miejsca jak wielbłąd.

Opóźnienie jest dość duże, 300-1000ms(wartości przybliżone) zarówno przy przyspieszaniu jak i hamowaniu, użytkownicy FSD w USA też mają podobne wartości.
Nie mówię o momencie zarejestrowania zdarzenia przez algorytm, tylko czasie potrzebnym od zarejestrowania zdarzenia do przesłania danych do np. serwomotora i reakcji fizycznej tego urządzenia na zdarzenie.

Co prawda HW3 i HW4 jest wręcz dostosowany do analizy obrazu do jazdy autonomicznej, ale i tam pojawiają się opóźnienia(np. zbyt duża liczba analizowanych obiektów na raz, błędy strumienia i samego układu/algorytmu) Dodamy do tego pętle PID żeby płynniej auto się poruszało i jest klops.

Przy 100kmh 500-1000ms opóźnienia to 13-26 metrów. To 1/4 lub 1/2 drogi hamowania tesli.

Są to zbyt duże opóźnienia do bezpiecznej jazdy.
HW4 to potężna jednostka obliczeniowa, ale nadal zbyt słaba do pełnej, w czasie rzeczywistym analizy tylu źródeł bez opóźnień.
FSD 13+ ma wiele optymalizacji, ale też jest opóźnienie. Widać to na filmach z nową wersją FSD(HW3)

4:40 przekracza też ciągłą linię, nie potrafił wcześniej się włączyć na inny pas.
 

lvlthn

Pionier e-mobilności
I fakt, zmiany na przestrzeni miesiący są ogromne, ale nadal jest to wersja...alpha?

Mój punkt widzenia jest taki, że za żadne Chiny(no pun) EU nie dopuści tego systemu na nasze drogi...
Ja nawet bym taką betę potestował, znając ograniczenia.
Ale żaden ubezpieczyciel ani producent czegokolwiek związanego z automotive nie dopuści niedopracowanego systemu na nasze drogi.

USA może są bardziej liberalne w tym temacie, ale u nas są głupsze i surowsze zasady, więc na FSD w najbliższej przyszłości nie ma co liczyć.

Ew. rozszerzenie autopilota, ale żadne w pełni autonomiczne cuś.
 

Kapibar

Zadomawiam się
> Opóźnienie jest dość duże, 300-1000ms(wartości przybliżone) zarówno przy przyspieszaniu jak i hamowaniu, użytkownicy FSD w USA też mają podobne wartości.
Człowiek też potrzebuje znacznie więcej. Np według tego jest to od 1.5s do 2.5s: https://www.nsw.gov.au/driving-boat...and-rules/safe-driving/safe-stopping-distance


> W tego typu systemach, jest tzw. pętla PID, coś na zasadzie algorytmu, który na podstawie odczytów sensorów(tutaj np. kamery) stara się tak dopasować parametry, np. hamulca, żeby auto nagle nie stanęło dęba albo zaczęło zbyt późno i delikatnie hamować albo ruszać z miejsca jak wielbłąd.
Też to robimy jako ludzie. Jak mamy dobre wyczucie samochodu to już trochę mniej, ale zaprogramowanie tego, żeby samochód pamiętał parametry pętli PID swoich hamulców nie jest żadnym problemem.
 

zibizz1

Pionier e-mobilności
Opóźnienie nie stanowi problemu. Problemem jest rozmiar sieci neuronowej, albo mówiąc inaczej ograniczona przestrzeń poszukiwania programu który wystarczająco dobrze będzie jeździł autem.
HW4 nie osiągnie więcej niż level 4 (ograniczenie geograficzne, czyli FSD będzie działało na mniejszych obszarach gdzie model będzie mocniej wytrenowany pod ten maly obszar). Dlatego Tesla ciśnie AI5, plan byl podobno żeby zacząć produkować na koniec Q1 2025 więc jest duża szansa że znajdzie sie w nowym S/X.

W ostatnich 2 latach największy postęp FSD byl zawsze w momencie gdy zwiększano ilość parametrów w modelu.

O ile przejście z HW3 na HW4 to było 2x więcej pamięci(16GB) i z ~60% więcej mocy obliczeniowej to przy AI5 będzie minimum 500% więcej mocy obliczeniowej w porównaniu do HW4 i pewnie minimum 64GB pamięci(moje domysły) Podobno AI5 ma miec TDP na poziomie 800W (HW4 160W)

Ostatnie zwiększenie modelu mialo miejsce jakoś prawie rok temu. Od tamtej pory HW3 działa na mniejszej wersji tzn 100+ sieci neuronowych jest takich samych w HW3(v12) i HW4(v13) ale niektóre sa znacznie większe. Rozmiar modelu to w tej chwili 7.5GB dla HW4 oraz 2.3GB w HW3

Tesla cały czas rozbudowuje coraz szybciej swoją baze ucząca i prawdopodobnie znów mamy do czynienia z przetrenowaniem. Gdy wchodziło HW4 to HW3 było wykorzystywane w 25% a teraz mamy do czynienia z sytuacją że HW4 wykorzystywane jest w 100% także zaraz po wprowadzeniu AI5 znów zobaczymy znaczącą poprawę jakości FSD dzięki zwiększeniu ilość parametrów.

Kiedyś Intel tak wydawał procesory w okolicach 2010. Tic Toc, czyli w jednej wersji pracowano nad mikroarchitektura a w drugiej zmniejszano proces technologiczny. Podobnie mamy w FSD gdzie wydaje się że postęp zaczyna zwalniać gdy następuje przetrenowanie i potem widać duży boost po zwiększeniu modelu co uwalania ukryty potencjał.
 

lvlthn

Pionier e-mobilności
W ostatnich 2 latach największy postęp FSD byl zawsze w momencie gdy zwiększano ilość parametrów w modelu.

O ile przejście z HW3 na HW4 to było 2x więcej pamięci(16GB) i z ~60% więcej mocy obliczeniowej to przy AI5 będzie minimum 500% więcej mocy obliczeniowej w porównaniu do HW4 i pewnie minimum 64GB pamięci(moje domysły) Podobno AI5 ma miec TDP na poziomie 800W (HW4 160W)

Ostatnie zwiększenie modelu mialo miejsce jakoś prawie rok temu. Od tamtej pory HW3 działa na mniejszej wersji tzn 100+ sieci neuronowych jest takich samych w HW3(v12) i HW4(v13) ale niektóre sa znacznie większe. Rozmiar modelu to w tej chwili 7.5GB dla HW4 oraz 2.3GB w HW3

Tesla cały czas rozbudowuje coraz szybciej swoją baze ucząca i prawdopodobnie znów mamy do czynienia z przetrenowaniem. Gdy wchodziło HW4 to HW3 było wykorzystywane w 25% a teraz mamy do czynienia z sytuacją że HW4 wykorzystywane jest w 100% także zaraz po wprowadzeniu AI5 znów zobaczymy znaczącą poprawę jakości FSD dzięki zwiększeniu ilość parametrów.

Kiedyś Intel tak wydawał procesory w okolicach 2010. Tic Toc, czyli w jednej wersji pracowano nad mikroarchitektura a w drugiej zmniejszano proces technologiczny. Podobnie mamy w FSD gdzie wydaje się że postęp zaczyna zwalniać gdy następuje przetrenowanie i potem widać duży boost po zwiększeniu modelu co uwalania ukryty potencjał.
Bingo.

Nie chciałem tego wcześniej pisać, ale liczyłem, że dla 8 strumieni o 5MP każdy i analizie 20-30 obiektów na ekranie na sekundę, potrzeba mocy obliczeniowej około 20-50x większej niż obecna.
Samej pamięci jest obecnie bardzo mało.
 
Top