Nowe kamery i HW4.0 od 2023

Michal

Moderator
Moim zdaniem to naprawdę niewiele zmieni, bo obraz używany w AP / FSD i tak jest pewnie rozdzielczości 64x64 pix albo 128x128, bo takie są standardy w temacie machine learning :p
 

Michał spod Krakowa

Pionier e-mobilności
Moim zdaniem to naprawdę niewiele zmieni, bo obraz używany w AP / FSD i tak jest pewnie rozdzielczości 64x64 pix albo 128x128, bo takie są standardy w temacie machine learning :p
Dla celów FSD Tesla nie korzysta z obróbki obrazu, więc nie ma też skalowania. Sieci budujące obraz otoczenia pracują na bazie nieobrobionego sygnału z kamer, co w Tesli malowniczo nazywają "liczeniem fotonów".

*Tak jest z FSD Beta w Ameryce, nie wiadomo ile modernizacji dotarło do Europy
 

daniel

Señor Meme Officer
Dla celów FSD Tesla nie korzysta z obróbki obrazu, więc nie ma też skalowania. Sieci budujące obraz otoczenia pracują na bazie nieobrobionego sygnału z kamer, co w Tesli malowniczo nazywają "liczeniem fotonów".

*Tak jest z FSD Beta w Ameryce, nie wiadomo ile modernizacji dotarło do Europy
Nie korzystają z wbudowanych w kamery filtrów do upiększania obrazów co nie znaczy, że w dalszej części nie skalują obrazu do mniejszej rozdzielczości.
Chociaż jak widziałem ten filmik z ciężarówką we mgle tak daleko, że nie było jej widać gołym okiem, a na wizualizacji tak, to może się mylę, bo to było naprawdę imponujące.
 

Michał spod Krakowa

Pionier e-mobilności
Nie korzystają z wbudowanych w kamery filtrów do upiększania obrazów co nie znaczy, że w dalszej części nie skalują obrazu do mniejszej rozdzielczości.
Chociaż jak widziałem ten filmik z ciężarówką we mgle tak daleko, że nie było jej widać gołym okiem, a na wizualizacji tak, to może się mylę, bo to było naprawdę imponujące.
AI Day powiedzieli, że sieci neuronowe są podłączone bezpośrednio do surowego, 12-bitowego sygnału z kamer. Nie obrazu - sygnału. W takim samym formacie nagrania są pobierane z floty na potrzeby treningów.
Moja interpretacja jest taka, że zrozumiały dla człowieka, kolorowy obraz jest generowany wyłącznie na potrzeby rejestratora i widoków dla kierowcy. Prawdopodobnie konwersja z RAW jest wykonywana na MCU, żeby niepotrzebnie nie obciążać komputera FSD. Co by tłumaczyło mizerną jakość podglądu z kamer w przypadku MCU Intel Atom.

Czy Ryzeny mają lepszy podgląd z kamer?
 

mgapinski

Posiadacz elektryka
konwersja obrazu z kamer, nawet z RAW, na poziomie MCU to nie jest na tyle kosztowne zadanie, żeby na ryzenach było niewiadomo jak szybciej/lepiej itp. W 36.2 na intelu większość systemu chodzi porównywalnie jak nie tak samo jak na AMD.

Wiele osób myśli, że Tesla przesiadała się na AMD w 3/Y ze względu na dostępność chipów, w Intelu była to już wycofany proces technologiczny.

Intel dostał mocno po tyłku z pierwszymi buildami V11, teraz z wersji na wersje wszystko jest wyrównywane, pewnie dlatego nikt nie planuje retrofitów MCU3
 
Top