samochody autonomiczne

zibizz1

Pionier e-mobilności
@piotrpo Tak, od 2019 W Teslach jest podwójny komputer, i FSD liczy podwójnie wszystko, jesli sie zgadza to kontynuuje działanie. Nie wszystko jest podwójnie. Np sterowanie moze wysiąść ale wtedy mozna awarynie auto zatrzymać hamulcami

Nikt nie ma poziomu 5, tylko Tesla w to celuje. Jesli cos dziala na ograniczonym obszarze to jest to poziom 4.

Czy to Waymo czy FSD będzie robiło wypadki i przejeżdżało ludzi. Byle rzadziej niż ludzie. Oczywiście mogą być to takie sytuacje że nikomu nie przyjdzie do głowy że człowiek mógłby tak bezsensownie się zachować. Ale za to w 10 innych sytuacjach gdzie człowiek mógłby zrobić błąd maszyna tego nie zrobi, więc w sumie wyjdzie na plus.

Ja z pół roku temu miałem tak że jednego dnia 3 razy nie zauważyłem srebrnego samochodu. Niby nie czulem gorszej formy ale cos było ze mna tego dnia nie tak. A od tamtej pory niż głupiego się nie zdarzyło
 
Last edited:

piotrpo

Pionier e-mobilności
A od tamtej pory niż głupiego się nie zdarzyło
A przynajmniej nie zauważyłeś ;) A serio, to wszyscy robimy masę głupich rzeczy, nasz refleks to wieczność, męczymy się szybko przy nudnych zadaniach, bywamy rozkojarzeni, albo nadmiernie pobudzeni. Co niektórzy mają szansę zostać w ten sposób influencerami


Nie wiedziałem o tej redundancji na poziomie komputera. Nie widzę natomiast jak na razie ścieżki dojścia do tej pełnej autonomii. Rozwiązania AI rozwijają się zwykle skokowo - pojawia się moc obliczeniowa, albo nowa koncepcja jest głośno i dziennikarzyszcze zaczynają pisać jak to coś już jest doskonałe. Chwilę później technologia dochodzi do jakiejś tam ściany, okazuje się, że nie będzie aż tak super jak się jeszcze chwilę temu wydawało, po kilku latach cyrk startuje ponownie. Trochę jak z pompowaniem balonika przed każdą większą imprezą z udziałem naszych piłkarzy. W moim przekonaniu, to co aktualnie pokazuje tesla ze swoim FSD (Supervised), niezależnie od nazw, nie jest jeszcze tą ostateczną technologią.
Nie jestem specjalistą od kierowania samochodami, ale powiedzmy, że z jakąś formą uczenia maszynowego mam kontakt już z ~30 lat i kilka produkcyjnych zastosowań za sobą. Oczywiście nie tak spektakularnych jak autonomiczne pojazdy, ale powiedzmy, że jakieś minimalne pojęcie mam.

W szczytowym momencie tymi autonomicznymi furami interesowało się kilka sporych firm. Google, Tesla, Uber. Ogłaszano już parę razy terminy typu "za 3 lata w salonach" i sytuacja jest taka, że nadal są to 3 lata. Niezależnie czy jakieś rozwiązanie jest wspierane dodatkowymi czujnikami (radary, lidary, USS), czy tak jak w przypadku Tesli oparte wyłącznie na kamerach. Wiadomo też, że jest spora determinacja, bo stawka jest naprawdę wysoka. Wystarczy sobie wyobrazić np. autonomiczną ciężarówkę i policzyć oszczędności - pensja kierowcy, brak pauz, możliwość pracy prawie 24/7, szybsze przejazdy. Podobnie zresztą z transportem osobowym - taka osobowa taksówka, pewnie zejdzie z kosztami poniżej 1zł za przejechany kilometr, bo zostanie jedynie prąd, amortyzacja, jakieś tam przeglądy i czyszczenie. Będzie mogła pracować 24/7 i w dodatku nikogo nie zgwałci.
I to wszystko w samochodach zaprojektowanych na długą i intensywną eksploatację. W tej chwili mamy te swoje samochody, ale gdyby takie usługi stały się dostępne i realnie tańsze niż korzystanie z własnego samochodu, to po co mam kupować coś własnego?

Stawka jak widać jest wysoka. Jeżeli wciąż nie mamy gotowych rozwiązań, to jest to trudne do opracowania.
 

Grzesiek

Pionier e-mobilności
Tesla czy jakakolwiek autonomia i na 1 kamerce pojedzie. Jeśli... najdrobniejszy warunek zostanie spełniony.
Zdobędzie jakaś świadomość - stanie się sztuczną inteligencją. Ale nie taką z nazwy.

Póki co nawet chodzenie jest nieprawdopodobnie trudne w realizacji, człowiek kątem oka widzi próg i jakoś na niego reaguje. Widząc policjanta czy nawet zwykłego człowieka który pomaga komuś wyjechać z podjazdu - domyśla się jak zareagować.
Z tym nie poradzi sobie żadne uczenie maszynowe i trening... .
Tutaj trzeba czegoś więcej. I raczej nie chodzi o moc obliczeniową.
Przynajmniej takie były początkowe zamysły Tesli.
Teraz jednak stawiają na moc i sensory. Bo wciąż inteligencja jest tylko z nazwy. Rachunek prawdopodobieństwa to nie panaceum na autonomię. Czy to na kołach, czy nogach.

A kiedy są wypadki? Kiedy człowiek jest rozproszony. Bardzo rzadko zdarza się to w wyniku błędnej interpretacji otoczenia. Np. przejazd przez kałużę ... takie przypadki zawsze bedą ryzykowne. Jednak jeśli chociaż rozproszenie zostanie wyeliminowane - będzie sukces.
 

piotrpo

Pionier e-mobilności
Zdobędzie jakaś świadomość - stanie się sztuczną inteligencją.
Świadomość, już ma. Wie gdzie jest, po co jest (jakie ma zadanie), wie co zrobić, żeby być w innym miejscu.
Wg. Wikipedia:
Świadomość – podstawowy i fundamentalny stan psychiczny, w którym jednostka zdaje sobie sprawę ze zjawisk wewnętrznych, takich jak własne procesy myślowe oraz zjawisk zachodzących w środowisku zewnętrznym i jest w stanie reagować na nie (somatycznie lub autonomicznie).

Póki co nawet chodzenie jest nieprawdopodobnie trudne w realizacji
Chodzenie jest trudniejsze niż prowadzenie samochodu. Masz je je zakodowane dzięki 6 milionom lat ewolucji i iluś tam klapnięciom na ziemię kiedy się tego uczyłeś. Zwyczajnie nie pamiętasz tego procesu i jak trudny był. Ale roboty już sobie całkiem nieźle radzą:

Widząc policjanta czy nawet zwykłego człowieka który pomaga komuś wyjechać z podjazdu - domyśla się jak zareagować.
A skąd ty wiesz jak w takiej sytuacji zareagować? Może dlatego, że mama mówiła "Grzesiu chodź", machając jednocześnie ręką?
Bo wciąż inteligencja jest tylko z nazwy.
Dlaczego tak twierdzisz? Prosta definicja (pewnie zbyt prosta) mówi, że inteligencja, to umiejętność działania w sytuacjach, których wcześniej nie spotkałeś i dokładnie to robi AI, również w samochodach.

Teraz jednak stawiają na moc i sensory.
Tesla nie stawia na sensory. Moc obliczeniowa jest potrzebna do wytrenowania takiego rozwiązania, bo sieć, żeby nauczyć się czegoś robić musi dostać dużo danych i je sobie przyswoić. Im więcej danych i im bardziej złożona topologia sieci, tym lepszych wyników można się spodziewać. Ale oznacza to również, że więcej danych trzeba przesłać i przetworzyć, w dodatku więcej razy. Do tego trzeba szybkiego komputera (a właściwie wielu szybkich komputerów), czasu i energii. Dlatego skoki w AI zdarzają się co jakiś czas, jak możliwa do użycia moc obliczeniowa stanie się dostępna, albo inaczej - zrobi się na tyle tania, że można jej używać. W samym samochodzie, który już dostaje gotową, wyuczoną sieć potrzebne jest dużo mniej.
 

zibizz1

Pionier e-mobilności
Ale Tesla tez katem oka widzi i potrafi zareagować. Sa przykłady takich zachowań.
Problem z tym ze wydawało sie ze bedzie szybko a nie jest jest taki jak tu opisujecie to właśnie ten autopilot z którego wszyscy korzystamy. Bardzo łatwo bylo ogarnąć materiał aby auto jechalo droga i dużo takiego materiału. Tam gdzie bylo malo materiału to dopisało sie troche warunków i autopilot gotowy. Natomiast FSD to troche inna liga bi wszystkich chyba zaskoczyło jak swiat jest bogaty w roznego rodzaju sytuacje. Czesto sa to sytuacje które kierowca widzi pierwszy raz w życiu i wymyśla na bieżąco kreatywnie jak sie zachować. Tego nigdy nie uda sie oskryptować i Tesla zaczęła przerabiac Frankensteina złożonego z kilkudziesięciu modeli sieci neuronowych + kodu na tylko sieci neuronowe. Nadal nie jest to jedna ogromna siec neuronowa po to aby dało sie to debugować, wyjścia jednej kierowane sa na wejścia drugiej. Ale pomiędzy mamy aktywacje którą da sie przetłumaczyć na zrozumiale dane. Np jedna to jest occupancy network i dzieki temu widać obszar po którym a z dużym prawdopodobieństwem mozna się poruszać( obecny widok vision przy pakowaniu)

Tesla dodatkowo ma całkiem sprawny pipeline do pozyskiwania materiału z floty oraz etykietowania go. A materiał caly czas rozbudowywany jest w oparciu o problematyczne sytuacje na drodze które zgłaszają użytkownicy.

Zgadzam sie ze architektura tych sieci moze nie jest najlepsza i wydaje sie prymitywna ale pewnie w chwili obecnej nie mamy wymyślonej lepszej i prawdopodobnie w planowaniu toru jazy np stosowany jest tranformer po to aby to co bylo przed chwilą pasowało do tego co będzie a np po wjechaniu w ślepa uliczke i wycofaniu auto nie wjechalo nam ponownie. Bardzo podobnie do chatu GPT ktory wypluwa kolejne slowa ktore ukladaja sie w spójną całość.

Jestem też przekonany ze Tesla ma pelen zestaw parametrów ktore pozwalaj określić czy model np zaczyna być za maly i stanowi barierę przy rozbudowanej bazie treningowej i wtedy jest on powiększany. Także wydaje mi sie ze te sieci neuronowe tworzące FSD sa w sam raz i dopasowane do aktualnego zestawu treningowego.

Wiec moim zadaniem to kwestia czasu az Tesla zbierze taka ilość materiału aby wystrenować FSD tak zeby jeździło lepiej niż człowiek.

Tak, zgadzam sie ze FSD moze finalnie nie zmieścić sie na obecne HD3.0. Tzn będzie korzystało z mniejszych modeli o mniejszej iloci parametrów ale z uwagi na wielka baze danych treningowych nadal bedzie radzilo sobie dobrze, tylko użycie większych modeli da troche lepszy efekt i samochód bedzie lepiej "myślał" i bardziej kreatywniej albo dokładniej rozwiązywał problemy na drodze albo kontekst bedzie większy i poradzi sobie ze ślepymi uliczkami o większej długości.
Dokładnie jak dzis mamy dostępne różne wersje rozmiarów popularnych sieci neuronowych ale ich architektura i baza treningowa jest identyczna. Maja tylko inna liczbę parametrów ewentualnie warstw.

Wydaje sie ze Tesla obrała dobrą drogę do FSD. Kamery oczywiście sa mniej dokładne jesli chodzi o ocenę odległości ale jednak dostarczają wiecej danych niz lidary czy radar. I o ile kiedyś phantom breaking był uciążliwy to dziś dzieje sie to głównie w sytuacjach ktore sa rzeczywiście ryzykowne i samochód zwalnia bo przestraszył sie innego pojazdu ktory np chce sie włączyć do ruchu
 

Halisep

Posiadacz elektryka
Wydaje sie ze Tesla obrała dobrą drogę do FSD. Kamery oczywiście sa mniej dokładne jesli chodzi o ocenę odległości ale jednak dostarczają wiecej danych niz lidary czy radar.
Motocykliści zabijani przez Teslę na autopilocie mogliby się nie zgodzić.
 

zibizz1

Pionier e-mobilności
Motocykliści zabijani przez Teslę na autopilocie mogliby się nie zgodzić.
A to prawda;), dlatego jest nadal supervised. Człowiek tez ma czesto tak ze widzi co innego (iluzje optyczne) potem w mózgu cos przeskakuje i juz nie da sie tego zobaczyć ponownie bo nasz mózg włączył ten przypadek do bazy treningowej. Wiec nawet taką potężna sieć neuronową jak ta w naszym mózgu mozna wywieść w pole.
 

piotrpo

Pionier e-mobilności
Zgadzam sie ze architektura tych sieci moze nie jest najlepsza
To nie ma podbijać Marsa, tylko prowadzić samochód. Czyli zajmować się czynnością, która jest możliwa do opanowania prawie przez każdego człowieka. Zakładam, że mają np. sieci konwolucyjne za kamerami, bo to wciąż najlepiej sprawdzające się rozwiązanie do komputerowego widzenia, w dodatku jest w cholerę całkiem nieźle działających gotowych modeli. Coś tam innego obsługuje szeregi czasowe i robi predykcję sytuacji, która się pojawi na drodze za chwilę (np. że pieszy, który kieruje się w stronę przejścia, za chwilę się na tym przejściu znajdzie). Pewnie coś innego odpowiada za strategię nawigacji - gdzie się znaleźć, żeby gdzieś tam móc wykonać manewr, który pozwoli na dotarcie do celu.
Co do danych - mają dostęp do pełnego zestawu materiałów zebranych przez samochód + reakcji rzeczywistego kierowcy na konkretną sytuację.
Dość oczywistym pomysłem, jest zastosowanie enforced learning - można np. puścić tego autopilota w symulacji, zrenderować dane, które zobaczyłyby kamery i wybrać te właściwe zachowania. Jeżeli użyli do tego GTA, to za jakiś czas ktoś się zdziwi, że bagażnik się sam otworzył jak do niego podszedł z ciałem martwej prostytutki ;) Nie wiem, czy tak robią, ale to dość tani sposób na zebranie bardzo różnorodnych danych.

Jestem też przekonany ze Tesla ma pelen zestaw parametrów ktore pozwalaj określić czy model np zaczyna być za maly
To jest wbudowane w sam ML. Jeżeli model jest zbyt duży dla problemu albo danych, łatwo następuje przetrenowanie - sieć zapamiętuje to czego się nauczyła, ale w delikatnie innych warunkach daje bardzo przypadkowe rezultaty.
Człowiek tez ma czesto tak ze widzi co innego (iluzje optyczne)
Żeby sobie w miarę radzić w życiu, człowiek podobno obserwuje stan przyszły. Nasz mózg przetwarza sygnały, ale "widzimy" to co mózg przewiduje zobaczyć. Większość sztuczek magicznych się na tym opiera. Zwykle dość mocno przeceniamy naszą spostrzegawczość i osąd.
 

Grzesiek

Pionier e-mobilności
Świadomość, już ma. Wie gdzie jest, po co jest (jakie ma zadanie), wie co zrobić, żeby być w innym miejscu.
Wg. Wikipedia:
nie, nie ma. To nie o to chodzi. Świadomość, że jest samochodem. To co innego niż to o czym piszesz.
Chodzenie jest trudniejsze niż prowadzenie samochodu. Masz je je zakodowane dzięki 6 milionom lat ewolucji i iluś tam klapnięciom na ziemię kiedy się tego uczyłeś. Zwyczajnie nie pamiętasz tego procesu i jak trudny był. Ale roboty już sobie całkiem nieźle radzą:
Dokładnie, chodzenie nie jest proste. Autonomiczna jazda również. Co trudniejsze? Mało to istotne.
Roboty z Boston były beznadziejne w chodzeniu, tak jak i Optimus. Jak widać na filmiku.. W terenie wraz ze swoim płaskostopiem sobie nie radzą. A bieganie też słabe rozwiązanie. Może... tu brak trochę technologii i rozwiązań. Noga, stopa i stawy to całkiem pokaźna liczba mięśni. Sporo ćwiczeń aby zsynchronizować i zoptymalizować je.
Pewnie dlatego wciąż robią takie uproszczone kończyny, bo dłonie potrafili odtworzyć fenomenalnie.

A skąd ty wiesz jak w takiej sytuacji zareagować? Może dlatego, że mama mówiła "Grzesiu chodź", machając jednocześnie ręką?
Właśnie, rozumiem czym jestem, kontekst otoczenia, sytuację na drodze. Domyślam się czy ktoś macha sobie - bo lubi, czy ruchem kierować probuje.
Uczenie maszynowe tego nie ogarnie. Tu by trzeba ręcznego sterowania w nagłych wypadkach.
Dlaczego tak twierdzisz? Prosta definicja (pewnie zbyt prosta) mówi, że inteligencja, to umiejętność działania w sytuacjach, których wcześniej nie spotkałeś i dokładnie to robi AI, również w samochodach.
Dla mnie inteligencja to coś więcej niż prosta definicja.
Raczej odnalezienie się w trudnej sytuacji. To coś więcej niż przypisanie sytuacji do któregoś schematu podobnego mniej lub bardziej z dozą rachunku prawdopodobieństwa.
Epoka przed nami. Określenie Sztuczna inteligencja działą na ludzi,inwestorów i kasę. I my rozumiemy to inaczej, Musk też inaczej.
Tesla nie stawia na sensory. Moc obliczeniowa jest potrzebna do wytrenowania takiego rozwiązania, bo sieć, żeby nauczyć się czegoś robić musi dostać dużo danych i je sobie przyswoić. Im więcej danych i im bardziej złożona topologia sieci, tym lepszych wyników można się spodziewać. Ale oznacza to również, że więcej danych trzeba przesłać i przetworzyć, w dodatku więcej razy. Do tego trzeba szybkiego komputera (a właściwie wielu szybkich komputerów), czasu i energii. Dlatego skoki w AI zdarzają się co jakiś czas, jak możliwa do użycia moc obliczeniowa stanie się dostępna, albo inaczej - zrobi się na tyle tania, że można jej używać. W samym samochodzie, który już dostaje gotową, wyuczoną sieć potrzebne jest dużo mniej.
Może inaczej, sztuczna inteligencja bierze dane ze wszystkich źródeł.
Natomiast ludzka inteligencja. Potrafi blokować dane ze źródeł. Według własnych schematów zależnych od czegokolwiek.
Tego nie da się wyuczyć z których danych lepiej korzystać akurat dziś.

I to właśnie błędna droga.
Dzięki temu ogarną jazdę autonomiczną... kwestia czasu x moc obliczeniowa.
Jednak nie rozwiąże to w 100% problemu. Bedą sytuację które spowodują błędne reakcje.
Może w 98% się to uda... ale lepsze niż skupiony człowiek to nie będzie.
Niestety człowiek rzadko jedzie skupiony
A to prawda, dlatego jest nadal supervised. Człowiek tez ma czesto tak ze widzi co innego (iluzje optyczne) potem w mózgu cos przeskakuje i juz nie da sie tego zobaczyć ponownie bo nasz mózg włączył ten przypadek do bazy treningowej. Wiec nawet taką potężna sieć neuronową jak ta w naszym mózgu mozna wywieść w pole.
Tak, właśnie.
nasze mózgi bardzo dużo symulują w czasie rzeczywistym.
Tworzą obrazy których nie widzą. Np. braki/uszkodzenia w oku. Czy nabyte czy za soczewką od nerwu.

Żadna technologia nie tworzy nic takiego.
To co mamy teraz to coś innego. Deepfake to inna bajka.

:)
 

piotrpo

Pionier e-mobilności
Dokładnie, chodzenie nie jest proste. Autonomiczna jazda również.
No i tutaj się nie zgadzamy - chodzenie odbiera więcej danych (wzrok, dotyk, równowaga) i wydaje ci się proste, bo dostałeś od ewolucji kawałek mózgu, który robi to poza twoją świadomością. Jazda to jedynie wektor kierunku, wektor przyśpieszenia, koniec. Samochód stoi na kołach bez żadnego udziału AI, ręcznego sterowania itd. Człowiek (albo inny zwierz) musi w to zaangażować mózg.
Dla mnie inteligencja to coś więcej niż prosta definicja.
Jak się czegoś nie zdefiniuje, to ciężko o tym dyskutować. Oczywiście można to robić na zasadzie "e, to jeszcze nie to"

Raczej odnalezienie się w trudnej sytuacji. To coś więcej niż przypisanie sytuacji do któregoś schematu podobnego mniej lub bardziej z dozą rachunku prawdopodobieństwa.
W większości trudnych sytuacji na drodze nie masz szans na uruchomienie myślenia. Jest za szybko i musisz się opierać na odruchach nabytych (wytrenowanych).

Uczenie maszynowe tego nie ogarnie. Tu by trzeba ręcznego sterowania w nagłych wypadkach.
Skąd wiesz, że uczenie maszynowe tego nie ogarnie? Mniejsza czy to będzie to sieć neuronowa, czy jakaś inna metoda?
nasze mózgi bardzo dużo symulują w czasie rzeczywistym.
Tworzą obrazy których nie widzą. Np. braki/uszkodzenia w oku. Czy nabyte czy za soczewką od nerwu.
Ej, no bez przesady - dzisiaj każdy telefon robi taki proces pstrykając zdjęcia. Poskłada kilka obrazów, wyostrzy i dorobi to czego się domyśli.
Może inaczej, sztuczna inteligencja bierze dane ze wszystkich źródeł.
Nie. SI bierze dane z tego co się jej zapoda. To, że można jej podać wszystko co jest dostępne, jak w przypadku LLM (np. ChatGPT) to inna sprawa. Zresztą właśnie ten przypadek obala tezę, że SI nie potrafi filtrować informacji.

Jednak nie rozwiąże to w 100% problemu. Bedą sytuację które spowodują błędne reakcje.
Może w 98% się to uda... ale lepsze niż skupiony człowiek to nie będzie.
Niestety człowiek rzadko jedzie skupiony
Człowiek ma znacznie gorszy od komputera czas reakcji. Nie potrafimy skupić się na dłuższy czas. Musieliśmy sobie wymyślić przepisy ruchu drogowego i ograniczenia, bo nasza ocena ryzyka opiera się na instynktach. Zapierniczanie 100+ przez wioskę, to dla wielu nic takiego, a np. nie stanęliby na krawędzi dachu, bo tak jakoś było, że małpy, które bały się upadku miały większe szanse na przeżycie.
Nie wiem kiedy autonomiczne samochody się pojawią, ale jestem pewien, że będą bezpieczniej prowadzić niż ja, czy ty.
 
Top