Świadomość, już ma. Wie gdzie jest, po co jest (jakie ma zadanie), wie co zrobić, żeby być w innym miejscu.
Wg. Wikipedia:
nie, nie ma. To nie o to chodzi. Świadomość, że jest samochodem. To co innego niż to o czym piszesz.
Chodzenie jest trudniejsze niż prowadzenie samochodu. Masz je je zakodowane dzięki 6 milionom lat ewolucji i iluś tam klapnięciom na ziemię kiedy się tego uczyłeś. Zwyczajnie nie pamiętasz tego procesu i jak trudny był. Ale roboty już sobie całkiem nieźle radzą:
Dokładnie, chodzenie nie jest proste. Autonomiczna jazda również. Co trudniejsze? Mało to istotne.
Roboty z Boston były beznadziejne w chodzeniu, tak jak i Optimus. Jak widać na filmiku.. W terenie wraz ze swoim płaskostopiem sobie nie radzą. A bieganie też słabe rozwiązanie. Może... tu brak trochę technologii i rozwiązań. Noga, stopa i stawy to całkiem pokaźna liczba mięśni. Sporo ćwiczeń aby zsynchronizować i zoptymalizować je.
Pewnie dlatego wciąż robią takie uproszczone kończyny, bo dłonie potrafili odtworzyć fenomenalnie.
A skąd ty wiesz jak w takiej sytuacji zareagować? Może dlatego, że mama mówiła "Grzesiu chodź", machając jednocześnie ręką?
Właśnie, rozumiem czym jestem, kontekst otoczenia, sytuację na drodze. Domyślam się czy ktoś macha sobie - bo lubi, czy ruchem kierować probuje.
Uczenie maszynowe tego nie ogarnie. Tu by trzeba ręcznego sterowania w nagłych wypadkach.
Dlaczego tak twierdzisz? Prosta definicja (pewnie zbyt prosta) mówi, że inteligencja, to umiejętność działania w sytuacjach, których wcześniej nie spotkałeś i dokładnie to robi AI, również w samochodach.
Dla mnie inteligencja to coś więcej niż prosta definicja.
Raczej odnalezienie się w trudnej sytuacji. To coś więcej niż przypisanie sytuacji do któregoś schematu podobnego mniej lub bardziej z dozą rachunku prawdopodobieństwa.
Epoka przed nami. Określenie Sztuczna inteligencja działą na ludzi,inwestorów i kasę. I my rozumiemy to inaczej, Musk też inaczej.
Tesla nie stawia na sensory. Moc obliczeniowa jest potrzebna do wytrenowania takiego rozwiązania, bo sieć, żeby nauczyć się czegoś robić musi dostać dużo danych i je sobie przyswoić. Im więcej danych i im bardziej złożona topologia sieci, tym lepszych wyników można się spodziewać. Ale oznacza to również, że więcej danych trzeba przesłać i przetworzyć, w dodatku więcej razy. Do tego trzeba szybkiego komputera (a właściwie wielu szybkich komputerów), czasu i energii. Dlatego skoki w AI zdarzają się co jakiś czas, jak możliwa do użycia moc obliczeniowa stanie się dostępna, albo inaczej - zrobi się na tyle tania, że można jej używać. W samym samochodzie, który już dostaje gotową, wyuczoną sieć potrzebne jest dużo mniej.
Może inaczej, sztuczna inteligencja bierze dane ze wszystkich źródeł.
Natomiast ludzka inteligencja. Potrafi blokować dane ze źródeł. Według własnych schematów zależnych od czegokolwiek.
Tego nie da się wyuczyć z których danych lepiej korzystać akurat dziś.
I to właśnie błędna droga.
Dzięki temu ogarną jazdę autonomiczną... kwestia czasu x moc obliczeniowa.
Jednak nie rozwiąże to w 100% problemu. Bedą sytuację które spowodują błędne reakcje.
Może w 98% się to uda... ale lepsze niż skupiony człowiek to nie będzie.
Niestety człowiek rzadko jedzie skupiony
A to prawda, dlatego jest nadal supervised. Człowiek tez ma czesto tak ze widzi co innego (iluzje optyczne) potem w mózgu cos przeskakuje i juz nie da sie tego zobaczyć ponownie bo nasz mózg włączył ten przypadek do bazy treningowej. Wiec nawet taką potężna sieć neuronową jak ta w naszym mózgu mozna wywieść w pole.
Tak, właśnie.
nasze mózgi bardzo dużo symulują w czasie rzeczywistym.
Tworzą obrazy których nie widzą. Np. braki/uszkodzenia w oku. Czy nabyte czy za soczewką od nerwu.
Żadna technologia nie tworzy nic takiego.
To co mamy teraz to coś innego. Deepfake to inna bajka.
