2025.20

piotrpo

Pionier e-mobilności
Wydaje mi się, że będzie to raczej inteligentny asystent głosowy, który nieco lepiej będzie sobie radzić z obsługą pojazdu, bo w tej chwili komendy głosowe w Tesli są delikatnie rzecz ujmując żartem. Język polski jest już obsługiwany przez ten model. Może dołożą do tego takie ogólne guglowanie typu "powiedz mi ile lat ma miasto przez które przejeżdżam".
Trochę bawiłem się Grokiem i daje radę na podobnym poziomie co inne czaty LLM.
 

mm-tesla

Posiadacz elektryka

inter

Pionier e-mobilności

mm-tesla

Posiadacz elektryka
Wydaje mi się, że będzie to raczej inteligentny asystent głosowy, który nieco lepiej będzie sobie radzić z obsługą pojazdu, bo w tej chwili komendy głosowe w Tesli są delikatnie rzecz ujmując żartem. Język polski jest już obsługiwany przez ten model. Może dołożą do tego takie ogólne guglowanie typu "powiedz mi ile lat ma miasto przez które przejeżdżam".
Trochę bawiłem się Grokiem i daje radę na podobnym poziomie co inne czaty LLM.
To będzie pełnoprawna integracja z Grokiem (takim ChatemGPT), a nie tylko prosty asystent głosowy w samochodzie.

Na zdjęciach wygląda to jak natywny interfejs czatu - szczególnie sugeruje to obecność opcji „Therapist”. Można z dużym prawdopodobieństwem założyć, że nie będzie to lokalny model - przetwarzanie odbywać się będzie w chmurze, przez internet. Samochód nie ma wystarczającej mocy obliczeniowej do tak zaawansowanej AI.

Jeśli wydamy polecenie w stylu „Jakie mam ciśnienie w oponach?”, system będzie miał dostęp do danych pojazdu i udzieli precyzyjnej odpowiedzi. Podobnie, komenda typu „Mojej żonie jest zimno na fotelu pasażera” spowoduje podniesienie temperatury na odpowiedniej strefie - asystent zrozumie kontekst i odpowiednio zareaguje.

Obecny system głosowy jest mocno ograniczony - opiera się jedynie na prostym przetwarzaniu mowy na tekst i lokalnych regułach, przez co jego skuteczność jest bardzo niska. Integracja z Grok to przeskok o kilka generacji naprzód.
 

piotrpo

Pionier e-mobilności
To będzie pełnoprawna integracja z Grokiem (takim ChatemGPT), a nie tylko prosty asystent głosowy w samochodzie.
Rozumiem, że to domysły a nie informacja z pierwszej ręki?

przetwarzanie odbywać się będzie w chmurze, przez internet
Też tak przypuszczam, bo jest to najprostsze, chociaż ograniczone funkcjonalnie rozwiązanie.

Samochód nie ma wystarczającej mocy obliczeniowej do tak zaawansowanej AI.
To akurat jest dyskusyjne. Oczywiście "pełen model" z wszystkimi bajerami pewnie będzie za ciężki, ale bez najmniejszego problemu uruchamiałem lokalnie na PC jakieś tam Llama, Ollama itd. Nie są to modele tej jakości co duże, komercyjne LLM'y, ale do obsługi prostych poleceń wystarczą.
 

mm-tesla

Posiadacz elektryka
Rozumiem, że to domysły a nie informacja z pierwszej ręki?


Też tak przypuszczam, bo jest to najprostsze, chociaż ograniczone funkcjonalnie rozwiązanie.


To akurat jest dyskusyjne. Oczywiście "pełen model" z wszystkimi bajerami pewnie będzie za ciężki, ale bez najmniejszego problemu uruchamiałem lokalnie na PC jakieś tam Llama, Ollama itd. Nie są to modele tej jakości co duże, komercyjne LLM'y, ale do obsługi prostych poleceń wystarczą.
Potrzeba bardzo dużej mocy obliczeniowej, żeby być terapeutą, na słabym sprzęcie to będzie generował 10 znaków na sekundę, czyli strasznie dukał ;), polecam odpalić sobie llame i zobaczyć jak wolno generuje odpowiedzi na domowym komputerze.
 

poochaty

Posiadacz elektryka
Myślę, że to logiczne, że LLM będzie po stronie serwera. Pytanie, dlaczego w takim razie nie będzie dostępne dla Intela. Wiadome, że są dwie osobne linie, ale czy tylko chodzi o dopieszczanie nowych użytkowników, czy też o coś więcej?
 
Top