2025.20

mm-tesla

Posiadacz elektryka
Myślę, że to logiczne, że LLM będzie po stronie serwera. Pytanie, dlaczego w takim razie nie będzie dostępne dla Intela. Wiadome, że są dwie osobne linie, ale czy tylko chodzi o dopieszczanie nowych użytkowników, czy też o coś więcej?
Mi się wydaje, że wydajność komputera już nie pozwala, jednak to jest dość pokaźny feature, ja myślę, że oni to testują podczas włączonego FSD i nawigacji itd, dodanie kolejnego elementu powoduje zapewne przycinki komputera :(
 

Bartłomiej S

Posiadacz elektryka
Będzie to pełnoprawny LLM. Z obecnych przypuszczeń będzie nawet działał nieustannie w tle a dopiero wciśnięcie przycisku wyłącza mikrofon. Z moich indywidualnych przypuszczeń będzie to Grok 4 mini, ponieważ premiera Groka 4 jest zaplanowana w ciągu najbliższych tygodni. Do wyboru będzie kilkanaście osobowości np. tłumacz, asystent, terapeuta, +18 itp
 

poochaty

Posiadacz elektryka
Mi się wydaje, że wydajność komputera już nie pozwala, jednak to jest dość pokaźny feature, ja myślę, że oni to testują podczas włączonego FSD i nawigacji itd, dodanie kolejnego elementu powoduje zapewne przycinki komputera :(
Jak będzie po stronie serwera, to żadne obciążenie po stronie samochodu.
 

zibizz1

Pionier e-mobilności
1. Taki aysystent w samochodzie nie musiał być nie wiadomo jak mocny. Może z 1% będzie chciało rozmawiać i analizować jakieś skomplikowane problemy, potrzbować dużego kontekstu i tworzyć wymyślne strategie.
2. Skoro ma być zintegrowany z autem i np kontrolować różne systemny w aucie to fajnie gdyby np działało także w tunelach czy w innych miejscach gdzie są chwilowe dziury w zaisęgu internetu. Czasem używam obecnego asystenta żeby coś wpisać w przeglądarke i czasem jest on niedostepny, jest to wkurzające.
3. Duży model lokalnie na pewno nie przejdzie bo nie mógłby działać równocześnie z FSD.
4. Potrzebny jest voice mode. Może to np być tak ze Voice2Text który działa lokalnie a komnikacja odbywa się z modelem w chmurze tylko tekstowo. Zresztą żeby sterować funkcjami auta, odpowiedź LLMa i tak nie może być w formie tylko głosowej, bo raczej API do obsługi funckji w samochodzie będzie w jakieś ustruktyrozowanej formie.

Także może nie Intel bo część rzeczy albo fallback będzie w samochodzie a może poprostu Intel już ma pare lat i będzie dostawał tylko jakieś kluczowe poprawki, bo jednak to osobna gałąź
 

piotrpo

Pionier e-mobilności
4. Potrzebny jest voice mode. Może to np być tak ze Voice2Text który działa lokalnie a komnikacja odbywa się z modelem w chmurze tylko tekstowo. Zresztą żeby sterować funkcjami auta, odpowiedź LLMa i tak nie może być w formie tylko głosowej, bo raczej API do obsługi funckji w samochodzie będzie w jakieś ustruktyrozowanej formie.
Z tym można sobie dość łatwo poradzić (w sensie ja sobie z tym radzę). Zwyczajnie prosisz LLM o odpowiedź w formie strukturyzowanej, któa dalej jest już przetwarzana tradycyjnie.

Duży model lokalnie na pewno nie przejdzie
Zgadza się, problem w tym, że dość trudno się skaluje te modele. To nie jest tak, że bierzesz jakiś "duży" i możesz go "przyciąć".

może poprostu Intel już ma pare lat
A tam przypadkiem nie ma jakiegoś bieda-atoma? W przypadku LLM dużą rolę odgrywa też obecność karty graficznej.
 

inter

Pionier e-mobilności
Z tym można sobie dość łatwo poradzić (w sensie ja sobie z tym radzę). Zwyczajnie prosisz LLM o odpowiedź w formie strukturyzowanej, któa dalej jest już przetwarzana tradycyjnie.


Zgadza się, problem w tym, że dość trudno się skaluje te modele. To nie jest tak, że bierzesz jakiś "duży" i możesz go "przyciąć".


A tam przypadkiem nie ma jakiegoś bieda-atoma? W przypadku LLM dużą rolę odgrywa też obecność karty graficznej.
Jest bieda atom, a on wydajnością i grafika nie grzeszy.
 
Top