Obok tych analogowych cech obrazu spektrum światła, polaryzacja, filtry i optyka soczewek... jest ta cyfrowa magia operacji na tensorach.
Nim takie rzeczywiste obrazy polecą na sieć neuronową, to na początku są obrabiane algorytmami konwolucyjnymi, by wyostrzyć, obrysować, ulepszyć taki obraz do dalszej obróbki.
Na stronce poniżej jest fajnie i przystępnie pokazany proces takiego ulepszania danych wejściowych -
https://setosa.io/ev/image-kernels/
Potem kluczowa jest liczba klatek na sekundę przetwarzanych przy obróbce cyfrowej.
Nie wiem dokładnie z jaką częstotliwością HW3.0 analizuje obraz (już podrasowany) - coś gdzieś mi sie obiło że ok. 2 tys obrazów /sekundę - ale jest tego bardzo dużo, by już z całą pewnością FSD odróżniło "punkt" linii od "punktu" mgły/deszczu/śniegu.