Var først meget kritisk til denne løsningen, men innser nå at det er godt mulig dette kommer til å fungere bedre enn sensorer. Det er definitivt ikke en perfekt løsning, og det kommer det aldri til å bli heller. Men i sammenligninger med sensorer, virker det jo som folk tar som forutsetning at sensorer fungerer perfekt. Noe som er fullstendig feil! Sensorer har jo masse feil også, vi har bare lært oss å leve med de.
Eksempel, sensorer ser ikke lave kanter. Og hvem har ikke opplevd at en sensor har hengt seg opp pga snø/skit. Har opplevd å rygge med en høy pickup, som først varslet om en 50 cm høy kant, for så å plutselig ikke varsle lenger når jeg nærmet meg. Pga høyden på pickupen var vel sensorene over kanten og så den ikke lenger. Om Tesla Vision hadde gjort en så grov feil, ville det blitt ramaskrik.
Oppsummert har begge løsningene mange svakheter, men det er helt forskjellige svakheter. Vi har allerede lært oss hvilke situasjoner sensorer kan ta feil, og med Tesla Vision blir det helt nye situasjoner vi må være obs på (f.eks om et objekt har kommet foran bilen etter at det har blitt sett av kameraet).