Gå til innhold

Elbil-tråden


Anbefalte innlegg

Salvesen. skrev (15 timer siden):

Det er jo hele poenget til Tesla sin tilnærming, hente inn så mye ekta data som mulig.

De trener også simulert både i bilen samt kun på server. De har mange forskjellige tilnærminger som viser igjen når en ser hvor fsd er i dag.

Usikker hva du mener med data innsamlingen, tenker du på gdpr eller noe slikt? Ganske sikker på at Tesla har kontroll på dette..

Tesla var verst av 25 testede bilmerker i forbindelse med datasnoking , lagring og videresalg av dette om du leser privacy not included rapporten som Mozilla lagde for et drøyt år siden:

https://foundation.mozilla.org/en/privacynotincluded/articles/its-official-cars-are-the-worst-product-category-we-have-ever-reviewed-for-privacy/

  • Liker 2
  • Innsiktsfullt 1
  • Hjerte 1
Lenke til kommentar
Videoannonse
Annonse
Snowleopard skrev (9 timer siden):

Ja, foreløpig er mennesker bedre til å analysere og konsekvens-tenke enn de fleste datamaskiner. Det er bare det at vi er så dårlig til å observere når det er mye data (synsinntrykk), og at vi ikke kan følge med i alle retninger samtidig.

Bilen ser i utgangspunktet veldig mye mer enn oss, men da de ikke kan tenke selv, må de læres opp til å skille vesentlig fra uvesentlig, samt se når visse type objekter kommer i en fart og retning som tilsier at de kan bli en fare, eller det motsatte, beveger seg vekk eller har en hindring som gjør at de ikke kan komme ut i veibanen, og da likevel ikke er en fare på gang.

Det er jo pga for lite trening og for dårlig programmering, et en hvit vegg, som kan være et skilt, en lastebil eller en refleksjon/optisk illusjon, at man ikke har trent disse maskinene godt nok til å skille.

Ja, det skal sykt mye regnekraft for å analysere og plukke ut data som er viktig, og skille ut "søppel-info" fra datagrunnlaget. Derfor har jo bl.a. Tesla bygd en av verdens kraftigste datamaskiner (Tesla kaller den dojo etter ordet for treningssal fra kampsport), for å jobbe med dette.

Så er det selvsagt et spørsmål om mye av de dataene Tesla har samlet sammen, om de holder god nok bildekvalitet. De nyeste bilene kommer nå med kameraer med langt høyere oppløsning (4K mener jeg å huske) mot bildene på 1K oppløsning som de vel har i gamle modeller.

Mulig må mye av de gamle dataene rett og slett glemmes for endel av øvelsene/scenariene, og de må samle inn nye data av den høyere kvaliteten. Heldigvis for Tesla, så selger de såpass med biler med de nye og bedre kameraene, så de samler fort inn mengder av data som så vidt jeg vet, overgår hva de fleste andre produsentene har samlet inn over flere år.

 

Rent teoretisk burde en autonom bil kunne kjøre i fra enhver rally sjåfør som kjører vinter rally. Data bilen kan beregne alt. Friksjon, maks hastighet ved gitt kurvatur, siste punkt for bremsing med gitt friksjon, hvor langt hopper bilen ved gitt hastighet, maks pådrag før slipp blir over 20% osv osv. Dette bør en FSD tesla klare i dag. Bare å fjerne fartsgrense på kartet og la den kjøre maks. Et menneske burde ikke ha mulighet til å følge den.

Alikevell så tror jeg ikke tesla har data kraft til å prosessere og gi ut styresignal til ratt og motor kjapt nok til å mache en god sjåfør. 

Når det autonome bilen kjører like bra som et bra menneske må man tilpasse den trafikkregler osv. Det kan nok være en større utfordring enn å vinne et rally, for det må man forvente. 

  • Liker 2
Lenke til kommentar
Auto Asmodeus skrev (3 timer siden):

Tesla var verst av 25 testede bilmerker i forbindelse med datasnoking , lagring og videresalg av dette om du leser privacy not included rapporten som Mozilla lagde for et drøyt år siden:

https://foundation.mozilla.org/en/privacynotincluded/articles/its-official-cars-are-the-worst-product-category-we-have-ever-reviewed-for-privacy/

Det går også frem av denne videoen

Den viser også problemet med gjenkjenning av en krasjet bil Det skal mye til at kollisjonsskader og deformasjoner er likt fra en til en annen. Bilen kan også ligge på siden  da er datamateriealet begrenset. Hvorfor den ikke stopper når den ser et stort objekt den ikke gjenkjenner må man spørre teslas geniale programmerere om.

Endret av Trestein
  • Liker 3
Lenke til kommentar
uname -i skrev (19 minutter siden):

Dette med alle disse datene som Tesla samler inn. Er de i det hele tatt verdt noe?

Og har noen målt hvor mye som sendes ut fra en Tesla? 8 kameraer i en times kjøring hver dag skulle bli en del som sendes over mobilnettet.

Uten at jeg vet noe som helst om dette, så tviler jeg på at de overfører ren video...
Tipper det er i form av ferdig "tygd" Ai kode som kan sammenstilles med alle andre sin kode og settes sammen av Teslas superkomputere...

Lenke til kommentar
Trestein skrev (2 timer siden):

Det går også frem av denne videoen

Den viser også problemet med gjenkjenning av en krasjet bil Det skal mye til at kollisjonsskader og deformasjoner er likt fra en til en annen. Bilen kan også ligge på siden  da er datamateriealet begrenset. Hvorfor den ikke stopper når den ser et stort objekt den ikke gjenkjenner må man spørre teslas geniale programmerere om.

Dette illustrerer vel litt av problemet med tilnærmingen med ren vision baserte sikkerhetssystemer. Vision er avhengig av et datagrunnlag for å forstå hva det er det ser for noe, om det ikke forstår så blir det fort kortslutning, som en ser i videoene som vises her. Med radar systemer så vet bilen bare at det er ett fysisk objekt som er stillestående forran deg innenfor radarens rekkevidde, og vil da kunne gjøre beslutninger uten å lite på ett iliggende datagrunnlag. 

Endret av Evil-Duck
  • Liker 1
Lenke til kommentar
Trestein skrev (4 timer siden):

Det går også frem av denne videoen

Den viser også problemet med gjenkjenning av en krasjet bil Det skal mye til at kollisjonsskader og deformasjoner er likt fra en til en annen. Bilen kan også ligge på siden  da er datamateriealet begrenset. Hvorfor den ikke stopper når den ser et stort objekt den ikke gjenkjenner må man spørre teslas geniale programmerere om.

Det er jo her generativ AI kommer inn, og den generative modellen blir bedre jo mer ekte situasjoner en har...

Litt som nevnte eksempel om deteksjon av kreft. En genererer falske MR eller andre bilder med kreft for å trene en modell til å detektere dette.

Har en ingen data til den generative modellen får en bare tull ut av den.

  • Innsiktsfullt 1
Lenke til kommentar
uname -i skrev (3 timer siden):

Dette med alle disse datene som Tesla samler inn. Er de i det hele tatt verdt noe?

Og har noen målt hvor mye som sendes ut fra en Tesla? 8 kameraer i en times kjøring hver dag skulle bli en del som sendes over mobilnettet.

Tesla automapper ting, så om den oppdager ukjente ting sendes det inn for å mappes av "slaver". 

Også kjører de jo FSD i bakgrunnen og sender tilbake uforutsette ting 

Osv.

Det er nok veldig lenge siden den sendte rådata alene, da de er langt forbi denne delen.

Før i tiden ryktes det at det satt tusenvis av slaver og mappet rådata fra bilene til enhver tid. For en drittjobb!

I tillegg har nok mye av dataen gått til captcha og tilsvarende tjenester.

Lenke til kommentar
Evil-Duck skrev (2 timer siden):

Dette illustrerer vel litt av problemet med tilnærmingen med ren vision baserte sikkerhetssystemer. Vision er avhengig av et datagrunnlag for å forstå hva det er det ser for noe, om det ikke forstår så blir det fort kortslutning, som en ser i videoene som vises her. Med radar systemer så vet bilen bare at det er ett fysisk objekt som er stillestående forran deg innenfor radarens rekkevidde, og vil da kunne gjøre beslutninger uten å lite på ett iliggende datagrunnlag. 

Problemet med radar er at en stort sett bare vet at det er noe forran, men ikke hvor. En bruker så kamera til å plassere objektet. Uten kamera hadde bilene hatt problemer med å passere skilt og annet på siden av bilen da det er så vanskelig å posisjonere eksakt.

Så mye radar data filtreres vekk 

Trestein skrev (6 timer siden):

 

Rent teoretisk burde en autonom bil kunne kjøre i fra enhver rally sjåfør som kjører vinter rally. Data bilen kan beregne alt. Friksjon, maks hastighet ved gitt kurvatur, siste punkt for bremsing med gitt friksjon, hvor langt hopper bilen ved gitt hastighet, maks pådrag før slipp blir over 20% osv osv. Dette bør en FSD tesla klare i dag. Bare å fjerne fartsgrense på kartet og la den kjøre maks. Et menneske burde ikke ha mulighet til å følge den.

Alikevell så tror jeg ikke tesla har data kraft til å prosessere og gi ut styresignal til ratt og motor kjapt nok til å mache en god sjåfør. 

Når det autonome bilen kjører like bra som et bra menneske må man tilpasse den trafikkregler osv. Det kan nok være en større utfordring enn å vinne et rally, for det må man forvente. 

Dette ser en jo enkelt med cruisekontroll. Prøv å ha en radar med deg i bilen og mål avstanden fra bilen foran. Så prøver du det samme selv. Din delta differanse vill være enormt mye høyere.

Autonome race har foregått i årevis, bare å google.

  • Innsiktsfullt 1
Lenke til kommentar
Salvesen. skrev (40 minutter siden):

Problemet med radar er at en stort sett bare vet at det er noe forran, men ikke hvor. En bruker så kamera til å plassere objektet. Uten kamera hadde bilene hatt problemer med å passere skilt og annet på siden av bilen da det er så vanskelig å posisjonere eksakt.

Så mye radar data filtreres vekk 

Dette ser en jo enkelt med cruisekontroll. Prøv å ha en radar med deg i bilen og mål avstanden fra bilen foran. Så prøver du det samme selv. Din delta differanse vill være enormt mye høyere.

Autonome race har foregått i årevis, bare å google.

Autonome race har jeg googlet. Helt latterlig. De klarer det ikke på en racerbane Noe som burde være mye enklere enn rally

 

Her var vi for 15år siden?

https://www.google.com/search?q=driverless+Audi+TTS+to+the+top+of+Pike's+Peak&rls=com.microsoft:nb:&ie=UTF-8&oe=UTF-8&sourceid=ie7&rlz=1I7ADBR_no#fpstate=ive&vld=cid:2ef6c856,vid:Arx8qWx9CFk,st:0

Endret av Trestein
  • Liker 1
Lenke til kommentar
4 hours ago, del_diablo said:

Ville ikke det korrekte være å bygge et steroskopisk bilde av de 3 kameraene som ser fremover, for å så kjøre gjenkjenning? 

Du må matche pixler ved å gjenkjenne objektene først før du kan lage en dybdefelt fra 2d bildene. Om du bommer på matchingen så blir dybdefeltet feil.

3 hours ago, Evil-Duck said:

Dette illustrerer vel litt av problemet med tilnærmingen med ren vision baserte sikkerhetssystemer. Vision er avhengig av et datagrunnlag for å forstå hva det er det ser for noe, om det ikke forstår så blir det fort kortslutning, som en ser i videoene som vises her. Med radar systemer så vet bilen bare at det er ett fysisk objekt som er stillestående forran deg innenfor radarens rekkevidde, og vil da kunne gjøre beslutninger uten å lite på ett iliggende datagrunnlag. 

Radar ser bevegelig objekter, ikke stillestående (eller sagt på en annen måte, det er så mye som er stillestående, f.ex vei, trær o.l. at det ikke er hensiktsmessig å prøve), siden radaren er aktiv er den imidlertid veldig pålitelig siden man ikke er avhengig av noe slags subjektiv/AI basert matching som kan finne på å halisunere. Ekko er ekko.  Det er grunnen til at man vil matche radarens evne til å kartlegge bevegelig objekter med lidarens evne til å skape et presist og pålitelig dybdekart rundt bilen.

En moderne automotive radar på 77GHz (et vanlig frekvensbånd allokert til denne bruken) med en antennestørrelse på 10cm burde kunne nå ca 3 graders oppløsning. Nok til å skille bil fra sykkel (på nært hold) og nok til å se hvilket kjørefelt felt bilen er i, men ikke nok til å skille en stein i veibanen fra veilegemet.

Avstandensmålingen er imidlertid svært nøyaktig. Med 1GHz båndbredde kan man måle avstand på 15cm nøyaktighet.

Så radaren er et uvurdelig verktøy til å vurdere hvor langt en annen bil er om om den drar fra eller nærmer seg og hvor raskt den eventuellt nærmer seg. Slikt et adaptiv CC og kollisjonsunngåelsessystem gjerne trenger.

Men i fravær av lidar må man fortsatt supplere med kamera for å se statiske hindringer (selv om det ikke blir like pålitelig)

3 hours ago, ozone said:

Uten at jeg vet noe som helst om dette, så tviler jeg på at de overfører ren video...

Det er lite annet de kan gjøre. Du har ikke i nærheten av systemytelsen til å kjøre noe som ligner på nevrralnettrening i bilen. Det koster mange magnituder mer enn å kjøre inference.

Mest sannsynlig (og slik de beskrev det for noen år siden) sender de korte klipp av situasjoner som matcher spesifikke kriterier. Sannsynligvis geografisk betinget siden det er objektivt, men kan sikker også tenkes å trigges av matchingkriteria fra nevralnettet, men da er du utsatt for å bite deg selv i halen. (I.e. om du vil forbedre nevralnettet og trenger at det virker tilfredstillende først for å få data du kan forbedre det med, da har du et problem) 

Endret av sverreb
Lenke til kommentar
8 minutes ago, sverreb said:

Du må matche pixler ved å gjenkjenne objektene først før du kan lage en dybdefelt fra 2d bildene. Om du bommer på matchingen så blir dybdefeltet feil.

Pikslene blir vel "feil" å si. Man må matche omrisset, noe som vi si at ved parallakse, så får du automatisk avstanden.
Poenget mitt er at det høres helt tullete ut å kjøre et kjøresystem via monoskopi. Du kan få bort noe av feilkildene med å beregne avstand og retning mellom hvert bilde, men systemet har ingen måte å måle avstand på annet enn å gjette.

Lenke til kommentar
3 minutes ago, del_diablo said:

Pikslene blir vel "feil" å si. Man må matche omrisset, noe som vi si at ved parallakse, så får du automatisk avstanden.
Poenget mitt er at det høres helt tullete ut å kjøre et kjøresystem via monoskopi. Du kan få bort noe av feilkildene med å beregne avstand og retning mellom hvert bilde, men systemet har ingen måte å måle avstand på annet enn å gjette.

Ja, med en gang du vet hvilke to pixler (I.e. vinkelen fra kameraene du vil etablere avstanden til) som viser samme objekt kan du avlede avstanden ved å beregne hvor de to vektorene møtes.

Jeg forstod deg dithen at du mente man skulle kunne gjøre en dybdeanalyse først før du gjorde en matching av bildene.

Lenke til kommentar
Trestein skrev (43 minutter siden):

Autonome race har jeg googlet. Helt latterlig. De klarer det ikke på en racerbane Noe som burde være mye enklere enn rally

 

Her var vi for 15år siden?

https://www.google.com/search?q=driverless+Audi+TTS+to+the+top+of+Pike's+Peak&rls=com.microsoft:nb:&ie=UTF-8&oe=UTF-8&sourceid=ie7&rlz=1I7ADBR_no#fpstate=ive&vld=cid:2ef6c856,vid:Arx8qWx9CFk,st:0

Personlig likte jeg best derpa challenges, de var kule de:)

  • Liker 1
Lenke til kommentar

Er det berre meg eller er ryggelys blitt dårlegare dei siste åra? Er tanken at kamera er gode nok til at dei ikkje treng bruke så mange kroner på ryggelys? Frontlysene er knallbra, men i mørke er det nesten null effekt av ryggelysene. Av og til må eg bremse for å lyse opp med bremselysene. Kamera er eit fint hjelpemiddel, men stort sett føretrekk eg speglane.

Om kamera er litt dekka av skit eller snø så er det nesten rygging i blinde. På Enyaq kan eg spyle ryggekamera, som hjelper godt, men det har ikkje Tesla.

Min erfaring kjem hovedsakleg frå VAG og Tesla, så andre merker kan vere betre.

  • Liker 1
Lenke til kommentar

Samme med leafen. Men det kan eg bare legge foten forsiktig på bremsepedalen uten at bilen får hikke. Da lyser det godt.

Mondeon hadde knallbra lys men den hadde jo ikke ryggekamera så....😅

Tror Volvoen til svigers er ok men x1 fra 24 er spinkelt lys igjen. 

Lenke til kommentar
ozone skrev (20 timer siden):

Uten at jeg vet noe som helst om dette, så tviler jeg på at de overfører ren video...
Tipper det er i form av ferdig "tygd" Ai kode som kan sammenstilles med alle andre sin kode og settes sammen av Teslas superkomputere...

Det er jo en artig sak for Tesla selv tilbyr lite detaljer om hvordan dette foregår og det man får er spekulasjoner og gjetninger.

At Tesla-bilene selv skulle gjøre AI-prosessering og sende et "resyme" til moderskipet høres derimot helt usannsynlig ut. Teslaer har én datamaskin som er Single-Point-of-Failure. Det høres veldig rart ut om den skulle ha kapasitet til å drive med sanntids AI-prosessering samtidig med de utallige andre oppgavene den har som for eksempel "full" selvkjøring og ikke minst jobben med å finne ut om det er regn og sette i gang vindusviskeren.

I tillegg virker det lite optimalt å gjøre dette lokalt. Det er bedre å sende rådata til sentral prosessering. En sentral plattform er lett skalerbar i motsetning til hver enkelt bil og man kan samtidig analysere flere liknende situasjoner fra mange biler. Og hvis disse dataene er så mye verdt som Tesla hevder så skulle det ikke være noe problem å ta kosten med å få overført rådata via 4/5G.

Hvilke supercomputere er det Tesla har? Det har vært snakk om Dojo i mange år uten at det ser ut til å ha materialisert seg. Og de 12 tusen Nvidia H100 chipene som ble bestilt tok Teslas minoritetsaksjonær Elon Musk og sendte til sitt heleide xAI i stedet. xAI har også snappet opp de beste AI-ressursene i Tesla.

Så hva er egentlig igjen under alle fantasiene og spekulasjonene?

Endret av uname -i
  • Liker 2
Lenke til kommentar

Apropos selvkjøring. Jeg hørte på nyhetene i sta at Ruter lanserer selvkjørende drosjer i Groruddalen i Oslo i dag. Finner ikke noen nyhetssak om akkurat dagens lansering, men det er vel disse her det er snakk om:

https://groruddalen.no/nyheter/du-har-sikkert-lagt-merke-til-dem-ruter-tester-selvkjorende-biler-i-groruddalen/

edit: Drosjene vil inntil videre ha en fører ombord selv om de kjører på egenhånd

Saken omtales fra kl. 13:22:10 i direktesendingen på NRK1

Endret av frohmage
  • Liker 1
Lenke til kommentar
uname -i skrev (4 timer siden):

At Tesla-bilene selv skulle gjøre AI-prosessering og sende et "resyme" til moderskipet høres derimot helt usannsynlig ut.  Det høres veldig rart ut om den skulle ha kapasitet til å drive med sanntids AI-prosessering samtidig med de utallige andre oppgavene...

I tillegg virker det lite optimalt å gjøre dette lokalt. Det er bedre å sende rådata til sentral prosessering. En sentral plattform er lett skalerbar i motsetning til hver enkelt bil og man kan samtidig analysere flere liknende situasjoner fra mange biler.

Det du selv antar her, bekrefter jo langt på vei det du siterte meg på, men som du mener "høres helt usannsynlig ut":

Som du selv jo sier, så bedriver jo bilen Ai analyse fra 8 kamera for å styre bilen, "samtidig med alle de andre oppgavene..."
Hva er da lurest: Bare kontinuerlig sende resultatet av denne analysen i ren kodeform? Eller råfilmen fra 8 kamera?

Klart dette må sammenstilles sentralt med alle andre i verden sine data, hos Tesla! Men igjen: Jeg tviler på det innebærer ren video fra 8 kamera fra alle bilene...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...