Gå til innhold
  
      
  
  
      
  

oophus

Medlemmer
  • Innlegg

    13 795
  • Ble med

  • Besøkte siden sist

  • Dager vunnet

    56

oophus vant dagen sist 3. februar 2021

oophus hadde mest likt innhold!

1 følger

Profile Information

  • Kjønn
    Mann

Nylige profilbesøk

18 382 profilvisninger

oophus sine prestasjoner

11,1k

Nettsamfunnsomdømme

  1. oophus

    Tesla - kaféen

    Hvorfor må det valideres med sann dybdeinformasjon trur du? 😅
  2. oophus

    Tesla - kaféen

    Ville det ikke vært naturlig at de sendte inn søknader for å teste autonome biler i trafikken slik en må i de fleste land da isåfall? Eventuelt forandre den ordlyden for FSD hos DNV? Så poenget er det samme som jeg skrev? Joda, gjør testen dårligere og fokuser kun på den enkleste testen så klarer den nok det.
  3. oophus

    Tesla - kaféen

    Verdien til dataene som den generelle Tesla genererer er nok ikke så stor i forhold til data som hentes inn gjennom disse:
  4. oophus

    Elbil-tråden

    Hvorfor sier du ting som ikke stemmer? Man er ikke avhengig av å mappe ting på forhånd, men når man prater om sikkerhet og autonome biler blant folk og vanlige trafikanter så er det jo en enorm fordel å nettopp mappe på forhånd. Men det er jo ikke noen av sikkerhetssystemene som beror seg på mappingen, alt det der foregår i sanntid. Angående bruk av Lidar for mapping i sanntid, så kan du jo undersøke DARPA Grand Challenge, som gjorde slikt allerede i 2004. Som igjen resulterte i en haug av firma, blant annet Googles selvkjørende satsning. Hele grunnen til at Elon Musk i det hele tatt kjøpte teknologi fra Mobileye.
  5. oophus

    Tesla - kaféen

    Ikke ifølge Tesla selv. Tesla Admits Current ‘Full Self-Driving Beta’ Will Always Be a Level 2 System: Emails Altså er det nokså imponerende som et nivå 2 system, men noe mer enn det vil det nok aldri bli uten store forrandringer. Nei, jeg skrev: "Kameraer ser ikke dybde, du må ekstrapolere dybde gjennom software og bruke veldig mye mer regnekraft og tid på det enn hva du måtte ha gjort med radar/lidar som gir dybdeinformasjon i seg selv. " Litt usikker på hva du mener er feil der. Nei, det kan dem ikke. Du må bruke ganske mye regnekraft for å ekstrapolere ut dybde, og enda mer om den skal være pålitelig. Det er jo nettopp derfor slikt kan lures.
  6. oophus

    Elbil-tråden

    Tipper den bommer enda mer om du legger deg ned og kun fører telefonen fremover, fremfor å "pan'e", slik at det ligner mer på utgangspunktet til en bil.
  7. oophus

    Elbil-tråden

    Trudde du kødda istad. 😅 Men det gir vel liten mening å teste med ToF når en Tesla ikke har det? Altså måle med lys og dens refleksjoner for å finne ut av dybde? Har du ikke en eldre telefon et sted da? Samt legg deg gjerne ned på gulvet og sjekk hvor kjapt alt faller sammen med kun video vs et lite trykk på lasermåleren.
  8. oophus

    Elbil-tråden

    Hehe, ja men først må en jo late som om man står på samme sted som "bilen" da. I dette tilfellet så må jo det være punktet til laseren. Så kan du jo undersøke hvor lang video du trenger før resultatet blir bedre og bedre vs det ene trykket du trenger med laseren i tid. 😊
  9. oophus

    Elbil-tråden

    Det finnes gratis software for det. Bruk f.eks Davinci Resolve. Poenget her er jo å hjelpe deg å forstå hva "software" gjør for å få ut dybdeinformasjon fra et kamera mot hvor billig og pålitelig den informasjonen kommer til deg gjennom laser. Men du kritiserer han basert på detaljer som ikke er viktig. Alle Teslaer inkluderer AEB. AEB er heller ikke noe du må skru på eller av, det er alltids på. Som sagt så kan du pøse på med mer hardware og installere superkomputere i en bil om du vil det, men du vil aldri ha samme hastighet og robusthet i punktskyen som du får fra nesten en million laserskudd i sekundet.
  10. oophus

    Elbil-tråden

    Hehe, ja du tenker på neste generasjons kamera slik som denne? 😅
  11. oophus

    Elbil-tråden

    Men det er jo nettopp det vi vet? Det sier seg selv at Lidar vil gi et resultat som kamerabaserte teknologier alene aldri vil være i nærheten av å kunne gi, nettopp fordi det er et direkte mål mellom bil og objekt, og ikke ren tipping med uviss sikkerhet. Prøv selv. Hent frem lasermåleren din og et kamera, og ta bilde/film fra der du står til veggen du skal måle. Hva må du gjøre for å få ut dybdeinformasjon fra ditt kamera vs hva står det på lasermåleren din angående avstand til det du har målt? For å teste begge teknologiene så kan du jo hente et fysisk målebånd som fasit til slutt.
  12. oophus

    Elbil-tråden

    1. Men det er jo absolutt ingen som diskuterer det siste mot formålet rundt selvkjøring? 2. Software + laser er dog bedre for mange oppgaver enn kun software + kamera om formålet er å mappe topologi for eksempel, eller alt som har med dybde å gjøre. For objektgjenkjenning så er nok KI + kamera kjappere, men ikke bedre om man inkluderer punktskyen til en Lidar på topp igjen. Da får man jo fasit på om objektgjenkjenningen faktisk var korrekt.
  13. oophus

    Elbil-tråden

    Det kunne vært HW versjon 20 og FSD versjon 50 uten at det forandrer grunnprinsippene i måten man får ut en punktsky ut fra kamera på, som jo alltids vil være et problem med sine restriksjoner. Uansett hvor mye regnekraft man kaster på problemet, så vil man ligge langt bak tiden og kraften som trengs for å få et bedre resultat og mer korrekt punktsky fra Lidar. Du hopper glatt over hovedpoenget til videoen. Han forklarer kun grunnprinsippene mellom lidar og kamera, og hvorfor lidar er nødvendig for hovedoppgaven hans. Å mappe ei bergogdalbane som ligger i stummende mørke. Dog samme egenskap viser seg som en morsom ting å vise gjennom bil-testene i tillegg der kamera kan være nok så blind grunnet motlys, tåke, regn, bilde/lerret mm. mot hva man får gjennom lys og refleksjoner som jo Lidar utnytter.
  14. oophus

    Tesla - kaféen

    1. Lett tilgjengelig? Du unngår å svare på det jeg sier gang på gang, han snakker altså om egenskapene til sensorene. Da holder det i massevis å bruke egen bil. 2. Hvorfor det? Han tester og snakker om egenskapene til sensorene. Som sagt så er hovedpoenget i videoen mappingen av en bergogdalbane. Om formålet var å teste ting svært grundig så ville det nok vært bedre å hatt et mye større spekter av tester, men når formålet er å vise samt argumentere for at lidar er verdifult innunder formålet med objektdeteksjon så holder det i massevis å vise de få testene der. Egenskapene til lidar er såpass fordelsaktig at det burde være åpenbart grunnen til at folk flest utnytter dem mot formålet. For Mark Rober som altså laget en video for å vise hvordan han løste problemet med å kunne 3D printe ei bergogdalbane som i utgangspunktet ligger gjemt i mørket, så holdt altså disse testene. Dokka er synlig i punktskyen, det er til og med ei skygge bak den. Igjen så beviser du jo at du ikke har sett videoen?
  15. oophus

    Tesla - kaféen

    1. Fordi det er hans bil slik jeg forstod det, så den er jo lett tilgjengelig? 2. Sluttresultatet hos Tesla etter at man har rådataene fra kameraene er å generere ei punktsky, men det kreves jo en god del på hardware siden å gjøre det, noe som jo er grunnen til at HW3 og nå litt HW4 at de har gått bort fra "redundancy" slik de hadde i starten. Nå må all tilgjengelig kraft være brukt på å løse punktskyen og objektgjengkjenning m.m. Da vil man alltids ha problemet med at det alltids vil være en oppdatering unna fra å løse problemet, selv om problemet er iboende selve teknologien - som jo er hovedpoenget med sammenligningen. Punktskyen fåes tilnærmet gratis gjennom lidaren som man så kan kjøre normale KI oppgaver mot slik man gjør hos "vission only" for "object detection" osv. Luminar bilen har jo også kameraer, så det er ikke slik at man sammenligner lidar mot kameraer, man sammenligner hva lidar gjør for hele systemet. Alle som utnytter lidarer i selvkjørende teknologi inkluderer jo også andre typer sensorer i systemene sine. Så du har ikke sett videoen ennå? Det er jo en test der med nettopp tåke, eller vann? Virker som om du tenker omvendt? Vanndamp, tåke, motlys etc etc er svakhetene til kamera, ikke lidar. Videoen over her viser jo at man ser kanske klart gjennom tåken, mens videoen ikke har særlig å gå på.
×
×
  • Opprett ny...