l0mf0mgl0mbl0og Skrevet 20. april 2019 Del Skrevet 20. april 2019 Øyne: https://illvit.no/mennesket/kroppen/hvor-mange-bilder-kan-oyet-oppfatte-i-sekundet Det har ikke noe med hvor mye vi greier å se, men hvor lite som skal til før hjernen lapper det sammen til bevegelse. Øynenes FPS er MYE høyere. https://www.quora.com/What-is-the-highest-frame-rate-fps-that-can-be-recognized-by-human-perception-At-what-rate-do-we-essentially-stop-noticing-the-difference Lenke til kommentar
oophus Skrevet 20. april 2019 Del Skrevet 20. april 2019 (endret) Kilde? Tror ikke mennesker ser "frames" som et kamera gjør uansett så en sammenligning er tullete. Og det er hvertfall ikke så lavt som 25. Uansett har bilen kameraer der du har overlapp / synsfelt som tilsvarer hvis du snur hodet. Hvorfor trur du vi kom frem til rundt 24-25 "frames per second" når det gjelder diverse standarder for bilder i sekvenser - eller rettere sagt film? Når vi ikke er oppjaget (adrenalin f.eks), så ser vi med rundt 25 bilder i sekundet - avhengig av lysnivået i området vi er i. Med adrenalin så blir dette økt endel, men ikke på langt nær så kjapt som andre dyr med bedre øyne. En falk kan fint fly i 100 km/t gjennom tett skog for eksempel. Synet vårt er egentlig ganske dårlig, siden vi har blodårer og nerver mellom "sensoren" vår og linsen. Så hjernen må bruke tid til å "lappe" dette sammen for å fylle inn til et komplett bilde. Hvis man skal forklare hvor bra øyne vi har, hva skulle vi ha sammenlignet med, om det ikke er bilder-per-sekund? MobilEye valgte også kun kameraer som har vært i gamet i årevis, og som Tesla brukte i AP1. Du får vel joine missi og ringe dem og si at de er heeeelt på villspor "In its fourth and fifth generations, EyeQ® will further support semi and fully autonomous driving, having the bandwidth/throughput to stream and process the full set of surround cameras, radars and LiDARs." https://www.mobileye.com/our-technology/ Det å kun bruke CMOS sensorer for full autonom ferdsel er tøys. Så nei, de har ikke planer om å kun støtte én type sensor i deres systemer nå etterhvert som man når nivå 3,4 og nivå 5 autonom ferdsel. Endret 20. april 2019 av oophus3do Lenke til kommentar
l0mf0mgl0mbl0og Skrevet 21. april 2019 Del Skrevet 21. april 2019 (endret) Hvorfor trur du vi kom frem til rundt 24-25 "frames per second" når det gjelder diverse standarder for bilder i sekvenser - eller rettere sagt film? PGA strømnettet er 50Hz i Europa og det hadde med hvordan CRT-TVer tegnet hver frame og synkronisering. IKKE at øyet og hjernens makspasitet er dette. Når vi ikke er oppjaget (adrenalin f.eks), så ser vi med rundt 25 bilder i sekundet - avhengig av lysnivået i området vi er i. Med adrenalin så blir dette økt endel, men ikke på langt nær så kjapt som andre dyr med bedre øyne. En falk kan fint fly i 100 km/t gjennom tett skog for eksempel. Synet vårt er egentlig ganske dårlig, siden vi har blodårer og nerver mellom "sensoren" vår og linsen. Så hjernen må bruke tid til å "lappe" dette sammen for å fylle inn til et komplett bilde. Hvis man skal forklare hvor bra øyne vi har, hva skulle vi ha sammenlignet med, om det ikke er bilder-per-sekund? Kilde om at 25 er det mennesket maks greier å prosessere? Da er det jo veldig rart at vi trenger høyere refresh rate enn dette, da. https://en.wikipedia.org/wiki/Frame_rate#Human_vision The human visual system can process 10 to 12 images per second and perceive them individually, while higher rates are perceived as motion. - så da vil 13+FPS være nok til å være oppfattet som bevegelig bilde. Men det er ikke dermed sagt at det er max det øyet kan se. Capische? 23.997, 25 FPS osv er nok til dette. "In its fourth and fifth generations, EyeQ[/size]® will further support semi and fully autonomous driving, having the bandwidth/throughput to stream and process the full set of surround cameras, radars and LiDARs."[/size] https://www.mobileye.com/our-technology/ Det å kun bruke CMOS sensorer for full autonom ferdsel er tøys. Så nei, de har ikke planer om å kun støtte én type sensor i deres systemer nå etterhvert som man når nivå 3,4 og nivå 5 autonom ferdsel. Men de bruker altså kun kameraer i sine egne tester. Disse selger løsning til flere produsenter, så hvis disse føler for å bruke LIDAR så er dette støttet. Endret 21. april 2019 av l0mf0mgl0mbl0og Lenke til kommentar
oophus Skrevet 21. april 2019 Del Skrevet 21. april 2019 PGA strømnettet er 50Hz i Europa og det hadde med hvordan CRT-TVer tegnet hver frame og synkronisering. IKKE at øyet og hjernens makspasitet er dette. Du må lese hva du siterer. Jeg sier ikke at 25 FPS er kapasiteten. Dette har jeg gjentatt flere ganger nå. Alt avhenger av lysforhold, samt i hvilken "state" man er i. Om du er stresset og produserer adrenalin, så kan du prosessere flere bilder i sekundet for eksempel. Kilde om at 25 er det mennesket maks greier å prosessere? Da er det jo veldig rart at vi trenger høyere refresh rate enn dette, da. Du sier noe jeg aldri har sagt. Men flott det, at du må generere falske påstander for å redde eget skinn. Les det jeg har sagt på nytt. https://en.wikipedia.org/wiki/Frame_rate#Human_vision The human visual system can process 10 to 12 images per second and perceive them individually, while higher rates are perceived as motion. - så da vil 13+FPS være nok til å være oppfattet som bevegelig bilde. Men det er ikke dermed sagt at det er max det øyet kan se. Capische? 23.997, 25 FPS osv er nok til dette. Forstår du selv hva du leser? Hvor mange er 10 til 12 bilder ganger to øyne? Som sagt, som en generell regel så ser vi 24-25 bilder i sekundet. Men de bruker altså kun kameraer i sine egne tester. Disse selger løsning til flere produsenter, så hvis disse føler for å bruke LIDAR så er dette støttet. CMOS sensorer har en svakhet i dårlig lys blandt annet. Det er helt greit at spesialiseringer dukker opp som selger sin teknolgi, på samme måte som det garantert finnes LIDAR og RADAR "only" firmaer som selger sin løsning. Igjen, det optimale vil være å bruke både CMOS, LIDAR og RADAR pga hver og en teknologi har sine styrker og svakheter. Lenke til kommentar
l0mf0mgl0mbl0og Skrevet 22. april 2019 Del Skrevet 22. april 2019 (endret) Du må lese hva du siterer. Jeg sier ikke at 25 FPS er kapasiteten. Dette har jeg gjentatt flere ganger nå. Alt avhenger av lysforhold, samt i hvilken "state" man er i. Om du er stresset og produserer adrenalin, så kan du prosessere flere bilder i sekundet for eksempel. Litt forskjell på > 1000 og 25... Du ser langt mer enn 25, det bevises jo med at 60FPS oppleves mye jevnere enn 25. Det gjør du uten å ha satt den adrenalinsprøyte i hjertet Du sier noe jeg aldri har sagt. Men flott det, at du må generere falske påstander for å redde eget skinn. Les det jeg har sagt på nytt. Forstår du selv hva du leser? Hvor mange er 10 til 12 bilder ganger to øyne? Som sagt, som en generell regel så ser vi 24-25 bilder i sekundet. Oh boy her må vi inn med teskje: Nei, det gjør vi ikke. Igjen: Det er forskjell på hva som blir presentert og oppfattet som bevegelse og det du faktisk ser. CMOS sensorer har en svakhet i dårlig lys blandt annet. Det er helt greit at spesialiseringer dukker opp som selger sin teknolgi, på samme måte som det garantert finnes LIDAR og RADAR "only" firmaer som selger sin løsning. Igjen, det optimale vil være å bruke både CMOS, LIDAR og RADAR pga hver og en teknologi har sine styrker og svakheter. Jeg mener det er unødvendig, og det mener tydeligvis de største på selvkjøring i *praksis* også akkurat nå. Watch and learn: https://youtu.be/tbgtGQIygZQ?t=1827 Endret 22. april 2019 av l0mf0mgl0mbl0og Lenke til kommentar
oophus Skrevet 23. april 2019 Del Skrevet 23. april 2019 Jeg mener det er unødvendig, og det mener tydeligvis de største på selvkjøring i *praksis* også akkurat nå. Watch and learn: https://youtu.be/tbgtGQIygZQ?t=1827 Fremfor at jeg må se en presentasjon på to og en halv time, så får du heller komme med argumentene til at CMOS sensorer er det eneste man trenger, i alle forhold for å tilby nivå 4 autonom ferdsel. Angående øyet, så får du komme med motstridende bevis og argumenter. Ikke bare si "phøh, tøys!" 1 Lenke til kommentar
l0mf0mgl0mbl0og Skrevet 23. april 2019 Del Skrevet 23. april 2019 Fremfor at jeg må se en presentasjon på to og en halv time, så får du heller komme med argumentene til at CMOS sensorer er det eneste man trenger, i alle forhold for å tilby nivå 4 autonom ferdsel. Jeg hadde timestamp i videoen for å være grei, men det virker som du er intellektuelt lat og ikke gidder å se begrunnelsen servert av Musk og Karpathy på sølvfat. Fordi LIDAR er som å kjøre rullestol når du egentlig kan gå. Du kan lett generere ordentlig dybdekart med SfM (som nevnt tidligere) og masseringsalgoritmer for samme greia. Og du får da en pointcloud som er mer enn god nok. LIDAR er fortsatt dyrt, og kan ikke se gjennom regn (men det kan radar), og kameraer har man allerede. Så det er unødvendig med kompliserende og dyr sensor - smør på flesk. https://www.reddit.com/r/elonmusk/comments/bgc6j9/elon_is_right_anthony_levandowski_agrees_lidar_is/ https://techcrunch.com/2019/04/22/anyone-relying-on-lidar-is-doomed-elon-musk-says Angående øyet, så får du komme med motstridende bevis og argumenter. Ikke bare si "phøh, tøys!" Allerede gjort. read up! Lenke til kommentar
oophus Skrevet 23. april 2019 Del Skrevet 23. april 2019 (endret) Jeg hadde timestamp i videoen for å være grei, men det virker som du er intellektuelt lat og ikke gidder å se begrunnelsen servert av Musk og Karpathy på sølvfat. Fordi LIDAR er som å kjøre rullestol når du egentlig kan gå. Du kan lett generere ordentlig dybdekart med SfM (som nevnt tidligere) og masseringsalgoritmer for samme greia. Og du får da en pointcloud som er mer enn god nok. LIDAR er fortsatt dyrt, og kan ikke se gjennom regn (men det kan radar), og kameraer har man allerede. Så det er unødvendig med kompliserende og dyr sensor - smør på flesk. https://www.reddit.com/r/elonmusk/comments/bgc6j9/elon_is_right_anthony_levandowski_agrees_lidar_is/ https://techcrunch.com/2019/04/22/anyone-relying-on-lidar-is-doomed-elon-musk-says Allerede gjort. read up! Jeg så litt, men orket ikke se resten. CMOS er fremdeles avhengig av sikt. Hva gjør du når det regner tett, er tåke eller snør? Er jo hele poenget det, at de forskjellige sensorene har sine fordeler og ulemper. Det er sikkerhet man må sette høyest her, ikke prisen på sensoren. Men mulig du syns det er greit å kutte hjørner? Angående linkene dine. Jeg bryr meg ikke om meninger. Gi meg resultater. Bevis at det fungerer, forutenom i perfekte forhold. Endret 23. april 2019 av oophus3do 1 Lenke til kommentar
Salvesen. Skrevet 23. april 2019 Del Skrevet 23. april 2019 Jeg så litt, men orket ikke se resten. CMOS er fremdeles avhengig av sikt. Hva gjør du når det regner tett, er tåke eller snør? Er jo hele poenget det, at de forskjellige sensorene har sine fordeler og ulemper. Det er sikkerhet man må sette høyest her, ikke prisen på sensoren. Men mulig du syns det er greit å kutte hjørner? Angående linkene dine. Jeg bryr meg ikke om meninger. Gi meg resultater. Bevis at det fungerer, forutenom i perfekte forhold. Hva gjør du når du ikke har sikt til å kjøre? Lenke til kommentar
l0mf0mgl0mbl0og Skrevet 23. april 2019 Del Skrevet 23. april 2019 Jeg så litt, men orket ikke se resten. CMOS er fremdeles avhengig av sikt. Hva gjør du når det regner tett, er tåke eller snør? Er jo hele poenget det, at de forskjellige sensorene har sine fordeler og ulemper. Det er sikkerhet man må sette høyest her, ikke prisen på sensoren. Men mulig du syns det er greit å kutte hjørner? Angående linkene dine. Jeg bryr meg ikke om meninger. Gi meg resultater. Bevis at det fungerer, forutenom i perfekte forhold. Kamera er mer robust enn LIDAR, og med LIDAR kutter du nettopp hjørner og bruker det som krykke. Uber krasja og drepte selv med LIDAR. Med kamera kan du se ting i regn, men ikke med LIDAR. Da trenger du masse fancy algoritmer for å filtre ut regnet i såfall, og da ble det plutselig masse arbeid igjen gitt! Det er softwaren det står på, og da er det vision man må løse. Hjelper lite med LIDAR når du ikke har løst nøtten med å takle selvkjøring i sin helhet. Du kan også spesielt se intervjuet med Antony Levandowski som har brukt LIDAR før hos Uber. Lenke til kommentar
oophus Skrevet 23. april 2019 Del Skrevet 23. april 2019 Hva gjør du når du ikke har sikt til å kjøre? Hva er argumentet her? En fastmontert sensor kan se bedre i dårlig sikt? 1 Lenke til kommentar
oophus Skrevet 23. april 2019 Del Skrevet 23. april 2019 Kamera er mer robust enn LIDAR, og med LIDAR kutter du nettopp hjørner og bruker det som krykke. Uber krasja og drepte selv med LIDAR. Med kamera kan du se ting i regn, men ikke med LIDAR. Da trenger du masse fancy algoritmer for å filtre ut regnet i såfall, og da ble det plutselig masse arbeid igjen gitt! Det er softwaren det står på, og da er det vision man må løse. Hjelper lite med LIDAR når du ikke har løst nøtten med å takle selvkjøring i sin helhet. Du kan også spesielt se intervjuet med Antony Levandowski som har brukt LIDAR før hos Uber. Det er ingen som argumenterer for at man skal bruke enten eller? Det er kombinasjonen som skaper større sikkerhet i alle aspekter. Om CMOS sensoren sliter med å se grunnet dårlig lys, regn, snø eller tåke, så kan f.eks radar se igjennom problemet og hjelpe prosessoren med å tolke hva som kommer. 1 Lenke til kommentar
Salvesen. Skrevet 23. april 2019 Del Skrevet 23. april 2019 Hva er argumentet her? En fastmontert sensor kan se bedre i dårlig sikt? Argumentet er at dette er ett reelt problem en har i dag også. Har en ikke sikt så stopper en opp, justerer fart osv til en kjører forsvarlig. Samme vill en autonom bil gjøre. Lenke til kommentar
l0mf0mgl0mbl0og Skrevet 23. april 2019 Del Skrevet 23. april 2019 Det er ingen som argumenterer for at man skal bruke enten eller? Det er kombinasjonen som skaper større sikkerhet i alle aspekter. Om CMOS sensoren sliter med å se grunnet dårlig lys, regn, snø eller tåke, så kan f.eks radar se igjennom problemet og hjelpe prosessoren med å tolke hva som kommer. Når det ikke trengs, er det et fordyrende og kompliserende ledd som gjør mer vondt en godt mtp vedlikehold, pris og utvikling. Lenke til kommentar
oophus Skrevet 23. april 2019 Del Skrevet 23. april 2019 Argumentet er at dette er ett reelt problem en har i dag også. Har en ikke sikt så stopper en opp, justerer fart osv til en kjører forsvarlig. Samme vill en autonom bil gjøre. Forskjellen ligger i at en autonom bil blir kodet til å bare stoppe opp. Hvor irriterende vil det ikke være å stå stille, når man personlig vet at man kunne kjørt videre? Jeg har aldri sett en video som viser autonom ferdsel i tett snø, eller tåke - har du? 1 Lenke til kommentar
oophus Skrevet 23. april 2019 Del Skrevet 23. april 2019 Når det ikke trengs, er det et fordyrende og kompliserende ledd som gjør mer vondt en godt mtp vedlikehold, pris og utvikling. Vis bevis på at det ikke trengs. Det du har linket til nå, er ikke godt nok. Perfekte forhold, og gode veier med tydelige markeringer her og der er ikke nok for å bevise at man kun trenger én type sensor. Det viser bare at denne sensoren fungerer ved perfekte forhold. 1 Lenke til kommentar
Salvesen. Skrevet 23. april 2019 Del Skrevet 23. april 2019 Forskjellen ligger i at en autonom bil blir kodet til å bare stoppe opp. Hvor irriterende vil det ikke være å stå stille, når man personlig vet at man kunne kjørt videre? Jeg har aldri sett en video som viser autonom ferdsel i tett snø, eller tåke - har du? Ok, så du har aldri sett en video der dette skjer men du vet hvordan de er programmert? Ser du hvor latterlig denne kommentaren er? Poenget er at om bilen føler seg utrygg vill den stoppe, på samme måte som deg. Når bilene når nivå 5 derimot skal de klare alle situasjoner, altså slike også. Men om vi kommer der, eller når gjenstår jo å se. Lenke til kommentar
l0mf0mgl0mbl0og Skrevet 23. april 2019 Del Skrevet 23. april 2019 Vis bevis på at det ikke trengs. Det du har linket til nå, er ikke godt nok. Perfekte forhold, og gode veier med tydelige markeringer her og der er ikke nok for å bevise at man kun trenger én type sensor. Det viser bare at denne sensoren fungerer ved perfekte forhold. Jeg tror vi runder av her. Det er fortsatt delte meninger om temaet, så vi får se hvem som har rett til slutt. Lenke til kommentar
oophus Skrevet 23. april 2019 Del Skrevet 23. april 2019 Ok, så du har aldri sett en video der dette skjer men du vet hvordan de er programmert? Ser du hvor latterlig denne kommentaren er? Poenget er at om bilen føler seg utrygg vill den stoppe, på samme måte som deg. Når bilene når nivå 5 derimot skal de klare alle situasjoner, altså slike også. Men om vi kommer der, eller når gjenstår jo å se. Hva mener du skjer om systemet mener den ikke har sikt nok til å fortsette? Hva eksakt er latterlig med å poengtere dette? Forskjellen ligger i hvor tidlig den definerer hva som er for dårlig sikt og ikke. Jeg mener mennesket på dette tidspunktet hadde kjørt selv om et autonomt system basert på CMOS sensorer hadde stoppet. Uenig? Isåfall, har du bevis for det motsatte, eller gode argumenter for at et system som på generell basis setter sikkerhet mye høyere enn normalt kan se bedre i dårlig sikt og dermed kjøre? 1 Lenke til kommentar
oophus Skrevet 23. april 2019 Del Skrevet 23. april 2019 Jeg tror vi runder av her. Det er fortsatt delte meninger om temaet, så vi får se hvem som har rett til slutt. Må nok det uten bevis ja. Jeg har fremdeles tru på at en kombinasjon av både lokalisert informasjon og skyen er løsningen å gå, og da gjerne ved bruk av flere typer sensorer. En radar bryr seg ikke om lysforhold. Det gjør en CMOS sensor for eksempel. Lyktestolper og diverse må uansett ha mottagere/sendere for 5G for at det skal kunne rulles ut godt nok, da ser jeg ingen grunn til at disse også i tillegg kan ha sensorer for å hjelpe med autonom ferdsel når regelverk uansett krever at biler må være koblet nettet. 1 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå