Gå til innhold

En selvkjørende bil må se som en ugle i mørket og som en ørn i sola – samtidig


Anbefalte innlegg

Pandion skrev (1 minutt siden):

Det er riktig. Arbeidet pågår i ISO TC204/WG14 i samarbeid med SAE J3016 nå, så det er to komiteer å ta hensyn til, men det er ambisjoner at vi skal ha første høringsutkast klart første halvår 2021.

(WG14 definerer i korte trekk hvordan man skal kvalifisere et automatisert kjøretøy på forskjellige nivåer og forskjellige situajsoner)

Ja, i en av paneldebattene (som jeg dessverre ikke finner link til, om du har noen av dem, så del gjerne), så ble det diskutert at definisjonen ikke skal være så fast på ulike "nivå-klare" biler. Altså at man må forvente at bilene kjører inn og ut av ulike soner som fordrer bedre infrastruktur og dermed høyere nivåer for autonomi. Dagens ALKS ved nivå 2 ryktes også å få nye krav, har du noe informasjon der? 

Lenke til kommentar
Videoannonse
Annonse

Det er flere ting som blir endret i overgangen mellom 2/3. Det er blant annet en heftig diskusjon på handover til fører på nivå 2 og 3, hvor man i dag tillater veldig kort tid, noe som ansees trafikkfarlig. Dokumentasjon er verre uten å melde seg inn i en av gruppene, da alt er under ISO eller SAE copyright.

Lenke til kommentar
Pandion skrev (9 minutter siden):

Det er flere ting som blir endret i overgangen mellom 2/3. Det er blant annet en heftig diskusjon på handover til fører på nivå 2 og 3, hvor man i dag tillater veldig kort tid, noe som ansees trafikkfarlig. Dokumentasjon er verre uten å melde seg inn i en av gruppene, da alt er under ISO eller SAE copyright.

Ok, takk. ISO copyrights er det greit å ikke tøyse med ja, de følger godt med. ?

Av det jeg har fått med meg, så snakkes det om å innføre "Black Box" (tilgjengelig sensor-data), samt face/eye-tracking også for ALKS innunder nivå 2, eller det som idag defineres som nivå 2 assists. I tillegg må OTA oppdateringer som justerer slike funksjoner godkjennes og fordres/bevises at er en oppgradering fra tidligere implementasjoner, med muligheter for at tredjeparter må ta testene, om OEM's dokumentasjon ikke er tilstrekkelig?  

Jeg hørte også at OTA som berører dagens bilflåte som ønsker å justere autonome funksjoner, da isåfall må gå igjennom en redefinasjons-prosess for å få ulike eksisterende funksjoner redefinert? Hva er dine tanker om hva som blir svaret rundt denne problemstillingen? Slike problemstillinger har altså blitt diskutert i paneldiskusjoner, så jeg regner med selve informasjonen rundt dem ikke er spesielt farlig å dele, selv om ting ikke er meislet i stein ennå? 

Endret av oophus3do
Lenke til kommentar

black box kan jeg ikke kommentere (...), men OTA kommer inn under homologering som er offentlig. Disse tingene diskuteres i faggruppene under UN ECE WP29, og her har OTA nylig blitt adoptert inn i EU's typegodkjenningsdirektiv slik at det er gjeldende for alle nye biler etter overgangsperioden. 

Du finner en kort oversikt med linker her: https://knowledge-base.connectedautomateddriving.eu/regulation-and-policies/eu-level/

Lenke til kommentar
Pandion skrev (2 timer siden):

Det er ingen sensorer som er perfekte. Alle har sine styrker og svakheter. Radar, IR/LIDAR, ultralyd, kamera kan alle operere på forskjellige frekvensbånd som gir ulik dynamikk, oppløsning, rekkevidde, gjennomtrengelighet av snø/tåke/regn, resistens mot søle og vegstøv, størrelse, monteringskrav og utforming, osv, osv. 
I en ikke-ideell  verden må man da kombinere sensorer slik at de utfyller hverandres svake sider, og gir en høy grad av redundans. Men samtidig må pris og andre ting som vedlikeholdsbehov og kalibrering tas med i beregningen. 
Og dette var bare sensorene. I tillegg kommer behov for støttefunksjoner som høydetaljerte 3d-kart (HDMAP), elektroniske dynamiske trafikkregler ned på nivå for parkeringsplass, en ytterst sterk cybersikkerhet som er interoperabel over hele verden samtidig som den støtter GDPR, osv, osv.

Jeg tror ikke vi som jobber med dette blir arbeidsledige med det første. 

Jeg er forsåvidt enig med deg. Men et kamera er utelukkende negativt, siden det kun klarer å fange opp detaljer når det er perfekte og statiske lysforhold. Så fort det kommer en skygge, vil det måtte velge mellom å kunne se det som befinner seg i skyggen eller det som befinner seg i sollyset (som illustrert i artikkelen). Det er ingen ting et kamera kan, som andre type sensorer ikke kan erstatte mtp autonom kjøring.

 

Eller sagt på en annen måte: det er ikke bilbransjen som kommer til å selge fremtidens kameraer. Bilbransjen kommer ikke til å løse dette med kameraer før kamerabransjen "finner opp hjulet på nytt" hva angår å fange lys.

Lenke til kommentar
Eivind Helle skrev (22 timer siden):

Du kan godt utstyre bilen med et kamera som overgår perfekt syn, men kameraet i sensoren kan ikke velge hvor det skal se. Det har en fast innretning uavhengig av lysforhold. Et menneske vet at man ikke skal se rett mot sola og trenger derfor heller ikke å måtte takle forskjellen mellom direkte sollys og mørke.

Du har altså aldri kjørt bil i de nordlige regioner? Til visse tider står sola i vannrett posisjon av bakkeplan, og når du da kjører i tunnel og sola står rett inn mot åpningen, så er det vel akkurat den situasjonen man kan komme ut for.  Eventuell lys i tunnelen blir oppfattet som ikkeeksisterende, så man har enten å se rett inn i sola, eller se på veggen/bakken/taket som fremstår som sort.

Heldigvis er det bare for en kort stund, og man kan prøve å kompensere ved å bruke solbriller eller holde fingrene foran ansiktet for å blokkere direkte sollys, og håpe man ser veien i åpningen mellom fingrene.

  • Liker 1
Lenke til kommentar
Eivind Helle skrev (På 30.9.2020 den 21.45):

Du kan godt utstyre bilen med et kamera som overgår perfekt syn, men kameraet i sensoren kan ikke velge hvor det skal se. Det har en fast innretning uavhengig av lysforhold. Et menneske vet at man ikke skal se rett mot sola og trenger derfor heller ikke å måtte takle forskjellen mellom direkte sollys og mørke.

Merkelig påstand. Hvis du tenker på skarpsynet så har retina bare skarpsyn i midten av synsfeltet, mens et kamera har skarpsyn over hele bildeflaten.

Når pupillen utvides eller trekkes sammen så gjøres det for hele synsflata samtidig. Det samme skjer når retina tilpasser seg kjemisk til mer lys (lystilvenning) og mindre lys (mørketilvenning). Øyet kan ikke se mer enn ca 1000:1 kontrast i en og samme scene, men kan via pupill og kjemi "flytte" sensitivitetsskalaen fra f.eks nattemørke (0,01-1 lux) til en solskinnsdag på påskefjellet (100 000 lux). Men man ser altså ikke mer enn ca 1000:1 kontrast i samme scene. Det er altså en lignende problemstilling som er for kameraer. Men kameraer kan manipulere lysinnslippet på to måter til: Lukkertid og med "solbrille-filter" for å forklare det folkelig.

Oppsummert: Kameraer kan se ekstrem dynamikk ved hjelp av to kamera med ulike innstillinger eller ett kamera som varierer innstillingene i tid. Øyne kan ikke se ekstrem dynamikk i samme scene, selv om vi har to øyne. Vi trenger lang tid på mørketilvenning eller lystilvenning. Tid man ofte ikke har i trafikken.

Endret av Simen1
  • Innsiktsfullt 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...