NTB - digi Skrevet 16. august 2021 Del Skrevet 16. august 2021 Teslas selvkjøringssystem granskes av myndighetene Lenke til kommentar
hekomo Skrevet 16. august 2021 Del Skrevet 16. august 2021 Dette er en veldig merkelig granskning, altså at det kun rettes mot Tesla. At førerassistenter ikke klarer å se stasjonære objekter er en velkjent begrensning: https://arstechnica.com/cars/2020/08/new-cars-can-stay-in-their-lane-but-might-not-stop-for-parked-cars/ Det er ikke bare Teslas systemer som kan bli misbrukt: https://www.teslarati.com/tesla-autopilot-vs-gm-super-cruise-test-video/ Og misbrukt blir de: https://tech.slashdot.org/story/14/08/06/2225223/idiot-leaves-drivers-seat-in-self-driving-infiniti-on-the-highway Så man kan jo lure på hva som ligger bak denne granskningen. Den virker ganske feilrettet og dobbeltmoralsk. 3 Lenke til kommentar
Populært innlegg uname -i Skrevet 16. august 2021 Populært innlegg Del Skrevet 16. august 2021 hekomo skrev (12 minutter siden): Så man kan jo lure på hva som ligger bak denne granskningen. Den virker ganske feilrettet og dobbeltmoralsk. Det som ligger bak granskingen er nok alle dødsulykkkene. 12 4 Lenke til kommentar
Populært innlegg anon_83104 Skrevet 16. august 2021 Populært innlegg Del Skrevet 16. august 2021 (endret) hekomo skrev (25 minutter siden): Dette er en veldig merkelig granskning, altså at det kun rettes mot Tesla. At førerassistenter ikke klarer å se stasjonære objekter er en velkjent begrensning: https://arstechnica.com/cars/2020/08/new-cars-can-stay-in-their-lane-but-might-not-stop-for-parked-cars/ Det er ikke bare Teslas systemer som kan bli misbrukt: https://www.teslarati.com/tesla-autopilot-vs-gm-super-cruise-test-video/ Og misbrukt blir de: https://tech.slashdot.org/story/14/08/06/2225223/idiot-leaves-drivers-seat-in-self-driving-infiniti-on-the-highway Så man kan jo lure på hva som ligger bak denne granskningen. Den virker ganske feilrettet og dobbeltmoralsk. Finner man problemer hos Tesla, så har man presedens for andre saker, noe som er vel så bra for videre granskning av andre produsenter. Man kan ikke forvente at man gransker hver bidige en i det øyeblikket noe blir problematisk. Det henger ikke på greip med virkeligheten. Og det regner jeg med du egentlig forstår. Endret 16. august 2021 av anon_83104 13 Lenke til kommentar
hekomo Skrevet 16. august 2021 Del Skrevet 16. august 2021 uname -i skrev (20 minutter siden): Det som ligger bak granskingen er nok alle dødsulykkkene. Du klipte bort resten av innlegget mitt der jeg påpeker at akkurat det samme skjer med alle andre førerassistenter også. Typisk taktikk der altså. 6 Lenke til kommentar
bojangles Skrevet 16. august 2021 Del Skrevet 16. august 2021 (endret) Bare å vite antallet ulykker i et gitt tidsrom sier vel egentlig veldig lite? Hvor mange kjørte kilometer med assistent er det i samme periode? Og hvor mange ulykker var det under helt analoge forhold der førere uten moderne assistenter kjørte på biler i veikanten med blinkende lys? For en må jo ikke glemme at folk er uoppmerksomme bak rattet de også. Og det skjer dessverre at både politibiler og veiearbeidere blir påkjørt på veiskulder'n fordi noen ikke fulgte godt nok med mens de kjørte. Og jeg tenker tallene her, må stå i en større kontekst før de gir noen som helt mening. Kanskje er 11 ulykker høyt, kanskje er det lavt? Kanskje er det normalt eller unormalt? Artikkelen ga ingen utfyllende info og kanskje burde skribenten ha forsøkt å gravd frem mer info før artikkelen ble publisert? For slik den står nå så føler jeg det blir litt intetsigende. Endret 16. august 2021 av bojangles 5 3 Lenke til kommentar
Populært innlegg DrWatson Skrevet 16. august 2021 Populært innlegg Del Skrevet 16. august 2021 Synes det er forbausende lite fokus på selve kjernen i denne problemstillingen: Selvkjøring på nivå 3 vil aldri fungere, fordi bilen er på nivå 3 og sjåføren oppfører seg som om den er på nivå 4. Det er en grunnleggende menneskelig egenskap å være ekstremt dårlig til å overvåke en automatisk prosess som virker fint mesteparten av tiden. Det eneste logiske her er å forby selvkjøring inntil nivå 4 er tilgjengelig. 21 2 1 Lenke til kommentar
NERVI Skrevet 16. august 2021 Del Skrevet 16. august 2021 (endret) Jeg har inntrykk av at selvkjøremuligheten stadig fremheves i omtalen av Tesla's mange teknologiske fortrinn. Men hvor sannsynlig er det at man selv kjører samtidig som den brukes? De skriver fra seg alt ansvar ved at man ett eller annet sted SKRIVER at man må kjøre selv i tillegg. Endret 16. august 2021 av NERVI 1 Lenke til kommentar
Populært innlegg uname -i Skrevet 16. august 2021 Populært innlegg Del Skrevet 16. august 2021 (endret) DrWatson skrev (32 minutter siden): Synes det er forbausende lite fokus på selve kjernen i denne problemstillingen: Selvkjøring på nivå 3 vil aldri fungere, fordi bilen er på nivå 3 og sjåføren oppfører seg som om den er på nivå 4. Det er en grunnleggende menneskelig egenskap å være ekstremt dårlig til å overvåke en automatisk prosess som virker fint mesteparten av tiden. Det eneste logiske her er å forby selvkjøring inntil nivå 4 er tilgjengelig. Det stemmer, Ikke bare er det åpenbart, men det er også vitenskaplig bevist at man slapper av og blir mindre årvåken når man skal følge med på automatiserte systemer. Men Tesla-kulten tror at man kan nulle ut menneskelig natur med liten skrift i en disclaimer. Derfor må det inn førermonitoreringssystemer som kan si fra og evt. deaktivere systemet om føreren ikke følger med, alt annet er ren og skjær galskap. Elon Musk nektet å innføre noe sånt med den konsekvens at en stor gruppering autopilot-ingeniører sluttet fordi de ikke ville være med på umoralen. Med tid og stunder så vil nok de befinne seg på vitnelisten når Musk sitter på tiltalebenken. Endret 16. august 2021 av uname -i 11 1 Lenke til kommentar
Gjest Slettet-QVZmonLc Skrevet 16. august 2021 Del Skrevet 16. august 2021 Poenget er vel at enkelte synes alt teknologisk er kult, men glemmer det sørgelige faktum at du kan ikke saksøke en computer hvis føreren i en eller annen setning langt nede i kontrakten blir pålagt å ha hendene på rattet og være oppmerksom. Da er det ikke selvkjøring, og alt er kun juridisk ansvarsfraskrivelse. Autopilot/selvkjøring fungerer kun hvis ALT på veien er styrt av computere og veien ikke er tilgjengelig for noe annet, noe det aldri vil bli. Ergo, stans enhver bruk av selvkjøring, det er idioti og galskap. Lenke til kommentar
Stefse Skrevet 16. august 2021 Del Skrevet 16. august 2021 Litt av problemet er mangel på HMI. Bilen gjør noe riktig vs. gjør noe livsfarlig er en litt dårlig "oppløsning" på man-machine interaksjonen. Det bør være overvåking av konfidensnivå på beslutninger som bilen gjør, med forvarsel om hva bilen har tenkt å gjøre, og du kan f.eks trykke gass eller dreie på rattet for å gi tilbakemelding om hva du mener bilen bør gjøre. Kun når dette er på plass vil vi se ekte maskinlæring. 4 Lenke til kommentar
oophus Skrevet 16. august 2021 Del Skrevet 16. august 2021 DrWatson skrev (39 minutter siden): Synes det er forbausende lite fokus på selve kjernen i denne problemstillingen: Selvkjøring på nivå 3 vil aldri fungere, fordi bilen er på nivå 3 og sjåføren oppfører seg som om den er på nivå 4. Det er en grunnleggende menneskelig egenskap å være ekstremt dårlig til å overvåke en automatisk prosess som virker fint mesteparten av tiden. Det eneste logiske her er å forby selvkjøring inntil nivå 4 er tilgjengelig. Jeg regner med du mener fra Nivå 2 til Nivå 3? Så kjapt produsenten tar på seg ansvaret, så setter man automatisk begrensninger for hva som vil være lurt å kastes ut blant folk og ikke. Bilprodusenter er jo veldig klar over tendensen vi har til å suge i å overvåke autonome systemer. Altså må våres tendens til å være dårlige på dette inkluderes i måten ting utvikles på. DMS må inkluderes selv innenfor Nivå 2 assister, spesielt når man blander assister og autonomi hos firma som skal prøve å selge begge deler og omtaler assister som om det klarte mer. Lenke til kommentar
NERVI Skrevet 16. august 2021 Del Skrevet 16. august 2021 (endret) Stefse skrev (14 minutter siden): Litt av problemet er mangel på HMI. Bilen gjør noe riktig vs. gjør noe livsfarlig er en litt dårlig "oppløsning" på man-machine interaksjonen. Det bør være overvåking av konfidensnivå på beslutninger som bilen gjør, med forvarsel om hva bilen har tenkt å gjøre, og du kan f.eks trykke gass eller dreie på rattet for å gi tilbakemelding om hva du mener bilen bør gjøre. Kun når dette er på plass vil vi se ekte maskinlæring. Du er nok inne på noe der, at atonomien ikke har intelligens nok til å forstå situasjoner og handle riktig. Alt må i prinsipp læres, og regnehastigheten må være hurtig nok til å gjenkjenne lignende situasjonsbilde. Her er det en ekstraordinær veimerking med kjegler og lys som er nevnt i forbindelse med ulykker. Det er nok langt fram, og man kan lure på hvor man finner en gevinst. Annet enn i markedsføring og i de forestillingene av nytte de potensielle kjøpere lager seg selv. Endret 16. august 2021 av NERVI 1 Lenke til kommentar
mr. papp Skrevet 16. august 2021 Del Skrevet 16. august 2021 Stefse skrev (19 minutter siden): Litt av problemet er mangel på HMI. Bilen gjør noe riktig vs. gjør noe livsfarlig er en litt dårlig "oppløsning" på man-machine interaksjonen. Det bør være overvåking av konfidensnivå på beslutninger som bilen gjør, med forvarsel om hva bilen har tenkt å gjøre, og du kan f.eks trykke gass eller dreie på rattet for å gi tilbakemelding om hva du mener bilen bør gjøre. Kun når dette er på plass vil vi se ekte maskinlæring. Tesla gjør noe lignende (dvs har litt høyere oppløsning): Hvis den blir litt usikker, varsler den med gult symbol i displayet. Hvis du viser at du "er med" ved å følge på med rattet, går symbolet bort. Det er også lettere å overstyre når symbolet vises, altså mindre motstand på rattet kreves før bilen gir føreren kontrollen tilbake. Hvis bilen er enda mer usikker, er det rødt varsel i displayet, varsellyd og oppbremsing. Er situasjonen av en eller annen grunn "umulig" så er det enda tydeligere varsler, mer lyd og oppbremsing (helt til stans med varselblink på om man ikke tar over). Man kan også alltid trykke på gass for å overstyre/kansellere en fartsreduksjon, men om det er læring i det vet jeg ikke. Har ikke lest noe dokumentasjon på dette, det er basert på egen erfaring. 1 Lenke til kommentar
trikola Skrevet 16. august 2021 Del Skrevet 16. august 2021 (endret) 36 minutes ago, Stefse said: Litt av problemet er mangel på HMI. Bilen gjør noe riktig vs. gjør noe livsfarlig er en litt dårlig "oppløsning" på man-machine interaksjonen. Det bør være overvåking av konfidensnivå på beslutninger som bilen gjør, med forvarsel om hva bilen har tenkt å gjøre, og du kan f.eks trykke gass eller dreie på rattet for å gi tilbakemelding om hva du mener bilen bør gjøre. Kun når dette er på plass vil vi se ekte maskinlæring. Er det ikke det hva 'shadow mode" er - særlig i trafiklys-sammenheng? Automaten er alltid på selv om selvkjøring er av og analyserer hvor automatikkens planlagte aksjon avviker fra førerens og lærer av det. I trafikklys-situasjonen mens selvkjøring foregår, går den en litt annen vei: Bilen viser hva slags lys den registrerer (grønt eller rødt) men forbereder stopp uansett. Om føreren gir 'gass' til tross for rødt eller stopper til tross for grønt analyseres situasjonen og brukes til læring. Endret 16. august 2021 av trikola 1 Lenke til kommentar
Gjest Slettet+6132 Skrevet 16. august 2021 Del Skrevet 16. august 2021 Myndighetene gjør helt rett i å undersøke her. "Selvkjøring" bør ikke tillates (mis)brukt inntil det er 100% sikkert. Og det er det vel ingen produsenter av (el)bil som mener de har klart. Inkludert Tesla. Men her ser vi faren ved å gå litt "høyt ut" og si man har ett system som tillater autopilot aka "selvkjøring". Klart det vil være noen med lite vett eller rett og slett rusproblemer som velger å la bilen kjøre. Da blir det slike tilstander. Lenke til kommentar
Stefse Skrevet 16. august 2021 Del Skrevet 16. august 2021 Tesla har i noen grad varsling, men om det er lærling er tvilsomt, i beste fall meget langsomt. Med unntak av trafikklyset er det stort sett basert på at selvkjøringen må avbrytes og sjåføren overta. Dette logges som at "sjåføren overtok". Utfordringen er at programmering krever at ting er klart definert. Bilen må presentere noen alternativer som føreren kan velge mellom gjennom sin handling. Nå er det nokså binært, overta/ikke overta rattet. Det gir lite rom for læring. Dersom det var sving høyre/venstre 1m, 2m... brems, stans, øk eller oppretthold fart kan bilen lære noe til senere. Et annet alternativ er at bilens algoritme "ser" en MC, søppeldunk eller barnevogn, presenterer dette og at sjåføren kan kvittere av for hva som faktisk står der gjennom en gitt handling. Eller som f.eks i Norge at bilen til stadighet "ser" hindringer over veien, fartgrenser som ikke stemmer eller andre grunner til oppbremsing som ikke er reelle. Bilen må fortelles HVA som er galt, ikke bare at noe er galt. En eller annen hmi hvor brukeren får avgitt sin stemme enten på skjermen eller gjennom ratt eller stalk om hva som er observert, er nøkkelen til maskinlæring. 2 Lenke til kommentar
trikola Skrevet 16. august 2021 Del Skrevet 16. august 2021 Med shadow-mode avgir brukeren sin stemme til maskinen hele tiden under den manuelle kjøringen! Og det uten at det distraherer brukeren ved at den bevisst må svare på maskinens spørsmål. 1 Lenke til kommentar
oophus Skrevet 16. august 2021 Del Skrevet 16. august 2021 (endret) trikola skrev (18 timer siden): Med shadow-mode avgir brukeren sin stemme til maskinen hele tiden under den manuelle kjøringen! Og det uten at det distraherer brukeren ved at den bevisst må svare på maskinens spørsmål. Det finnes ikke noe bevis for at "shadow-mode" gjør bilene bedre lokalt. Det er heller ikke noe bevis, men tvert det motsatte på at mengden data som deles ikke er stort nok for å trenes på fra bilflåten - forutenom AI pixel recognition trening. Brukeren "Green" på twitter er grei å følge sånn sett. Han er Tesla Bull, men lyver ikke om hva han finner ut av angående bilene han undersøker. Det å sjekke om bilen og systemet lærer av seg selv har han avkledd for lenge siden, og det eksisterer jo midt-delere der hele 5 Tesla'er har smelt seg inn i over ei tidshorisont på nesten 3 år. Jeg har også ei tunnel på vei til jobb der Teslaer fremdeles opplever "ghost-bremsning" på 5 året på rad. Det burde ha vært nok data derifra til å lære at den lokasjonen genererer mye falske-positive resultater. Endret 17. august 2021 av oophus 1 Lenke til kommentar
oophus Skrevet 16. august 2021 Del Skrevet 16. august 2021 (endret) En fyr i bransjen angående autonomi som fint forklarer litt problemet, og hvorfor man må forvente at ulykker vil finne sted når man pådriver det han kaller for "autonowashing". Et problem som ikke kun linkes til Tesla, men Tesla er pådriver for å gjøre det mulig om det ikke straffes. For folk som får FUD'hoste av å se overskriften der, så kommer det mye fin skryt dere kan kose dere med også i videoen før fyren lurer dere sakte men sikkert inn i poenget over tid. Er et fint lite "Two Minute Papers" referanse der også. For de som får med seg den. 😆 Endret 16. august 2021 av oophus 2 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå