Cthulhu Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Den selvkjørende bilen mistet bremsene – hvem burde den treffe?Hva skal autobilen gjøre hvis noen må dø? Lenke til kommentar
LMH1 Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Tror heller problemet hva skal bilen gjøre når bilen ikke får kontakt med eieren? F.eks tenk hvis bilen står på parkeringsplass og den risiker å bli tauet vekk. Problemet kan løses enkelt bilen ødlegger seg selv istedenfor å kjøre på personer\dyr. Nå er biler raske, men kan alike vell skje den ikke oppdager svart katt på natten eller noe slik. Slik er det med sjåfører i dag også de kan også gjøre feil, men man prøver vel å ungå mest mulig personskade. Vet ikke om politet blir vaslet i slike tilfeller da bilen kan ikke gi førstehjelp. Lenke til kommentar
Jimster Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Uansett bedre enn ett menneske, som i sin forvirring, frykt og fys i det sekundet det skjer, klarer å sikte midt i mellom å ta knekken på begge alternativer. Det er jo også observert at på et gjorde med bare ett tre, så klarer mennesket å treffe treet. Dette rett og slett for å unngå treet må man fokusere på det, og hjernen blir ofte utrolig primitive greier når den blir stresset. 6 Lenke til kommentar
Kikert Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Tror heller problemet hva skal bilen gjøre når bilen ikke får kontakt med eieren? F.eks tenk hvis bilen står på parkeringsplass og den risiker å bli tauet vekk. Problemet kan løses enkelt bilen ødlegger seg selv istedenfor å kjøre på personer\dyr. Nå er biler raske, men kan alike vell skje den ikke oppdager svart katt på natten eller noe slik. Slik er det med sjåfører i dag også de kan også gjøre feil, men man prøver vel å ungå mest mulig personskade. Vet ikke om politet blir vaslet i slike tilfeller da bilen kan ikke gi førstehjelp. Hva babler du om? Problemet er hvis det ikke er noen måte å unngå å drepe noen. F.eks. at hastighet og svingradius gjør at bilen må treffe noen, linjen med mennesker er bredere enn det bilen klarer å unngå. Dette kan ikke løses enkelt... 5 Lenke til kommentar
Håvard Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Tror heller problemet hva skal bilen gjøre når bilen ikke får kontakt med eieren? F.eks tenk hvis bilen står på parkeringsplass og den risiker å bli tauet vekk. Problemet kan løses enkelt bilen ødlegger seg selv istedenfor å kjøre på personer\dyr. Nå er biler raske, men kan alike vell skje den ikke oppdager svart katt på natten eller noe slik. Slik er det med sjåfører i dag også de kan også gjøre feil, men man prøver vel å ungå mest mulig personskade. Vet ikke om politet blir vaslet i slike tilfeller da bilen kan ikke gi førstehjelp. Men hvis problemet løses ved at bilen ødelegger seg selv i stede for å kjøre på noen, er det ikke sikkert jeg vil kjøpe den bilen. Om jeg hadde kjørt bilen selv kunne jeg nok ha tatt avgjørelsen å krasje i en fjellvegg, og ødelegge bilen og meg selv i stede for en annen person, men å ha en bil som velger om jeg eller noen andre skal dø, uten at jeg får påvirket det, føles helt feil. 3 Lenke til kommentar
RaySoft Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Livet er som regel mer nyansert enn slike dilemmaer legger opp til. Hvis bilen går så fort at man ikke har mulighet til å stoppe har man neppe tid til å ta det moralske valget uansett. Mennesker har som instinkt å prøve å redde seg selv først, så tror ikke bikkja eller tyven skal ha så store forhåpninger. Men tar man utgangspunkt i bildet så har man jo flere valg: Legge bilen hardt til høyre inn i autovernet eller rett til venstre og få en mer direkte kollisjon i autovernet på andre siden av veien, eller kanskje rett inn i bilen ovenfor? Det var bare tre valg som dette dilemmaet ikke gir deg mulighet til. Man kan ikke bare tenke binært i en analog verden. 3 Lenke til kommentar
XmasB Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Ble for dumt allerede i første "test" når man skal ta valget mellom skurker eller andre. Hvordan skal en bil liksom vite hvem som er skurker? Jeg klarer ikke se forskjell på en skurk og en vanlig person. I den virkelige verden ser ikke skurker ut som B-gjengen fra Andeby... Trykket gjennom et par andre scenario og de var like mangelfulle ved å mangle flere alternativer. 4 Lenke til kommentar
tsetsefluen Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Svaret er at bilen må stanse motoren og heller prøve å snurre rundt. Altså fordele kraften på to individer enn å skade ett med stor kraft. Kan jo hende at bilen, bussen eller traileren ikke lar seg stanse så lett så da dukker det opp et nytt problem.. Lenke til kommentar
Kikert Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Ble for dumt allerede i første "test" når man skal ta valget mellom skurker eller andre. Hvordan skal en bil liksom vite hvem som er skurker? Jeg klarer ikke se forskjell på en skurk og en vanlig person. I den virkelige verden ser ikke skurker ut som B-gjengen fra Andeby... Trykket gjennom et par andre scenario og de var like mangelfulle ved å mangle flere alternativer. Det blir ikke noe problem. Implantater i alle mennesker blir en ting og bilen får all info den trenger. Kanskje du ikke har fått med deg utviklingen i samfunnet 4 Lenke til kommentar
Civilix Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Svaret er at bilen må stanse motoren og heller prøve å snurre rundt. Altså fordele kraften på to individer enn å skade ett med stor kraft. Kan jo hende at bilen, bussen eller traileren ikke lar seg stanse så lett så da dukker det opp et nytt problem.. Så bilen skal hvis den ikke klarer å stoppe prøve å finne en større folkemengde så kraften blir fordelt ut over så mange individer som mulig... jeg kan tenke meg en gruppe som skulle ønske at de hadde noen selvkjørende lastebiler av den typen. (...)Hvis bilen går så fort at man ikke har mulighet til å stoppe har man neppe tid til å ta det moralske valget uansett. (...) En menneskestyrt bil har ikke tid, en selvkjørende bil har man veldig lang tid til å avgjøre det moralske valget da det må programmeres før bilen selges. Og det er jo det vi snakker om her, man må ta ett moralsk valg, man må si noe om verdien på menneskeliv, man må diskriminere på noe, og dette er ikke lett men må gjøres. 6 Lenke til kommentar
Serpentbane Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 WoW. Er vel et par år, kanskje mer, siden jeg begynte stille dette spørsmålet på disse forumene, og på andre norske nettside. Responsen har alltid vært at selvkjørende biler uansett er tryggere en menneskelige sjåfører, at ulykkene blir så få at det blir meningsløst og diskutere. Når antallet drepte går så mye ned blir det vist nok et snakk om "the greater good". Vell, det hjelper farlig lite i denne diskusjonen. Og det hjelper farlig lite for de få som rammes når det først skjer. Selv om denne testen fremstår som teit, er ikke poenget bare å gi høyst aktuelle eller tilsynelatende relevante valg i forhold til selvkjørende biler, men for å få oss til å tenke gjennom moralske problemstillinger på et høyere plan i forbindelse med at man må skape en syntetisk moralsk prosess. Og dette er høyst relevant, og kommer etter hvert til å bli enda mer relevant etter hvert som systemer automatiseres. Det er som jeg skrev ikke bare snakk om biler her. I alle scenarioer der slike valg må tas av autonome prosesser må det ligge en logikk i bunnen. Men hopp så til bilene. La oss si at ulykker reduseres med 95%. Ok, supert. Men mennesker vil fremdeles dø i trafikken. Et menneske gjør mange vurderinger delvis på instinkt uten gjennomtanke, og delvis basert på grunnlag av et utsnitt med data samlet inn på kort tid, før det så reagerer med en eller annen fysisk handling. Alle disse prosessene er ofte for trege, upresise og basert på for lite og dårlig analyserte data. Dette kombineres til et utfall forskjellig fra gang. Autonome biler vil reagere langt raskere, og samle inn og analysere data på fantastisk kort tid sammenlignet med oss. Samtidig som denne dataen er mye mer komplett. Bilene vil da kunne gjøre en fysisk reaksjon enda fantastisk mye raskere enn et menneske. Men her kommer dilemmaet inn. Bilen har ingen instinkter eller impulsivitet. Den må analysere og reagere, om og om igjen. Etter som bilen ikke har virkelig intelligens vil disse reaksjonene være forhåndsprogrammert av en tekniker som jobber for et firma. I tilfellene der veien plutselig blokkeres og bilen behøver å bråbremse er ikke dette noe problem. Den bremset kjapt, og gjorde det som var mulig for å forhindre ulykken. Men når sammenstøt ikke kan forhindres ved å bremse, og unnvikelse vil føre til en annen ulykke vil bilen måtte gjøre noen valg. Og disse valgene må være basert på et sett med retningslinjer. Hvem skal definere disse retningslinjene. Hvis fem barn løper ut i veien, skal bilen svinge unna og frontkollidere med en annen bil slik at begge førere kan bli skadd eller drept. Skal den svinge opp på fortauet og drepe den ene personen som går der. Eller skal den bråbremse og håpe på det beste? Man kan si at barna var skyld i ulykken, og dermed burde blitt kjørt ned. Men begge sjåførene og personen på gaten som alle kanskje er godt voksne kunne vurdere det slik at de heller ville ha utsatt seg selv for fare enn å la de barna bli kjørt ned. En bilen burde ofret meg mentalitet. Men om bilen hadde kjørt ned gamlingen på gata, så ville kanskje hans familie reagert på dette. Hvorfor skulle de miste sin ektemann og far på grunn av noen uforsiktige barn? Når man går fra å reagere instinktivt til å reagere etter et mønster får man straks mange dilemma, etter hvert som bilene blir stadig flinkere til å samle inn og analysere data. Hvordan skal en bil tolke hvem som er skyld i ulykken? Skal reaksjonsmønster være kalkulert av skadeomfang, antall drepte eller skadde? Eller hvem de skadde eller drepte kan bli, eksempelvis store eller små skikkelser? Skal den vurdere hvor mange passasjerer den har, og hvem disse er? Skal bilfører kunne legge inn en "ofre meg hvis XXX" funksjon? Man kan fortsette å sette opp tusenvis av dilemma basert på små og store hendelser i trafikken. Spørsmålet blir hvem som skal definere disse, og hvem som er ansvarlige for utfallene. I neste omgang, om en bil har predefinerte handlingsmønster, hvordan kan dette potensielt utnyttes av mennesker med onde hensikter? 3 Lenke til kommentar
Dr.B Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Kynisk sagt, så spiller det vel ingen rolle om bilen velger barnet eller den voksne som går ved siden av hvis den uansett må kjøre ned en av dem? Du velger ikke ut dette selv heller i en nødsituasjon. Etter å ha sett utallige ulykker, så har jeg lagt merke til at overraskende mange bare slipper rattet i det de skjønner det skal skje noe. Ola og Kari Nordmann tar mao ikke rasjonelle valg de heller i en nødsituasjon, fordi de ikke trener på det. Ta et veldig gjenkjennelig eksempel fra kjøreskolen: hvis et dyr løper ut i veien, så skal du styre bak det fordi et dyr sjeldent rygger. De fleste styrer derimot i samme retning som dyret løper. 1 Lenke til kommentar
St. Anders Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Hva skal bilen gjøre om datamaskinen krasjer? Da kan den jo ikke gjøre noe valg hva skjer da? En ting er fysisk krasj der eks strømmen forsvinner, men software feil? Nei er veldig skeptisk. Maskiner som er koblet til nettet er jo også utsatt for angrep, vil produsentene oppdatere de like bra som eks nettbrett og telefoner med android i dag? Selv vil jeg ikke ha en bil som er koblet til nettet og kan få beskjeder utenfra. Beskjeder kan jo sendes over dab også, så fint om radio ikke er koblet til bilen på annen måte en til høyttalerene. 1 Lenke til kommentar
Mr Burns Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Du argumenterer ut fra ett sett med forutsetninger som ikke er reelle. Biler kan ikke ta moralske valg. Det kan heller ikke de som lager algoritmene som skal styre bilen. En bilfører kan heller ikke ta moralske valg i en ulykkessituasjon, pga det har man ikke tid til. Å vurdere en situasjon, evaluere mulige utfall og så bestemme seg for handlinger er rett å slett ikke mulig. Det beste man kan oppnå, teknisk sett, er at bilen reagerer på en måte som minimerer skade på fører og omgivelser. En eller annen form for kunstig intelligens kan nok brukes, men det er ikke mulig å programmere inn reaksjonsmønster for alle tenkelige situasjoner. Antall permutasjoner er rett og slett for stort. Det er overaskende vanskelig for en maskin å skille ut et objekt fra bakgrunnen med optisk kamera, så det er store tekniske begrensninger for hva en selvkjørende bil kan registrere. Hvis det i tillegg skal kalkuleres forventet livslengde på fotgjengere eller passasjerer i møtende bil blir det mer eller mindre umulig. Mennesker vil nok fremdeles bli skadet og dø i ulykker med selvkjørende biler, men når vi vet at mennesker selv er en utløsende faktor vil man reduserer det totale antallet drepte og skadde ved å fjerne den menneskelige faktoren. Uansett hvor mange moralske dilemma man konstruerer så er det fremdeles bare oppkonstruerte hypotetiske problemstillinger, med liten overføringsverdi til det virkelige. Den eneste måten å oppnå null drepte i trafikken er å fjerne trafikken. Inntil videre. 1 Lenke til kommentar
Einar Kristiansen Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Bilen kan ha noen bolter som den skyter rett ned under bilen i asfalten, så den ødelegger asfalten men får bråbremset fortere. Det kan være en mulighet om man ikke har noe andre valg akkurat da. 1 Lenke til kommentar
OddvarM Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Pest eller kolera - Konsekvensetikk eller Pliktetikk 2 Lenke til kommentar
Civilix Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Bilen kan ha noen bolter som den skyter rett ned under bilen i asfalten, så den ødelegger asfalten men får bråbremset fortere. Det kan være en mulighet om man ikke har noe andre valg akkurat da. Ser vi bort i fra faren for at bil velter vil fortsatt for kraftig nedbremsing være en risiko for de inni bilen. 1 Lenke til kommentar
TKongen Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Som andre har sagt er jo testen åpenbart idiotisk med det med skurker og slikt. Jeg tror og disse folka er litt vel glad i dyr. Jeg ser ikke hvordan et dyr skal være mer verdt enn et menneske. De fleste steder i verden hadde folk ikke hat problem med å kjøre over hund istedenfor menneske. Du får ikke 20 års fengsel for å kjøre ned en hund for å si det slik. Jeg ville tro at bilene burde være programmert som menneskene som kjører dem. Som mange har sagt så er jo ikke mennesker så rasjonelle i det øyeblikket de ser det går galt, og mennesker prøver å redde seg selv. Hva vil folk kjøpe av en bil som kjører utfor veien og dreper deg for å redde noen på veien, fremfor en som kjører over de på veien, og redder deg, hvis det er ingen vei utenom? Det er åpenbart hva de fleste vil velge. Og hvis man ser vekk ifra feil så vil jo bilen følge alle regler, så om noen er i veien har de gjort noe galt. Så lenge det kan unngås så skal de selvfølgelig ikke skades likevel, slik det er nå også, men om det ikke kan unngås av en automatisert bil engang så kan du egentlig ikke skylde på bil eller fører. Og helt ærlig, kjør over dyr istedenfor å skade mennesker. Det er ikke rasjonelt å spare dyr over mennesker. Mennesker er verdt mer, og de fleste mennesker spiser dyr daglig. Så ellers blir det vel bare enkel matte da. Dyr over mennesker. Redde deg selv istedenfor å dø selv, og kjøre der minst folk blir skadet. Om folk er gravide eller skurker kan du jo begynne å diskutere moral og etikk på på, men det er jo irrelevant så lenge en bil ikke kan vite det. Og ingen mennesker klarer å se det så raskt heller. 1 Lenke til kommentar
Gjest Slettet+513 Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 La automatiske biler ha nødbrems? Lenke til kommentar
Snickers-is Skrevet 18. januar 2017 Del Skrevet 18. januar 2017 Dette er etter min mening feil måte å se problemstillingen på. I de aller fleste tilfeller der vi tror vi velger mellom to onder eller goder så er det ikke tilfellet. Dette av minst to grunner: 1: For det første er ikke situasjoner binære. Det vil alltid være en mulighet å sikte mellom for eksempe bikja og dama. En situasjon der man kun kan velge mellom foreksempel direkte treff på en person eller en annen person eksisterer ikke i det virkelige liv. 2: For det andre vil man, når man beveger seg mot et individ, også i de aller fleste tilfeller få en reaksjon fra dette individet. For snart 25 år siden var jeg på vei inn i et kryss der en dame med rullator plutselig begynte å krysse gangfeltet på motsatt side av krysset. Jeg forsøkte å bremse men det ga simpelthen ingen effekt grunnet underkjølt regn. Jeg hadde derimot en liten mulighet for å passere foran henne da hun ikke hadde rukket å komme særlig langt ut fra venstre i gangfeltet. Men så hadde det seg slik at den gamle damen oppfattet deler av situasjonen og økte til det som for henne og rullatoren trolig var topphastighet. Det fikk luken jeg hadde til å krympe dramatisk, og en lyktestolpe på fortauskanten gjorde at det eneste trygge måtte være å komme mellom de to hindrene. Det gikk med et nødskrik. Dette er et eksempel på en situasjon der man ikke uten videre kan vite om man vil ha tilstrekkelig med toleranser. Videre må man vurdere underveis fordi de andre involverte begynner å agere ut fra situasjonen. Situasjoner er med andre ord verken binære eller konstante, noe som gjør hele spørsmålsstillingen lite relevant. Man kan ta et eple og etter møtet kan man ta en konfekt eller to. Å få folk til å føle at de velger mellom to alternativer er den klassiske situasjonsfellen man gjerne bruker for å presse frem en beslutning. 2 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå