Redaksjonen. Skrevet 7. oktober 2021 Del Skrevet 7. oktober 2021 Trekker Uber for retten for rasistisk algoritme Lenke til kommentar
Esteban Dinero Skrevet 7. oktober 2021 Del Skrevet 7. oktober 2021 Så dette er rasisme, begrepet blir stadig mer omfattende. Lenke til kommentar
Wabby Skrevet 8. oktober 2021 Del Skrevet 8. oktober 2021 Når et program er dårlig, så er det rasistisk... Ok. Sannheten er bare at det fungerer ikke som ønskelig, og at de bør tilby alternativ pålogging der ansiktsgjenkjenning ikke er godt nok. 2 Lenke til kommentar
Benny Flaggstang Skrevet 8. oktober 2021 Del Skrevet 8. oktober 2021 (endret) Det store spørsmålet her er om Uber tilbyr alternative måter å verifisere brukere. De sier selv at man kan velge manuell verifisering, men det er mange andre årsaker til at både automatisk og manuell ansiktsgjenkjenning kan feile. Ansiktsgjenkjenning kan være et alternativ, men å ha bare én måte å autentisere på vil være en veldig dårlig administrativ beslutning fra Uber uansett om den er rasistisk eller ikke. Endret 8. oktober 2021 av Benny Flaggstang 1 Lenke til kommentar
Börje Skrevet 9. oktober 2021 Del Skrevet 9. oktober 2021 "Dersom algoritmen ikke kjenner igjen brukeren" står det. En algoritme kjenner ikke igjen noe som helst, en algoritme er et styringsprogram for en datamaskin! I dette tilfellet beregner datamaskinen korrelasjonen (overensstemmelsen) mellom det lagrede bildet og den aktuelle selfien. Hvis ikke den beregnede korrelasjonen er stor nok, blir slutningen at selfien ikke viser samme person som den som vises på det lagrede bldet. Skjer dette for ofte, er det grunn til å sjekke de målingene som ligger til grunn for korrelasjonsberegningen. Lenke til kommentar
Memento scientiam (takk for meg) Skrevet 10. oktober 2021 Del Skrevet 10. oktober 2021 (endret) Selv om selve dataprogrammet ikke er rasistisk, så kan Ubers beslutning om å bruke den være det. Men om ikke selve beslutningen var rasistisk, så kan det fortsatt være rasisme om de unnlater å høre på kritikk, og ikke kompenserer for problemene, men bare om grunnen til at de gjør det, har rasistiske motiv. Uansett om det er rasistisk eller ei, så er det nå likevel diskriminerende mot en viss gruppe personer, og det er ugreit. @Börje Skal du spikke flisen så nærmt i sømmene, kan det også nevnes at det er ganske mange algoritmer inkludert, ikke bare én. Selv om ikke en algoritme kjenner igjen brukeren, så kan programmet det er snakk om, gjøre det (selvfølgelig uten noen bevissthet, men på den måten du beskriver). Så egentlig er det bare feil bruk av ord i setningen (som at flisen skulle ha sømmer). Endret 10. oktober 2021 av Memento scientiam 2 1 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå