Gå til innhold

Burde mennesker bli styrt av kunstig intelligens i fremtiden?


Anbefalte innlegg

Mennesker som blir en leder klarer ikke å sette følelsene sine til side når de tar beslutninger. Uansett hvilken politiske ideologi som styrer et samfunn. Kanskje det er bedre at en super intelligent maskin uten følelser tar beslutningen? Kan vi være på vei til noe sånt?

Endret av ForTheImperium
Lenke til kommentar
Videoannonse
Annonse

Harari skrev om dette i Homo Deus.

Hvis du liker fantasy skriver Bakker på en måte om noe lignende i sin Second Apocalypse serie.

Det korte svaret er «nei, det er ikke en bra idé, og, meget mulig!»

  • Liker 3
  • Hjerte 1
Lenke til kommentar

Per nå er det opp til mennesker hva kunstig intelligens får lov til å lære seg, eller hvilke rammer den må holde seg innenfor, eller hvilken informasjon den får konsumere. Hvis ett slikt fundament gjelder når den skulle bli satt til å 'styre oss', så er det til syvende og sist noen mennesker som kommer til å ha muligheten til å trekke i trådene. Altså alle meninger og agendaer fra disse menneskene ville være overordnet i alle prosesser i den kunstige intelligensen.

Men det er ikke engang sikkert at disse menneskene som kunne trekke i trådene ville være positiv til å la den kunstige intelligensen styre folk, fordi de hadde nok først ønsket at de selv skulle få en rekke unntak av hva vanlige folk måtte gå igjennom.

Dette er en av grunnene til at det er viktig å protestere mot ID merker og/eller mikrochipping av folk, for å f.eks få handle i butikk. Fordi hvis vi kommer til en fremtid der man må ha ett obligatorisk ID merke for å handle mat, så er vi på kanten til å virkelig undertrykke og kontrollere folk med blandt annet AI systemer som kan styre folk, og gjøre unntak for de som har mulighet til å trekke i trådene. I en slik situasjon kan det på mange måter allerede være altfor sent å forandre tilbake.

ID merking/chipping blir allerede i dag, og vil bli 'solgt' til folk som "svært bekvemt, beleilig, tidsbesparende, og nyttig", eller det kan i ytterste fall bli pålagt pågrunn av en 'krise'. Som vi allerede har sett eksempel på.

  • Liker 1
  • Innsiktsfullt 1
Lenke til kommentar

Blir nok chip i haude på alle inna 75 år viss vi ikkje har bomba oss sjølv tilbake til steinalderen før den tid. KI blir den nye frelseren som redder menneskeheten fra seg sjølv... 1000001 1101101 1100101 1101110

Lenke til kommentar
9 hours ago, ForTheImperium said:

Menneskere som er leder klarer ikke å sette følelsene sine til side når de tar beslutninger. Uansett hvilken politiske ideologi som styrer et samfunn. Kanskje det er bedre at en super intelligent maskin uten følelser tar beslutningen? Kan vi være på vei til noe sånt?

Nei og ja.

Det er jo ingen ting som tyder på at de som sitter med makten ønsker å gi i fra seg makten til en eller flere maskiner.

Det som på den annen side kanskje kan regnes som sikkert, det er at de som sitter med makten vil bruke KI til å styre sine undersotter, slik at de kan bruke KI til å opparbeide seg enda mer kontroll over befolkningen ved hjelp av KI.

Hviken posisjon ønsker man da selv å ha, som nikkedukker som blir styrt av KI eller som den som har en god kontroll i forhold til KI og som kanbruke den til å oppnå en forholdvis større grad av personlig frihet?

Er det noen grunn til å tro at verdens makthavere ønsker å gi i tfa seg sin makt til maskiner?

Hvike data vil ellers være bedre egnet som grunndata for å styre en befolkning, enn de data man kan hente inn fra såkalte sosiale media?

Hvilke systemer for kunstig intelligens finnes det i denne verden, som ikke er bygd opp av mennesker, ut i fra et motiv som går på økonomi og makt?

Endret av arne22
  • Innsiktsfullt 1
Lenke til kommentar

Nei, se filmen Ex Machina.  Kunstig intelligens er p.t ikke intelligens, men noe som framstår som intelligens. Om det blir ekte maskinbasert intelligens vil mennesker framstå som ganske meningsløse, forurensende og en fare for planeten -> og trigge overlevelsesmekanismer som en kan anta finnes i all ekte intelligens.

  • Liker 2
  • Innsiktsfullt 1
Lenke til kommentar
Skrevet (endret)

Styringen vil jo i første omgang først og fremst skje gjennomstyring eller påvirkning av innkjøp og forbrukeratferd, slik at man kan styre eller påvirke hvor pengestrømmene går. 

Tilsvarende så vil man kunne bruke KI til å påvirket valgresultatet i politiske valg.

Dette er jo ikke noe som ligger i framtiden, man som kan tas i bruk, og som sannsynligvis har blitt tatt i bruk for lenge siden.

Sosiale media vil jo være et meget bra utgangspunkt for å vite hvordan folk tenker og lar seg påvirke.

Eksempel: https://ai.meta.com/meta-ai/

Verdien i de selskapene som driver med sosiale media vil jo først og framst ligge i de dataene som brukerne har lagt inn, slik at disse så i neste omgang kan brukes som "grunndata" for KI.

Skal man unngå å blistyrt eller påvirket av KI i noe større omfang, så må/bør man sette seg godt inn in i teknologien og hvor data kommer i fra.

Mark Zuckerberg sin intelligens er nok både ekte nok og god nok til å bygge opp en liten formue ved analyse og bruk av brukerdata.

Facebook er nok bare ett enkelt eksempel. Det er nok også andre som ønsker å vinne penger og makt ved bruk av KI. KI og sosiale media, må vel kunne ses på som "to sider av samme sak". Sosiale media skaffer grunndata for å vite "hva folk tenker på", og KI står for "analyse og bruk".

Tidligere så hadde man et "problem", ende til ende kryptering, slik at brukerne kunne sende meldinger til hverandre som ikke kunne analyseres. Nåer dette løst ved at KI for eksempel kan bygges inn i mobiltelefoner, slik at analysen av brukerdata kan skje før kryptering.

KI bygger ikke datasentre på egen hånd. Det er de som tjener penger på KI som gjør det. Det vil være naivt å tro at de som eier KI systemene vil gi i fra seg sin egen makt, til sitt eget KI system.

KI handler jo om å skaffe mer penger og mer makt til de som eier og bruker KI systemene.

KI er ikke en "speiderbevegelse" men "big business".

KI setter jo heller ikke følelser til side. Det forholder seg jo tvert i mot at hvis man analyserer grunndata godt nok, så kan man appelere til følelser, slik at man får solgt flere vaskemaskiner, flere biler, hentet inn flere stemmer til parti A, osv.

Når grunndata for en "large language model" er basert på følelser, vil ikke også det som kommer ut av den også ha noe med følelser å gjøre?

Endret av arne22
  • Innsiktsfullt 1
Lenke til kommentar
On 30.6.2024 at 1:33 AM, Selfuniverse said:

Dette er en av grunnene til at det er viktig å protestere mot ID merker og/eller mikrochipping av folk, for å f.eks få handle i butikk. Fordi hvis vi kommer til en fremtid der man må ha ett obligatorisk ID merke for å handle mat, så er vi på kanten til å virkelig undertrykke og kontrollere folk med blandt annet AI systemer som kan styre folk, og gjøre unntak for de som har mulighet til å trekke i trådene. I en slik situasjon kan det på mange måter allerede være altfor sent å forandre tilbake.

ID merking/chipping blir allerede i dag, og vil bli 'solgt' til folk som "svært bekvemt, beleilig, tidsbesparende, og nyttig", ---eller det kan i ytterste fall bli pålagt pågrunn av en 'krise'. Som vi allerede har sett eksempel på.---

Jeg og flere andre her har påpekt faren med ID merking I forhold til KI.

mener statsministeren vår Jonas Gahr Støre i sterke ordelag noe som kan bli oppfattet som en krise, selv om han ikke sier det rett ut.

Krise: Barn blir utsatt for skadelig innhold på sosiale medier.

Løsning: Obligatorisk elektronisk ID merking. Og forbud.

Det er veldig gode poenger i artikkelen.

Støre sier:

Quote

Det er jo vold, drap, scener og innhold som normalt er forbudt å eksponere barn for.

Vold og drap blir luket ut og slettet rimelig raskt på alle sosiale medier så langt jeg vet ihvertfall. Og her kan nok også KI bli brukt på plattformene etterhvert for å fjerne slikt enda fortere.

Jonas Gahr Støre vil at elektronisk ID merking skal bli sett på som den beste løsningen, og at forbud er veien å gå. Det som blir resultatet er at alle voksne trenger ID merking/verifisering/biometri scanning for å være i stand til å bruke internett/SoMe. Og det kan dessverre også da bli utvidet til andre områder med nye <<kriser>>, og satt i sammenheng med denne trådens tema.

  • Liker 1
Lenke til kommentar
Skrevet (endret)
32 minutes ago, Selfuniverse said:

Løsning: Obligatorisk elektronisk ID merking. Og forbud.

For å håndheve dette i praksis så vil det jo kreve et totalitært kontrollregime som setter de fleste andre totalitære regimer i skyggen.

Det fleste sosiale medier har jo sitt opphav i utlandet. Til og med diskusjon.no sprer jo sitt budskap via amerikanske servere.

Hvordan skulle et system med å bruke BankID for å nå ut til utenlandske webservere fungere i praksis?  

Hva med å begynne med å stenge de sosiale mediene ute fra skolenettverkene? (Det ville i alle fall være en symbolsk handling som vil måtte omgås vha mobiltelefon og 4G/5G hotspot.)

Endret av arne22
  • Liker 1
Lenke til kommentar
On 29.6.2024 at 10:43 PM, Feynman said:

A COMPUTER CAN NEVER BE HELD ACCOUNTABLE

THEREFORE A COMPUTER MUST NEVER MAKE A MANAGEMENT DECISION

Samme logikk gjelder for politiske beslutninger. Så, veldig dårlig idé.

Hva når hvis man overfører den samme vurderingen over på politikere som har skaffet seg kontroll i autoritære systemer?

Holder vi politikere ansvarlig?

Vi hører nå at Trump i begrenset grad kan holdes ansvarlig, i det som i utgangspunktet er et relativt demokratisk og ikke autoritært system. Putin, Xi, Trump, Netanyahu, Haniyeh kan heller ikke i praksis holdes ansvarlig, som Hitler og Stalin heller ikke ble det. Og før vi etter voldelige revolusjoner stablet noen mer demokratiske systemer på beina, hadde vi i flere hundre år, om ikke tusen, eneveldige konger som aldri ble holdt ansvarlig i sin livstid.

Politikere vil bryte disse spillereglene så snart de har nok indre motivasjon eller sentralisert makt. Det er et sørgelig, observerbart og allerede observert faktum. Selv lederne i de største landene i verden, som allerede har størst makt i verden, viser seg gang på gang å ha enda større personlige ambisjoner enn å komme i den stillingen.

Dette handler ikke om mennesker mot algoritmer, men om politiske systemer. Når avgjørelser skal tas, skal disse i utgangspunktet tas innenfor et sett med allment aksepterte spilleregler. Når vi snart får på plass gode AI-verktøy, så kan man begynne å lage støtteverktøy som bygger under at man overholder spillereglene. Det er i AIs natur å holde seg innenfor regler og rammer. Det er ikke i politikeres natur.

Vi har et system der vi velger våre representanter på kriteriet popularitet og evne til å få andre til å virke dumme, mens de selv ikke nødvendigvis følger folkets vilje.

Nei, vi bør ikke la AI styre oss. Men vi skal heller ikke gi fra oss styringen til politikere som ikke vil gi den tilbake, eller følger politisk bias eller egen vilje når fakta blir presentert for dem og peker i en annen retning.

Vi bør lage oss systemer der politikere ikke har lov og mulighet til å gå utover sine mandater. Der feil i systemet skal rettes, ikke utnyttes, og der politikerne ikke selv får fritt bestemme sine rammer og når de skal bryte dem.

Og vi bør lage oss systemer som viser politikerne konsekvensene av hver avgjørelse og sier ifra til politikerne og til alle andre når politikerne tar avgjørelser som ikke er til vårt felles beste, men er i egeninteresse.

Til dette bør vi lage oss både ledelsesstøttesystemer og kontrollsystemer, og integrere krav til slike i statsformen.
Der AI er et viktig virkemiddel for;
1) å finne og utbrodere handlingsalternativene,
2) å informere og forklare dem til befolkningen, og
3) å kontrollere og irettesette umoralske beslutninger, uetiske beslutninger, og automatisk slå inn, blokkere beslutninger som går utover politikerenes mandat, og kommunisere disse til befolkningen.

Så må det diskuteres opp og ned om "hvem skal utforme algoritmene". Selv det å få på plass god ledelsesstøtte er vanskelig etisk. Det er naturligvis utfordrende å skape et system helt uten at noen får makt over det.

Men det problemet har vi allerede i dag, og i dag bruker vi en fireårlig populæritetskonkurranse til å velge ut hvem som skal vurdere disse moralske og etiske spørsmålene. Det burde ikke være en missekonkurranse der de som vekker mest harme blir plukket ut til å forandre lovverk og styringsform.

Å endre maktstrukturen i dagens samfunn overlates av det kollektive samfunnet til de individene som har jobbet aller hardest for å skaffe seg selv politisk makt. Det er feil måte å rekruttere på.

Dagens system fungerer dårlig i dagens verden, fordi de er bygget i en tid der det ville tatt år å gjøre omveltninger, mens bare på noen dager kan man skape en opinion som overfører makt til en organisasjon som ikke har gode intensjoner eller for den saks skyld evner.

Så jeg kan tenke meg at vi skalerer ned i hvor stor grad politikerne får bestemme fritt, innfører krav til at de bruker ledelsesstøtteverktøy til å se konsekvensene av det de beslutter, krav til at disse konsekvensene synliggjøres til befolkningen, og at vi i større grad velger politisk retning på sak og i mindre grad velger individer fra lister av debattanter og kjendiser til å styre.

 

  • Innsiktsfullt 1
Lenke til kommentar
53 minutes ago, tommyb said:

Hva når hvis man overfører den samme vurderingen over på politikere som har skaffet seg kontroll i autoritære systemer?

Holder vi politikere ansvarlig?

...

Det er i hvert fall mulig, i motsetning til en datamaskin.

  • Liker 2
Lenke til kommentar
Skrevet (endret)
18 minutes ago, Feynman said:

Det er i hvert fall mulig, i motsetning til en datamaskin.

Bare dersom politikeren mister makten, og etter mye menneskelig lidelse.
Det trengs mindre vold for å slå av en datamaskin som ikke følger sine instruksjoner.

Men så var da heller ikke forslaget mitt at datamaskiner skal kunne gjøre avgjørelser av typen som man må holdes ansvarlig for. Det var at mennesker skal holdes ansvarlig dersom de ignorerer informasjon om konsekvensene av handlingene. At AI kan brukes til å gi bedre beslutningsgrunnlag, til å avdekke når man bryter sitt mandat, og til å informere befolkningen om hva beslutningene betyr. At politikere får mindre handlingsrom til å begå beslutninger utenfor mandat, og mindre mandat til å begå kriminelle beslutninger eller overføre mer makt til seg selv. Og at valgformen er mer rettet mot politiske retninger og mindre fokusert rundt person og belønning av evne til å skape misnøye.

Jeg sier at AI kan hjelpe til med å finne bedre beslutninger. Ikke at AI skal gjøre dem. Jeg sier også at AI kan bli en integrert del av styringssystemet. Ikke at det skal styre.

 

Endret av tommyb
Lenke til kommentar
18 minutes ago, tommyb said:

Bare dersom politikeren mister makten, og etter mye menneskelig lidelse.
Det trengs mindre vold for å slå av en datamaskin som ikke følger sine instruksjoner.

Da er ikke lenger mennesker styrt av kunstig intelligens, som er topic.

Quote

Jeg sier at AI kan hjelpe til med å finne bedre beslutninger. Ikke at AI skal gjøre dem. Jeg sier også at AI kan bli en integrert del av styringssystemet. Ikke at det skal styre.

Beslutningsstøtte er en annen ting, der kan KI være nyttig. Det har dog den ulempen at om man ber om svar på noe kan det være vanskelig å vite akkurat hvor algoritmen kom frem til konklusjonen. Dette er viktig å være klar over, ingen må ta belutninger bare fordi "datamaskinen sa det". 
(Ser dessverre ut til å skje ofte, selv uten AI - ref "Computer says no", Little Britain)

  • Liker 1
Lenke til kommentar
ForTheImperium skrev (På 29.6.2024 den 10:13 PM):

Mennesker som blir en leder klarer ikke å sette følelsene sine til side når de tar beslutninger. Uansett hvilken politiske ideologi som styrer et samfunn. Kanskje det er bedre at en super intelligent maskin uten følelser tar beslutningen? Kan vi være på vei til noe sånt?

Pur logikk sett fra en maskin sitt ståsted?

Det kan fort bli skummelt for og si det pent, er mange problemer som kan løses raskt  hvis man bruker logikk uten hensyn til og løs endel samfunnsproblemer. Eller hvordan ser du det for deg?

At mennesker har ett så stort selvbilde at vi tror en kunstig intelligens vil være en videreføring av vår intelligens er lite logisk. Maskinen vil ha en intelligens basert på sitt verdensbilde, dog er vi ganske langt unna generell kunstig intelligens pr dd.

  • Liker 1
Lenke til kommentar
1 hour ago, Feynman said:

Da er ikke lenger mennesker styrt av kunstig intelligens, som er topic.

Beslutningsstøtte er en annen ting, der kan KI være nyttig. Det har dog den ulempen at om man ber om svar på noe kan det være vanskelig å vite akkurat hvor algoritmen kom frem til konklusjonen. Dette er viktig å være klar over, ingen må ta belutninger bare fordi "datamaskinen sa det". 
(Ser dessverre ut til å skje ofte, selv uten AI - ref "Computer says no", Little Britain)

Jepp. Så var jo da også svaret mitt dette, at nei; mennesker ikke burde styres av kunstig intelligens, men at vi bør bygge opp beslutningsstøtte, kontrollsystemer og åpenhet rundt politikernes beslutninger. Da snakker jeg om en kombinasjon av AI-støtte og selve det politiske systemet. Og jeg nevnte vel også at det igjen er vanskelig og viktig å kontrollere og styre mot at disse støtte- og kontrollsystemene ikke skal bli en ny vei til indirekte makt.

Så, hvis jeg påpekte de samme utfordringene som deg er vi kanskje enige et stykke på vei?

Lenke til kommentar
Skrevet (endret)
1 hour ago, agvg said:

At mennesker har ett så stort selvbilde at vi tror en kunstig intelligens vil være en videreføring av vår intelligens er lite logisk. Maskinen vil ha en intelligens basert på sitt verdensbilde, dog er vi ganske langt unna generell kunstig intelligens pr dd.

Nå forholder det seg vel slik at at svarene fra "large language models" bare gir et oppkok av de dataene som er brukt til å trene den, altså svar som allerede er skrevet av mennesker. Dataene som ChatGPT "Generative Pretrained Tranformer" er data som den het hentet inn fra Internett. Den som eier og kontrolerer systemet for KI kan også styre hvordan de ulike alterative svaralternativene skal vektlegges. Svarene fra KI systemer vil jo sånn sett aldri kunne regnes å være være "nøytrale". Gjennom å eie og kontrollere systemene for KI så kan eieren av KI bestemme hvordan brukerne av systemene skal oppfatte virkeligheten.

Har dette ellers noe med "intelligens" å gjøre i det hele tatt?

Hvordan kan man oppfatte "large language models" som noe annet enn et slags "oppkok" av det som mange forskjellige mennesker allerede har skrevet? Hvis "large language models" ikke fungerer på denne måten, hvordan er det da de fungerer?

Kvis jeg klipper ut og setter sammen noen setninger fra Shakespeare, Hamsund og Ibsen, er jeg da en stor forfatter med en stor innsikt psykologi og samfunnsforhold?

Hvis et KI eller AI system skulle inneholde noen form for "fornuft", hvordan skulle det da være bygd opp, og hvordan skulle det fungere? Finnes det noen teknisk eller kvalitativ beskrivelse av et slikt system?

Endret av arne22
  • Hjerte 1
Lenke til kommentar

I likhet med hvordan jeg ikke ville brukt en LLM som erstatning for f.eks. Watson i helsesammenheng, ville jeg ikke brukt en LLM som støtteverktøy eller hovedverktøy for politisk styring. Feil verktøy for oppgaven. Når vi her snakker om AI, antar jeg vi snakker om noe som er bygd for analyse av historiske datasett, ikke noe som er bygd for å etterape en samtale.

De politikerne vi har nå har allerede vist at politisk ledelse helst bør gå forbi perfeksjonering av taleevner.

  • Innsiktsfullt 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...