Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

OpenAI/AGI


Anbefalte innlegg

Jeg er litt interessert i å høre hva dere andre tenker om AGI/AI. Flere her har vel allerede testet Chatgpt3.5/4 eller i alle fall lest om det på ulike plattformer. 

Jeg selv er litt bekymret, men håper jeg kan for lite om teknologien så frykten bunner i mangel på kompetanse.

Jeg frykter bla å måtte finne meg et annet yrke etter hvert. Jeg jobber i dag som programvareutvikler (jr). 
Skal man tro på denne artikkelen, så ser det veldig dystert ut, og det veldig raskt.

https://levelup.gitconnected.com/chatgpt-will-replace-programmers-within-10-years-91e5b3bd3676?gi=642a47768d5f

Jeg har ingen vansker med å forestille meg at AI'en kan etterhvert scanne et Github repo og be den fikse bug A,B,C og implementere feature X,Y,Z.

Eller at den vil klare å lage hele applikasjoner basert på brukerhistorier, og deretter deploye seg selv via en pipeline eller liknende. 

Dette er det ene aspektet som skaper litt hodebry for min egen del. Det andre aspektet er muligheten til å kunne utføre handlinger som kan få uante konsekvenser.

Det er allerede eksempler på mindre alvorlige svindelsaker vha deepfakes https://tv.vg.no/video/261699/tusenvis-svindlet-av-kunstig-intelligens-skremmende?utm_source=vgfront&utm_content=vg-widget-latest&utm_campaign=overlay-main-ios&fbclid=IwAR0Wik21E_OnelSf0xuhF_OriHOjZ3w6CECx_Xu79gZ6HUWNwH5vkj12zhE

 

Dersom man spinner videre på dette, så er det ikke vanskelig å se for seg et scenario hvor deepfakes kan være med å påvirke geopolitikk og skape potensielt farlige situasjoner. Tenkt eksempel: en gruppe hackere lager deepfakes av høytstående politikere (Biden, Putin m.fler) og hacker seg inn hos ulike TV-kanaler og får spilt av deepfaken. Mulig dette høres sci-fi ut, men Sam Altman (CEO OpenAI) er inne på tematikken i en podcast han deltok i (geopolitikk og AI). Andre som vil belyse/problematisere? ønsker alle innspill varmt velkommen. 

 


 

edit: se også https://www.tek.no/nyheter/nyhet/i/wAVGgA/eksperter-advarer-ber-om-pause-i-utviklingen-av-kraftig-ai

Endret av iblazeqt
Lenke til kommentar
Videoannonse
Annonse

Jeg har hatt lyst til å lage en slik tråd lenge, men fikk ikke somlet meg til å gjøre det. Så, takk for det. :) 

Ny teknologi er spennende og gir nye muligheter. Når det gjelder kunstig intelligens syns jeg utviklingen her går litt fortere enn vi klarer å henge med. Vi er allerede der at studenter og skoleelever tar det i bruk og leverer oppgaver som er basert på noe en maskin har skrevet. 

Som Knut Faldbakken har oppdaget, så kan man absolutt ikke stole på disse verktøyene i faktaspørsmål. 

(hvis artikkelen er bak betalingsmur; barnebarnet til Faldbakken spurte ChatGPT om "hvem er Knut Faldbakken?". Svaret er langt, og fullt av faktafeil).

I og for seg ikke noen stor sak. Problemet slik jeg ser det er at disse maskingenererte tekstene er så overbevisende skrevet. Om man ikke har den nødvendige bakgrunnskunnskapen klarer man ikke å se at "faktaene" som presenteres ikke stemmer. Det kan gjentas til det kjedsommelige at tekstene ikke må tas for god fisk, men at det må sjekkes og kvalitetssikres av brukeren. 

Folk kommer ikke til å gjøre det. Folk gjør ikke det. 

Det underleggende, store problemet er hvis vi slutter å lære. Hvis vi slutter å søke ny kunnskap, men heller stoler blindt på hva disse verktøyene forteller oss. Det vil alltid være noen som lærer ting på gamlemåten, men hvis massene begynner å lene seg på kunstig intelligens i stedet for å gjøre jobben med å finne ut av ting selv, da kan det bli veldig stygt veldig fort. 

Se for dere en politisk bevegelse som har "funnet ut" et eller annet (som egentlig ikke stemmer!), argumenterer overbevisende for det og får presset gjennom en lovendring. Basert på feil grunnlag.

iblazeqt skrev (49 minutter siden):

Det andre aspektet er muligheten til å kunne utføre handlinger som kan få uante konsekvenser.

For ikke så lenge siden var det noen som la ut et bilde av Donald Trump som så ut til å løpe fra en flokk politifolk. Ved første øyekast så det tilforlatelig ut, om enn en ganske pussig situasjon. Nylig var det noe spekulasjon i media om at DT kom til å bli arrestert på en gitt dato, og bildet var sikkert laget i forbindelse med det. 

Bildet var jo bare tull. Laget i en bildegenerator der stikkordene var noe sånt som "fotorealistisk bilde av Donald Trump som løper fra politifolk". Om man begynte å inspisere bildet nærmere så man fort uregelmessigheter og kunne avsløre det som juks. 

Men, da er vi tilbake til dette med å gjøre jobben selv. Kildekritikk. Til nå har jeg vært såpass naiv (?) at jeg stoler på at hvis Aftenposten, BBC eller andre større medier legger ut et bilde, så er det faktisk reelt. Skal denne utviklingen fortsette i den farten vi har nå, så legger vi egentlig opp til at man selv bør faktasjekke og gjøre bildesøk på alt man leser på nett. Alltid. 

Halvparten av brukerne på nett klarer ikke det. De fleste i den andre halvparten gidder ikke. Det gir gode vilkår for folk som vil manipulere andre for å få viljen sin, eller bare lage kvalm.

iblazeqt skrev (54 minutter siden):

deepfakes kan være med å påvirke geopolitikk og skape potensielt farlige situasjoner. Tenkt eksempel: en gruppe hackere lager deepfakes av høytstående politikere (Biden, Putin m.fler) og hacker seg inn hos ulike TV-kanaler og får spilt av deepfaken.

Dette er dritskummelt. Jeg har vist til en video av "Boris Johnson" tidligere (link). Eksempevideoen er overdrevet og åpenlyst ikke sann, men det viser hvor lett dette tydeligvis kan gjøres. Hvis noen lager en deepfake av et møte mellom høytstående politikere og dikter opp et eller annet scenarie, hvem vet hva som kan skje. Uro i befolkningen og påfølgende opptøyer? Andre land ruster opp militært? Handelsblokader? 

 

Slik jeg ser tillit mellom mennesker noe av det absolutt viktigste vi har i samfunnet. Alt vi gjør bunner i at vi stoler på andre mennesker. "Fake news", løgn og oppspinn har allerede for stor plass. Jeg er ordentlig bekymret for at folk med enten onde hensikter, eller bare seriøst dårlig sans for humor og manglende evne til å tenke gjennom hva man setter i gang, skal misbruke teknologien med kunstig intelligens og skape uro.

Nå er jeg pessimist av natur, men jeg skulle gjerne sett at denne teknologien ble bremset noe. Jeg liker ikke utviklingen nå.

  • Liker 1
Lenke til kommentar
:utakt skrev (44 minutter siden):

Jeg har hatt lyst til å lage en slik tråd lenge, men fikk ikke somlet meg til å gjøre det. Så, takk for det. :) 

Ny teknologi er spennende og gir nye muligheter. Når det gjelder kunstig intelligens syns jeg utviklingen her går litt fortere enn vi klarer å henge med. Vi er allerede der at studenter og skoleelever tar det i bruk og leverer oppgaver som er basert på noe en maskin har skrevet. 

Som Knut Faldbakken har oppdaget, så kan man absolutt ikke stole på disse verktøyene i faktaspørsmål. 

(hvis artikkelen er bak betalingsmur; barnebarnet til Faldbakken spurte ChatGPT om "hvem er Knut Faldbakken?". Svaret er langt, og fullt av faktafeil).

I og for seg ikke noen stor sak. Problemet slik jeg ser det er at disse maskingenererte tekstene er så overbevisende skrevet. Om man ikke har den nødvendige bakgrunnskunnskapen klarer man ikke å se at "faktaene" som presenteres ikke stemmer. Det kan gjentas til det kjedsommelige at tekstene ikke må tas for god fisk, men at det må sjekkes og kvalitetssikres av brukeren. 

Folk kommer ikke til å gjøre det. Folk gjør ikke det. 

Det underleggende, store problemet er hvis vi slutter å lære. Hvis vi slutter å søke ny kunnskap, men heller stoler blindt på hva disse verktøyene forteller oss. Det vil alltid være noen som lærer ting på gamlemåten, men hvis massene begynner å lene seg på kunstig intelligens i stedet for å gjøre jobben med å finne ut av ting selv, da kan det bli veldig stygt veldig fort. 

Se for dere en politisk bevegelse som har "funnet ut" et eller annet (som egentlig ikke stemmer!), argumenterer overbevisende for det og får presset gjennom en lovendring. Basert på feil grunnlag.

For ikke så lenge siden var det noen som la ut et bilde av Donald Trump som så ut til å løpe fra en flokk politifolk. Ved første øyekast så det tilforlatelig ut, om enn en ganske pussig situasjon. Nylig var det noe spekulasjon i media om at DT kom til å bli arrestert på en gitt dato, og bildet var sikkert laget i forbindelse med det. 

Bildet var jo bare tull. Laget i en bildegenerator der stikkordene var noe sånt som "fotorealistisk bilde av Donald Trump som løper fra politifolk". Om man begynte å inspisere bildet nærmere så man fort uregelmessigheter og kunne avsløre det som juks. 

Men, da er vi tilbake til dette med å gjøre jobben selv. Kildekritikk. Til nå har jeg vært såpass naiv (?) at jeg stoler på at hvis Aftenposten, BBC eller andre større medier legger ut et bilde, så er det faktisk reelt. Skal denne utviklingen fortsette i den farten vi har nå, så legger vi egentlig opp til at man selv bør faktasjekke og gjøre bildesøk på alt man leser på nett. Alltid. 

Halvparten av brukerne på nett klarer ikke det. De fleste i den andre halvparten gidder ikke. Det gir gode vilkår for folk som vil manipulere andre for å få viljen sin, eller bare lage kvalm.

Dette er dritskummelt. Jeg har vist til en video av "Boris Johnson" tidligere (link). Eksempevideoen er overdrevet og åpenlyst ikke sann, men det viser hvor lett dette tydeligvis kan gjøres. Hvis noen lager en deepfake av et møte mellom høytstående politikere og dikter opp et eller annet scenarie, hvem vet hva som kan skje. Uro i befolkningen og påfølgende opptøyer? Andre land ruster opp militært? Handelsblokader? 

 

Slik jeg ser tillit mellom mennesker noe av det absolutt viktigste vi har i samfunnet. Alt vi gjør bunner i at vi stoler på andre mennesker. "Fake news", løgn og oppspinn har allerede for stor plass. Jeg er ordentlig bekymret for at folk med enten onde hensikter, eller bare seriøst dårlig sans for humor og manglende evne til å tenke gjennom hva man setter i gang, skal misbruke teknologien med kunstig intelligens og skape uro.

Nå er jeg pessimist av natur, men jeg skulle gjerne sett at denne teknologien ble bremset noe. Jeg liker ikke utviklingen nå.

Jeg er under samme oppfatning som deg, og jeg som deg, er også pessimistisk av natur. Det er bare å ta en tur på hvilken som helst plattform, så ser vi at Ola Nordmann ikke har et forhold til kildekritikk. Majoriteten virker å sluke alt rått. 
 

Vi som har nogen lunde kritisk sans må stille seg kritisk til absolutt alt, i en mye større grad enn vi allerede gjør, om vi ikke kan ta noe for face value. AI’en og deepfakes vil bli eksponentialt bedre over kort tid. Det bekymrer meg mest. Slik som Moore’s law vedr transistorer og mikrochips.

Et annet problem er at Chatgpt(3) er open source (ikke versjon 4 afaik). Det betyr at andre kan bruke samme modell og grunnlag og lage sin egen versjon med mye mindre, til ingen begrensninger hva gjelder output. 
 

Jeg synes også det er problematisk at det er kun et fåtall testere i openAI som prøver å limitere AI’en til å ikke gi svar på spørsmål som har til intensjon å skade/ødelegge. 

Jeg er genuint redd for hvordan verden vil se ut om 10år, og at vi ikke ser noe mer konkrete føringer fra myndigheter, at de rett og slett henger for langt bakpå. 
openAI har også slått seg sammen med Microsoft, så de er ikke lenger 100% non-profit, men vil da også drives til en viss grad av kapitalisme. Pandoras eske ble nettopp åpnet.. 
 


 


 

Endret av iblazeqt
Lenke til kommentar

Jeg ser at ChatGPT kan spytte ut kode, den kan kommentere kode. Og gitt tid kan man sikkert klare å få den til å lage mer sammensatte programmer. Men: det vil alltid være behov for noen som har dypere forståelse. Du har sikkert selv prøvd ChatGPT og du har sikkert vært innom Stack overflow. Veien derifra til å lage fungerende programvare er foreløpig lang, så slik jeg ser det, så er det kanskje enkelte funksjoner som blir automatisert, men det vil uansett være nødvendig med en 3. Part kontroll og oversikt. 

Fåreløpig må man ha en veldig konkret og snever problemstilling for å få et vettugt svar. I framtiden kan man garantert ha mer komplekse problemstillinger, men den må nødvendigvis være veldig presis for å få ønsket resultat. Det kommer til å kreve teknisk kunnskap. Så jeg tror på bakgrunn av det, at programvareutvikler som yrke ikke forsvinner, men at det kommer til å endre seg. Uten tvil.

  • Liker 1
Lenke til kommentar
Nedward skrev (3 timer siden):

Jeg ser at ChatGPT kan spytte ut kode, den kan kommentere kode. Og gitt tid kan man sikkert klare å få den til å lage mer sammensatte programmer. Men: det vil alltid være behov for noen som har dypere forståelse. Du har sikkert selv prøvd ChatGPT og du har sikkert vært innom Stack overflow. Veien derifra til å lage fungerende programvare er foreløpig lang, så slik jeg ser det, så er det kanskje enkelte funksjoner som blir automatisert, men det vil uansett være nødvendig med en 3. Part kontroll og oversikt. 

Fåreløpig må man ha en veldig konkret og snever problemstilling for å få et vettugt svar. I framtiden kan man garantert ha mer komplekse problemstillinger, men den må nødvendigvis være veldig presis for å få ønsket resultat. Det kommer til å kreve teknisk kunnskap. Så jeg tror på bakgrunn av det, at programvareutvikler som yrke ikke forsvinner, men at det kommer til å endre seg. Uten tvil.

Jeg tror også utviklere vil være relevant på mellomlangsikt (5-10år). Men tror behovet vil reduseres kraftig. Alternativt så økes produktiviteten i en slik grad at behovet opprettholdes, men man produserer og etterspørr i en langt høyere grad da man kan rulle ut applikasjoner og tjenester mye mer effektivt og billigere. 

Endret av iblazeqt
Lenke til kommentar

Tror dette har gått så eksponentielt at ingen skjønner at vi er midt i en eksplosjon. 

Har ikke så mye å si, men dette er noen linker som forklarer hvor stort hopp GPT 3.5 til 4.0 faktisk er.

 

https://www.vice.com/en/article/g5ypex/microsoft-now-claims-gpt-4-shows-sparks-of-general-intelligence

https://www.abcnyheter.no/nyheter/verden/2023/03/29/195913268/eksperter-advarer-ber-om-pause-i-utviklingen-av-kraftig-kunstig-intelligens

Attpåtil så er 5.0 forventa og komme til høsten(August).

  • Innsiktsfullt 2
Lenke til kommentar
Phethario skrev (21 minutter siden):

Tror dette har gått så eksponentielt at ingen skjønner at vi er midt i en eksplosjon. 

Har ikke så mye å si, men dette er noen linker som forklarer hvor stort hopp GPT 3.5 til 4.0 faktisk er.

 

https://www.vice.com/en/article/g5ypex/microsoft-now-claims-gpt-4-shows-sparks-of-general-intelligence

https://www.abcnyheter.no/nyheter/verden/2023/03/29/195913268/eksperter-advarer-ber-om-pause-i-utviklingen-av-kraftig-kunstig-intelligens

Attpåtil så er 5.0 forventa og komme til høsten(August).

Jepp og det bekymrer meg. Jeg håper det vil bli innført og gjennomført fra alle parter, en brems i utviklingen slik at man rekker å lage føringer og ta informerte og gode beslutninger rundt utviklingen av AI/AGI. 

Lenke til kommentar

Oppfølging til poster ovenfor. Siste nytt:

"Key figures in artificial intelligence want training of powerful AI systems to be suspended amid fears of a threat to humanity.

They have signed an open letter warning of potential risks, and say the race to develop AI systems is out of control.

Twitter chief Elon Musk is among those who want training of AIs above a certain capacity to be halted for at least six months

Recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no-one - not even their creators - can understand, predict, or reliably control".

The letter warns that AIs could flood information channels with misinformation, and replace jobs with automation."

https://www.bbc.com/news/technology-65110030

 
Endret av Ekspertkommentator
  • Liker 4
Lenke til kommentar
Ekspertkommentator skrev (7 minutter siden):

Siste nytt:

"Key figures in artificial intelligence want training of powerful AI systems to be suspended amid fears of a threat to humanity.

They have signed an open letter warning of potential risks, and say the race to develop AI systems is out of control.

Twitter chief Elon Musk is among those who want training of AIs above a certain capacity to be halted for at least six months

Recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no-one - not even their creators - can understand, predict, or reliably control".

The letter warns that AIs could flood information channels with misinformation, and replace jobs with automation."

https://www.bbc.com/news/technology-65110030

Så håper jeg dette får gehør, og at ikke sterke kapitalistiske krefter påvirker i en slik grad at utviklingen fortsetter i jakt på first mover advantage og penger. 

Lenke til kommentar
21 minutes ago, iblazeqt said:

Så håper jeg dette får gehør, og at ikke sterke kapitalistiske krefter påvirker i en slik grad at utviklingen fortsetter i jakt på first mover advantage og penger. 

Jeg er lite bekymret for at AI "kommer til å ta jobben fra veldig mange" i forhold til nye jobber som skapes. Iallefall de første 50 årene!
 
Det som er farlig er at penger og makt kommer til å styre retningen av AI, f.eks. utvikle AI for å
1. Estimere bevegelser på verdens børser. Jo flere datapunkter desto større nøyaktighet og penger å tjene. De som har mest penger (til AI) tjener enda mere.
2. Estimere hva som påviker velgerne for å kontrollere utfallet av "demokratisk" valg. Facebook on steroids.
3. Estimere hvordan markedsføre for å tjene mest mulig penger. Big Tech ads placement on stereoids.
4. Estimere konsekvenser av politiske beslutninger.
5. Estimere hvor mye skatter og avgifter befolkningen tåler før det blir opprør. Støre og Vedum prøver å finne ut dette uten hjelp av AI.

Det er noen positive ting som AI kan benyttes til, f.eks.
1. Automatisk diagnose f.eks. av Xray, CT, MRI bilder
2. Utvikle nye medisiner og vaksiner
3. Utvikle roboter som kan hjelpe til med det som i dag er farlig eller tungt arbeid. 
 

Endret av Ekspertkommentator
  • Liker 1
  • Innsiktsfullt 1
Lenke til kommentar

En av de mest populære bilde-AI tjenestene, Midjourney, har blitt stengt for gratis bruk fordi falske AI-genererte bilder av Trump som blir arrestert er spredt rundt. Og fordi kinesere bruker tjenesten så mye til å lage fake kjendis-bilder at grafikkortene deres ikke klarer belastningen og betalende kunder blir stående i kø i timevis.

Endret av Bytex
Lenke til kommentar
7 hours ago, lada1 said:

 

Selv om det var slik at AGI ikke var utopi, så er det en manglende forståelse av hva en terminal er, hva en produksjonslinje er, og derav begrensningene selv en AGI ville ha hatt.
Mer eller mindre: Autonom infrastruktur finnes ikke, har ikke vært oppfunnet, og jeg har heller ikke tro på at det vil bli oppfunnet i dette århundre.  Og en AGI uten autonom infrastruktur er fortsatt mer eller mindre det samme som en 8-ball som gir magiske svar.

Men hele premisset for debatten er at man forstår ikke hva en AGI er, kontra en sannsynlighetsberegnet model hvor man har bearbeidet nok data til å kunne sannsynliggjør at det kan produserer et lignende svar basert på tidligere statistikk. 

3 hours ago, iblazeqt said:

 

Du kommer med en kort replikk. Jeg mener det litterært: Utopia er Latin for "Ingensteds". Som kommer fra Libellus vere aureus, nec minus salutaris quam festivus, de optimo rei publicae statu deque nova insula Utopia, en book publisert i 1516.
Noe som gjør at man referer til ting som ikke kan eller vil skje som Utopi, fordi man vet hva ordet betyr.

Premissene rundt debatten om AGI vs neuralnett bygger mer eller mindre på F.U.D., hvor manglende forståelse gjør at man ikke er villig til å diskutere de etiske normene og lovene som vi allerede har fungerende rettstaten for å håndtere.
Som du skriver i åpningsposten "litt bekymret", bunner ut i ingenting.
Dagens Neuralnett klarer ikke å lage neste utgave, og den sliter med å lese dokumentasjon. Premisset bak funksjonene(måten den er bygd på) den har gjør at den vil heller ikke i GTP4 eller en annen mer avansert model ha de funksjonene.

Lenke til kommentar
del_diablo skrev (1 time siden):

Selv om det var slik at AGI ikke var utopi, så er det en manglende forståelse av hva en terminal er, hva en produksjonslinje er, og derav begrensningene selv en AGI ville ha hatt.
Mer eller mindre: Autonom infrastruktur finnes ikke, har ikke vært oppfunnet, og jeg har heller ikke tro på at det vil bli oppfunnet i dette århundre.  Og en AGI uten autonom infrastruktur er fortsatt mer eller mindre det samme som en 8-ball som gir magiske svar.

Men hele premisset for debatten er at man forstår ikke hva en AGI er, kontra en sannsynlighetsberegnet model hvor man har bearbeidet nok data til å kunne sannsynliggjør at det kan produserer et lignende svar basert på tidligere statistikk. 

Du kommer med en kort replikk. Jeg mener det litterært: Utopia er Latin for "Ingensteds". Som kommer fra Libellus vere aureus, nec minus salutaris quam festivus, de optimo rei publicae statu deque nova insula Utopia, en book publisert i 1516.
Noe som gjør at man referer til ting som ikke kan eller vil skje som Utopi, fordi man vet hva ordet betyr.

Premissene rundt debatten om AGI vs neuralnett bygger mer eller mindre på F.U.D., hvor manglende forståelse gjør at man ikke er villig til å diskutere de etiske normene og lovene som vi allerede har fungerende rettstaten for å håndtere.
Som du skriver i åpningsposten "litt bekymret", bunner ut i ingenting.
Dagens Neuralnett klarer ikke å lage neste utgave, og den sliter med å lese dokumentasjon. Premisset bak funksjonene(måten den er bygd på) den har gjør at den vil heller ikke i GTP4 eller en annen mer avansert model ha de funksjonene.

Jeg skrev også at min bekymring forhåpentligvis kommer av manglende kunnskap. Da er det fint om brukere med kompetanse rundt dette bidrar til å dekke kunnskapshullet (i en eller annen grad). 
 

Dersom vi ser bort ifra scenarioet hvor teknologien ikke klarer å utvikle seg til noe man kan definere som AGI. Så er AI’en, og de nyere versjonene som måtte komme mer enn nok tilstrekkelig til å automatisere svært mange jobber. Det er en av mine bekymringer. Den dagen AI’en kan scanne et helt github repo å fikse bug xyz og implementere funksjon a,b,c.
 

Min andre bekymring er deepfakes. Som man ser eksempler av allerede i dag.
 

Min tredje bekymringen er at teknologien blir eksponentielt bedre, uten at vi klarer å henge med (reguleringer og sikre mot misbruk).  
 

 

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...