Gå til innhold

Softbank mener at roboter vil ha IQ på 10000 innen 30 år


Anbefalte innlegg

 

Nå spekulerer jeg, men hva om du ser på målet som noe mer overordnet? Du skaper en nettside og endrer nettsiden etter hva som gir best feedback fra brukere. Dette er et veldig primitivt eksempel, men jeg kan tenke meg at det muligens kan ekstrapoleres til backend-kode også, rett og slett med å gjøre hva alle andre gjør og så bare tweake etter hva som gir best resultat i simulator og virkelighet.

 

Bare tenk deg. 

Skal jeg gjøre knappen rosa -> dårlig feedback -> ok, gjør knappen rød -> dårlig feedback og sinte brukere. 

Eller "skal jeg ikke vise denne knappen" -> ingen feedback fordi få bruker knappen -> "flott brukerene er fornøyd"

Eller "Introduserer en bug som ødelegger databasen" -> fjerner koden -> bugen er der fortsatt -> prøver masse mulig rart som gjør vondt verre -> utvikler må gå inn og manuelt redde programmet. 

 

Brukerene kan ikke være dine testobjekter. Det som ville spart mye mer tid, er manulle verktøy som kan hjelpe utviklere. 

 

 

Detaljer er oppe til både debatt og endring. Feedback kan være f.eks design basert på hvor lang tid en bruker tar på å gjøre en oppgave, eller hvor godt nettsiden scorer på f.eks. Fitts Lov.

 

Backend-utvikling er mer eller mindre bare en konstant simulering for å se hva som går raskest, og hva som stemmer best opp mot kriteriene.

Lenke til kommentar
Videoannonse
Annonse

Detaljer er oppe til både debatt og endring. Feedback kan være f.eks design basert på hvor lang tid en bruker tar på å gjøre en oppgave, eller hvor godt nettsiden scorer på f.eks. Fitts Lov.

 

Backend-utvikling er mer eller mindre bare en konstant simulering for å se hva som går raskest, og hva som stemmer best opp mot kriteriene.

 

Gjør knappene større for å passe fitts lov -> det går fortere -> gjør knappene enda større -> kunder ringer inn og klager fordi selv om det er raskt så ser det stygt ut. 

 

Du vil aldri klare å lage et godt nok mål, sånn at maskinlæring kan lære uten å gjøre feil som plager kundene. Derfor kan du ikke bruke kunder som testkaniner for maskinlæring.

Lenke til kommentar

 

Jeg tror jeg er klar over hva du mener. Det jeg sikter til er en maskinlæringsalgoritme som har tilgang til en hel haug med eksisterende kode, får definert input/output, og automatisk genererer en kode som skaper output fra input.

 

Du mener at den skal lese igjennom offentlige github kontoer og lære fra dem? Hva skal den bruke all den koden til? Hvis den legger dem til plugin automatisk, så vil du få masse skrot med deg. 

 

Nei, det utviklere trenger er noe mer manuelt. Idag kan du laste ned alle slags mulige plugins og legge dem inn i prosjektene dine. Dette skaper en viss effektivitet, men det er ikke et gjennombrudd fordi når f.eks. det kommer et ny oppdatering eller et nytt operativsystem så må alle justere koden sin. Dette betyr at etterhvert så må man kaste det gamle prosjektet og lage noe nytt. 

 

Løsningen på dette er å ha utviklingverktøy som lager kode for deg, som kan jobbe på mange forskjellige programmeringsnivåer og som oppdaterer koden for deg. Ingen lager noe slikt idag.

 

 

Etter mye graving så fant jeg kilden: New Scientist: AI Learns to Write its own Code by Stealing from other Programs. (Ikke en pretensiøs tittel i det hele tatt.)

 

Hva angår spørsmålet ditt om hva den skal med all koden så er vel det åpenbart - maskinlæringsalgoritmer trenger som regel noe å lære fra. (Ikke direkte ulikt dere mennesker.)

 

(...)

"Men jeg ser ingen grunn til å tro at vi ikke vil kunne nå dit, eller forbi, på et eller annet tidspunkt."

 

Kanskje. Men hvis vi klarer å lage bevisste roboter som er smartere enn oss selv så vil det vel være uetisk å bruke dem som slaver?

Jeg liker spørsmål!

 

Det tror jeg er et spørsmål om nøyaktig hva man legger i intelligens. Ren problemløsing er én ting, men hvis/når vi greier å utvikle bevisste maskiner så kan ting begynne å bli interessant! I utgangspunktet så ser jeg ikke et problem med at tilstrekkelig avanserte teknologiske entiteter skal regnes som moralske agenter, og således ikke burde behandles som slaver.

Lenke til kommentar

Etter mye graving så fant jeg kilden: New Scientist: AI Learns to Write its own Code by Stealing from other Programs. (Ikke en pretensiøs tittel i det hele tatt.)

 

Hva angår spørsmålet ditt om hva den skal med all koden så er vel det åpenbart - maskinlæringsalgoritmer trenger som regel noe å lære fra. (Ikke direkte ulikt dere mennesker.)

 

Du kan ikke bare si "lær av maskinkode". Da vil den spørre, hva skal jeg lære. Hvor skal jeg plassere informasjonen, på hvilken måte og hvordan skal man kunne bruke informasjonen? Og før du engang kan stille disse spørsmålene, så må den klare litt mer enn 5 linjer. De fleste programmer har mer enn 100,000 linjer. 

 

Det som uansett kommer før dette, er manuelle verktøy. Om manuelle verktøy blir gode nok så kan de ta de fleste programmeringsjobber, men det kommer til å ta tid fordi pengene ligger ikke i manuelle verktøy, de ligger i sluttproduktet. 

Lenke til kommentar

 

Etter mye graving så fant jeg kilden: New Scientist: AI Learns to Write its own Code by Stealing from other Programs. (Ikke en pretensiøs tittel i det hele tatt.)

 

Hva angår spørsmålet ditt om hva den skal med all koden så er vel det åpenbart - maskinlæringsalgoritmer trenger som regel noe å lære fra. (Ikke direkte ulikt dere mennesker.)

 

Du kan ikke bare si "lær av maskinkode". Da vil den spørre, hva skal jeg lære. Hvor skal jeg plassere informasjonen, på hvilken måte og hvordan skal man kunne bruke informasjonen? Og før du engang kan stille disse spørsmålene, så må den klare litt mer enn 5 linjer. De fleste programmer har mer enn 100,000 linjer. 

 

Det som uansett kommer før dette, er manuelle verktøy. Om manuelle verktøy blir gode nok så kan de ta de fleste programmeringsjobber, men det kommer til å ta tid fordi pengene ligger ikke i manuelle verktøy, de ligger i sluttproduktet.

 

Jeg er fullstendig klar over at man må definere og sette begrensninger på hva den skal lære. Jeg er usikker på nøyaktig hva det er du ønsker å få frem. Jeg minner om min opprinnelige kommentar, som det virker som om du sa deg uenig i:

 

 

(...)

Det ville gått mye fortere, hvis man kunne ha brukt programmer til å lage dataprogrammer, men det er for lite penger i denne sektoren til å lage noe som fungerer godt nok.

(...)

Dette har allerede skjedd. Selv om det foreløpig er begrenset til en håndfull linjer kode. (Jeg finner dessverre ikke lenken med kilde, så en klype salt er nok på sin plass.)

 

Jeg har nå henvist til en kilde hvor man beskriver et program som skriver 'egen' kode, dog ganske så begrenset omfang foreløpig. Om du er uenig i at det er tilstrekkelig for å understøtte poenget mitt, så er det greit nok, men jeg er usikker på hvordan du ønsker å begrunne dette.

Lenke til kommentar

Jeg er fullstendig klar over at man må definere og sette begrensninger på hva den skal lære. Jeg er usikker på nøyaktig hva det er du ønsker å få frem. Jeg minner om min opprinnelige kommentar, som det virker som om du sa deg uenig i:

 

Er du også klar over hvor viktig mål er for maskinlæring? En maskin lærer basert på et mål, om målet ikke er veldefinert så fungerer ikke maskinlæringen og den blir ubrukelig. Her kan du ikke si "det finner vi ut av", fordi det som hindrer oss i å bruke maskinlæring til å lage kode, er at vi klarer ikke å sette opp veldefinerte mål.

 

Det er en grunn til spill blir brukt ofte til maskinlæring, det er fordi målet til maskinen er veldefinert. Ikke dø, og kom deg til mål. Spesifikasjonene til en applikasjon for en kunde er ikke like veldefinert.

 

Jeg har nå henvist til en kilde hvor man beskriver et program som skriver 'egen' kode, dog ganske så begrenset omfang foreløpig. Om du er uenig i at det er tilstrekkelig for å understøtte poenget mitt, så er det greit nok, men jeg er usikker på hvordan du ønsker å begrunne dette.

 

Jeg har aldri sagt at det er umulig å ha et program som skriver sin egen kode. Spørsmålet er ikke om du kan lese igjennom Github kontoer og lage ny kode, det kan du absolutt. Det som er problemet er å ta den informasjonen du får, og gjøre den om til noe nyttig. 

Endret av Camlon
Lenke til kommentar

 

(...)

Det ville gått mye fortere, hvis man kunne ha brukt programmer til å lage dataprogrammer, men det er for lite penger i denne sektoren til å lage noe som fungerer godt nok.

(...)

Dette har allerede skjedd. Selv om det foreløpig er begrenset til en håndfull linjer kode. (Jeg finner dessverre ikke lenken med kilde, så en klype salt er nok på sin plass.)

 

 

Dette vet jeg ganske mye om. En teknikk er "evolusjonær databehandling" inspirert fra biologisk evolusjon. Computere kan da finne overraskende/"kreative" løsninger som vi altså ikke har tenkt på.

 

https://no.wikipedia.org/wiki/Genetisk_algoritme

 

Slike teknikker brukes allerede ganske mye. Faktisk har jeg brukt det ganske mye selv og jobber nå på en oppgave der jeg bruker det. Atter en måte å holde alsheimern i sjakk på :-)

Endret av lada1
Lenke til kommentar

Det "fine" med kunstig intelligens er at den ikke tar med moral i ligningen når den leter etter funksjonelle løsninger. 

 

Om vi ser på intelligens ca i tråd med psykologiens noenlunde omforente definisjon 'oppfatte - vurdere - problemløse', så er det klart at AI blir ekstra spennende når den selv kan sette kriteriene i vurderingen. Om selvopprettholdelse blir det viktigste, er det strengt tatt ingen grenser for hvilke midler den vil bruke.

Lenke til kommentar

Siden denne typen algoritmisk AI utvikler seg mot et bestemt formål så er formålet helt avgjørende for utviklingen og eventuelt om den blir aggressivt e.l.

F.eks eksempelet i artikkelen til illustrert vitenskap så er målet å oppnå høyest poeng ved å plukke grønne bokser.

Er det et begrenset antall grønne bokser der det samtidig konkurreres om å oppnå flest av dem mellom 2 parter så vil en aggressiv utvikling være optimal for å fremme egen gevinst.

 

Hadde formålet vært å samle flest grønne bokser totalt sett i stede for individuelt og lagt til kriteriet at det skal gjøres med færrest mulig bevegelser så ville programmet kunne utvikle seg for å oppnå optimal gevinst for minst mulig resursbruk - der samarbeid ville lønt seg istedenfor dette aggressive handlingsmønsteret for å fremme seg selv.

Men da må så klart programmene klare å forholde seg til hverandre som antageligvis blir et helt nytt nivå når det kommer til grunnkoden. 

 

Uansett så er jeg helt enig, vi lever i en utrolig spennende tid ;D

  • Liker 1
Lenke til kommentar

Det "fine" med kunstig intelligens er at den ikke tar med moral i ligningen når den leter etter funksjonelle løsninger. 

 

Forskjellen er ikke at AI ikke tar med moral, men at AI vil aldri gjøre unntak fra moralen den er programmert til. Er en finansiell bot programmert til å tjene mest mulig penger, så vil den ha ingen problemer med å utføre handlinger som dreper mennesker for å tjene penger. 

 

Dette vil fungere bra om de som har kodet programmet tar hensyn til mange ulike situasjoner, men min erfaring er at det sjeldent skjer. 

Lenke til kommentar

 

Det "fine" med kunstig intelligens er at den ikke tar med moral i ligningen når den leter etter funksjonelle løsninger. 

 

Forskjellen er ikke at AI ikke tar med moral, men at AI vil aldri gjøre unntak fra moralen den er programmert til. Er en finansiell bot programmert til å tjene mest mulig penger, så vil den ha ingen problemer med å utføre handlinger som dreper mennesker for å tjene penger. 

 

Dette vil fungere bra om de som har kodet programmet tar hensyn til mange ulike situasjoner, men min erfaring er at det sjeldent skjer. 

 

 

Asimovs "Three Laws of Robotics" blir mindre sci-fi og mer aktuelt for hver dag som går her nå:

 

  1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.

     

  2. A robot must obey orders given it by human beings except where such orders would conflict with the First Law.

     

  3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

 

Så var det den dag dette glemmes og hard kodes dette inn i skallen på "Terminator", evnt at vår forenværende vennlige robot føler dette pensumet er irrelevant og/eller kontraproduktivt for egen videre progresjon... :p

Lenke til kommentar

Asimovs "Three Laws of Robotics" blir mindre sci-fi og mer aktuelt for hver dag som går her nå:

  • A robot may not injure a human being or, through inaction, allow a human being to come to harm.

     

  • A robot must obey orders given it by human beings except where such orders would conflict with the First Law.

     

  • A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
Så var det den dag dette glemmes og hard kodes dette inn i skallen på "Terminator", evnt at vår forenværende vennlige robot føler dette pensumet er irrelevant og/eller kontraproduktivt for egen videre progresjon... :p

Det høres fint ut, men er helt umulig å programmere.

 

1. En fabrikk er drevet av en AI. Den finner ut at den vil tjene mer penger om den dumper avfallet i elven. Hvordan vet programmet at dette vil føre til at de som drikker vanner dør av forgifting? Dette er en fabrikk AI, ikke en AI som kan regne ut hva som skjer med avfall i en elv. 

 

2. En selvkjørende bil kjører på en vei. Føreren ber bilen kjøre i 100 km/t i en skolesone. Dette gjør det umulig for bilen å stoppe i en farlig situasjon. Du kan si at dette bryter med lov 1, men hvilken hastighet bryter med lov 1? 

 

3. Den loven der er bare å be om problemer. Tenk deg hvor vanskelig det er å bytte ut en bot, som aktivt prøver å hindre at den blir byttet ut. 

 

Jeg tror ikke noen enkle lover vil fungere, det vi trenger er mennesker og AI som regulerer andre AI. 

Lenke til kommentar

 

Asimovs "Three Laws of Robotics" blir mindre sci-fi og mer aktuelt for hver dag som går her nå:

  • A robot may not injure a human being or, through inaction, allow a human being to come to harm.

     

  • A robot must obey orders given it by human beings except where such orders would conflict with the First Law.

     

  • A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
Så var det den dag dette glemmes og hard kodes dette inn i skallen på "Terminator", evnt at vår forenværende vennlige robot føler dette pensumet er irrelevant og/eller kontraproduktivt for egen videre progresjon... :p

Det høres fint ut, men er helt umulig å programmere.

 

1. En fabrikk er drevet av en AI. Den finner ut at den vil tjene mer penger om den dumper avfallet i elven. Hvordan vet programmet at dette vil føre til at de som drikker vanner dør av forgifting? Dette er en fabrikk AI, ikke en AI som kan regne ut hva som skjer med avfall i en elv. 

 

2. En selvkjørende bil kjører på en vei. Føreren ber bilen kjøre i 100 km/t i en skolesone. Dette gjør det umulig for bilen å stoppe i en farlig situasjon. Du kan si at dette bryter med lov 1, men hvilken hastighet bryter med lov 1? 

 

3. Den loven der er bare å be om problemer. Tenk deg hvor vanskelig det er å bytte ut en bot, som aktivt prøver å hindre at den blir byttet ut. 

 

Jeg tror ikke noen enkle lover vil fungere, det vi trenger er mennesker og AI som regulerer andre AI. 

 

 

Ja, kjenner at man ikke kommer helt unna Musk sin konklusjon om at menneskers overlevelse avhenger av at vi selv får implementert denne AI mot nervesystemet og dermed ikke blir forbigått av en ekstern kunstig intelligens. En sentral intelligens som alle får ta del i/kobles opp mot. Man oppgraderer altså menneskeheten og dermed selv tar kontrollen over evolusjonens neste skritt. 

 

Så om jeg får bli litt sci-fi her så er vel det nettopp den muligheten vi har til å nå lengre enn eget solsystem, at vi forlater vår nåværende biologi som er skapt for jordens klima men hvor kjøtt og fett fungerer heller dårlig i alle andre sammenhenger og da ikke minst med tanke på reiser i lysets hastighet som må til om vi noengang skal nå ut av sandkassa vår. Den begynner tross alt å bli full av oljesand og folk her allerede...

Endret av Thoto79
Lenke til kommentar

 

[....]Asimovs "Three Laws of Robotics" [...]

Begynner å bli lenge siden jeg har lest noe Asimov, men var ikke et av poengene i de historiene at de "lovene" fungerte skikkelig ræv?

 

 

Tror vel de først og fremst fungerer i teorien ja, men vi får nok tidsnok se hvor galt det går i praksis også ;)

Lenke til kommentar

 

 

Det "fine" med kunstig intelligens er at den ikke tar med moral i ligningen når den leter etter funksjonelle løsninger. 

 

Forskjellen er ikke at AI ikke tar med moral, men at AI vil aldri gjøre unntak fra moralen den er programmert til. Er en finansiell bot programmert til å tjene mest mulig penger, så vil den ha ingen problemer med å utføre handlinger som dreper mennesker for å tjene penger. 

 

Dette vil fungere bra om de som har kodet programmet tar hensyn til mange ulike situasjoner, men min erfaring er at det sjeldent skjer. 

 

 

Asimovs "Three Laws of Robotics" blir mindre sci-fi og mer aktuelt for hver dag som går her nå:

 

  1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.

     

  2. A robot must obey orders given it by human beings except where such orders would conflict with the First Law.

     

  3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

 

Så var det den dag dette glemmes og hard kodes dette inn i skallen på "Terminator", evnt at vår forenværende vennlige robot føler dette pensumet er irrelevant og/eller kontraproduktivt for egen videre progresjon... :p

 

Ja, det er vel bare å se på mennesker hvor mye vi er villige til å sette til side dersom livet vårt trues. Og en del trenger ikke en trussel engang før man setter til side alt av regler. Ingen grunn til å tro at ikke også AI skal ha variasjoner.  :ermm:

Lenke til kommentar

 

Det "fine" med kunstig intelligens er at den ikke tar med moral i ligningen når den leter etter funksjonelle løsninger. 

 

Forskjellen er ikke at AI ikke tar med moral, men at AI vil aldri gjøre unntak fra moralen den er programmert til. Er en finansiell bot programmert til å tjene mest mulig penger, så vil den ha ingen problemer med å utføre handlinger som dreper mennesker for å tjene penger. 

 

Dette vil fungere bra om de som har kodet programmet tar hensyn til mange ulike situasjoner, men min erfaring er at det sjeldent skjer. 

 

Da er du inne på graden av AI. Spørs om en entitet som opererer etter veldig låste kriterier og med alle muligheter til å ta "egne" valg og lære av egne og andres valg borte egentlig er noen intelligens å snakke om.

Jeg tenker i utgangspunktet på noen nivå over dumme børsroboter, søkeroboter og taleroboter på f.eks et flyselskap.

Endret av Pop
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...