AfterGlow Skrevet 19. november 2014 Del Skrevet 19. november 2014 Tesla-grunnleggeren Elon Musk tror utviklingen snart kan føre til Terminator-tilstander.– Kunstig intelligens kan bli en fare for mennesket innen fem år Lenke til kommentar
Efreeti Skrevet 19. november 2014 Del Skrevet 19. november 2014 Mon tro Elon tror på Roko's basilisk 1 Lenke til kommentar
xRun Skrevet 19. november 2014 Del Skrevet 19. november 2014 Skal vel ikke stort mer til enn at hans eget konsept med etterhvert delvis selvkjørende biler blir hacket. Kanskje det er han som er Connor? Lenke til kommentar
Mad Esc Skrevet 19. november 2014 Del Skrevet 19. november 2014 Jeg vet ikke hva slags ting Elon Musk refererer til, og har sett, men ingen ting jeg har sett eller hørt om opp gjennom årene er i nærheten av å være ekte kunstig intelligens, den typen som potensielt kan være farlig. Mennesker er ikke i nærheten av å forstå eller klare å lage en intelligens lik vår egen. Men så får vi jo stadig flere teknologier som noen kanskje vil kalle kunstig intelligens, ting som bildegjenkjenning og ansiktsgjenkjenning, som også kan bli brukt på feil måte. Lenke til kommentar
raserbil Skrevet 19. november 2014 Del Skrevet 19. november 2014 Og alle vil fly rundt i biler med antigravitasjonsmotorer fra og med år 2000, og vi vil ha kolonier på alle planeter i solsystemet innen 2050! ;-) hehehe. 4 Lenke til kommentar
Kikert Skrevet 19. november 2014 Del Skrevet 19. november 2014 Jeg vet ikke hva slags ting Elon Musk refererer til, og har sett, men ingen ting jeg har sett eller hørt om opp gjennom årene er i nærheten av å være ekte kunstig intelligens, den typen som potensielt kan være farlig. Mennesker er ikke i nærheten av å forstå eller klare å lage en intelligens lik vår egen. Men så får vi jo stadig flere teknologier som noen kanskje vil kalle kunstig intelligens, ting som bildegjenkjenning og ansiktsgjenkjenning, som også kan bli brukt på feil måte. Sjekk kildene, Elon Musk skriver; "Unless you have direct exposure to groups like Deepmind, you have no idea how fast-it is growing at a pace close to exponential" Så hvis vi antar at han har et mye større innblikk i hva som foregår på AI fronten så er slike kommentarer et bevis på at fremdrivernes forsøk på å skjule risikoene og farene ved dette er vellykket. TEK skulle ha lagt ved bildet og ikke bare en reddit link, så her er det Vi får håpe de smarte gutta vet hva de gjør og at det ikke går altfor galt hvis det går galt 1 Lenke til kommentar
Mad Esc Skrevet 19. november 2014 Del Skrevet 19. november 2014 Jeg vet ikke hva slags ting Elon Musk refererer til, og har sett, men ingen ting jeg har sett eller hørt om opp gjennom årene er i nærheten av å være ekte kunstig intelligens, den typen som potensielt kan være farlig. Mennesker er ikke i nærheten av å forstå eller klare å lage en intelligens lik vår egen. Men så får vi jo stadig flere teknologier som noen kanskje vil kalle kunstig intelligens, ting som bildegjenkjenning og ansiktsgjenkjenning, som også kan bli brukt på feil måte. Sjekk kildene, Elon Musk skriver; "Unless you have direct exposure to groups like Deepmind, you have no idea how fast-it is growing at a pace close to exponential" Det var akkurat det jeg refererte til. Lenke til kommentar
Gjest Slettet-Z9Cy2AAy Skrevet 19. november 2014 Del Skrevet 19. november 2014 Den største faren med kunstig intelligens vil jeg mene er hvor mye vi stoler på at svarene vi får fra den er korrekte. Om trent hver gang verdensøkonomien har gått i kne er det fordi modeller man har benyttet for å forutsi markeder ikke lenger gjenspeiler virkeligheten. Lenke til kommentar
Gavekort Skrevet 19. november 2014 Del Skrevet 19. november 2014 (endret) Man må være forsiktig med å defininere hva kunstig intelligens er, det kan være alt fra et kaotisk nevralt nettverk til ren logikk som et expert system. Problemet med nevrale nettverk er usikkerheten rundt det, og om det vil lære seg empati. "Rent logiske" systemer er lettere å kontrollere fordi man kan ha flere lag som kontrollerer logikken, der man f.eks kan sjekke at alle handlinger følger Asimovs lover. Jeg tror all denne advaringen om kunstig intelligens som blir spredd av Elon Musk og Stephen Hawking kan skape en irrasjonell frykt. Det er sunt å være skeptisk, men vi snakker ikke om den gjennomsnittlige Roomba-støvsugeren her, men massive og komplekse systemer som lærer av seg selv. Vil disse finne ut om den letteste måten til å nå målet sitt er å drepe et menneske eller samarbeide med mennesker? Ikke vet jeg, men en ting er sikkert, og det er at vi kommer til å trå varsomt. Den største faren med kunstig intelligens vil jeg mene er hvor mye vi stoler på at svarene vi får fra den er korrekte. Om trent hver gang verdensøkonomien har gått i kne er det fordi modeller man har benyttet for å forutsi markeder ikke lenger gjenspeiler virkeligheten. Jeg henger ikke helt med på hva du mener med svar. Per i dag så er nøyaktigheten rundt kunstig intelligens veldig varierende, men når det kommer til data-behandling så kan kunstig intelligens være mye bedre på å f.eks, bedømme utfallet av en valutakurs enn en vanlig person, gitt at systemet er godt nok trent. Mennesker og datamaskiner jobber mye bedre sammen. En datamaskin vil kunne se mønster og typiske utfall i et aksjemarked mye bedre enn det et menneske vil, men et menneske vil kunne tenke intuitivt og se tegn som er vanskelig for en kunstig intelligens å oppfatte. Endret 19. november 2014 av Gavekort Lenke til kommentar
pergh Skrevet 19. november 2014 Del Skrevet 19. november 2014 Jeg vet ikke hva slags ting Elon Musk refererer til, og har sett, men ingen ting jeg har sett eller hørt om opp gjennom årene er i nærheten av å være ekte kunstig intelligens, den typen som potensielt kan være farlig. Mennesker er ikke i nærheten av å forstå eller klare å lage en intelligens lik vår egen. Men så får vi jo stadig flere teknologier som noen kanskje vil kalle kunstig intelligens, ting som bildegjenkjenning og ansiktsgjenkjenning, som også kan bli brukt på feil måte. Det er ikke noen nødvendig forutsetning å måtte kunne lage en intelligens lik vår egen for å gjøre skade med AI. Det er nok gi en AI evne til å påvirke oppførsel til ett eller annet. Se for eksempel hvor mye skade selv helt enkle selvreplikerende program gjorde da maskinene etterhvert ble koblet på nett (Melissa, ILOVEYOU etc). Det var ikke fordi de var så fordømt smarte at de gjorde skade for milliarder av dollar, men fordi de styrte oppførselen på datamaskiner som var koblet sammen i et komplekst nettverk. (Pr i dag er dette skadeomfanget barnemat. Det er ikke urimelig å anta at opp mot en tiendedel av internetts noder er kontrollert av andre enn de offisielt ansvarlige eierne av nodene, gjerne også uten eiernes forståelse for at nodene brukes av andre enn dem selv.) De færreste av oss klarte å se, lagt mindre forutsi, hvor galt det ville dra avgårde i '87 da trading-robotene fikk andre parametre enn vekst å forholde seg til. Pr i dag er omfanget av "robot"-trading langt, langt større, selv om de selvfølgelig også er mye mer robuste. Men potensialet for skade er like fullt mange ganger større enn i jappetida. Det mangler bare en situasjon de færreste programmererne har tatt høyde for. Etterhvert som mer og mer av den samfunnskritiske infrastrukturen blir styrt av digital aparatur og koblet på nett, stiger også potensialet for skade som kan gjøres. Dårlig sikrede SCADA-grensesnitt florerer, og jeg er overbevist om at det er mulig å styre for eksempel tappenivået på de fleste av demingene her i landet, og sluser på de største renseanleggende, fra enheter som direkte eller indirekte er kontrollerbare fra internett. De fleste av de kommentarene jeg har hørt om AI og "farlighet" går på frykt for at den skal være "ond". Det er jeg ikke bekymret for, siden datamaskiner ikke har følelser, men jeg deler bekymringen til Musk om at vi kommer til å skyte oss i foten med AI-styrte enheter opptil flere ganger innen 10 år fordi vi på grunn av kompleksiteten ikke klarer å forutse (eller for den del oppfatte) rekkevidden av de endringene vi gjør i samfunnet ved å sette dem til å styre forskjellige deler. Mvh Per Gunnar Hansø 1 Lenke til kommentar
Gavekort Skrevet 19. november 2014 Del Skrevet 19. november 2014 (endret) De fleste av de kommentarene jeg har hørt om AI og "farlighet" går på frykt for at den skal være "ond". Det er jeg ikke bekymret for, siden datamaskiner ikke har følelser, men jeg deler bekymringen til Musk om at vi kommer til å skyte oss i foten med AI-styrte enheter opptil flere ganger innen 10 år fordi vi på grunn av kompleksiteten ikke klarer å forutse (eller for den del oppfatte) rekkevidden av de endringene vi gjør i samfunnet ved å sette dem til å styre forskjellige deler. Mvh Per Gunnar Hansø Uten å bli for filosofisk så er det vanskelig å definere følelser. Et nevralt nettverk kan i teorien stimulere seg selv om den gjør gode ting som igjen fører med positive konsekvenser, eller lære at det å skade andre medfører negative konsekvenser, kanskje til og med forstå når den blir mislikt av andre på grunn av tidligere handlinger. Dette kan til en grad kalles for følelser. Selv det å "simulere" et smil for å skape bedre relasjoner til sine medroboter og mennesker kan være følelser for alt det vi vet. Problemet med å få en kunstig intelligens til å etterligne vår egen hjerne og gi den en bevissthet, er at vi vet fryktelig lite om vår egen hjerne. Det er tvilsomt at vi vil få en kompleks kunstig intelligens innen den nærmeste fremtid, så innen den tiden vil vi nok både ha en bedre forståelse av vår egen hjerne og bedre teknologi til å kunne skape en kunstig intelligens som oppfører seg mer som et menneske og mindre som en gigantisk statistikk-analysator. Grunnen til at jeg vil trå varsomt i dette feltet med definisjoner er fordi det er viktig å trekke tydelige linjer mellom konsekvensene av aksjetradere som krasjer markedet og en kompleks robot som finner du at det å kvitte seg med mennesker er den letteste måten å kunne tilfredsstille seg selv på, hva enn målet den streber etter måtte være. Endret 19. november 2014 av Gavekort Lenke til kommentar
BlueCoder Skrevet 19. november 2014 Del Skrevet 19. november 2014 Endelig en som tar tak i de viktig sakene her xP Lenke til kommentar
Gjest Slettet-Z9Cy2AAy Skrevet 19. november 2014 Del Skrevet 19. november 2014 Jeg henger ikke helt med på hva du mener med svar. Per i dag så er nøyaktigheten rundt kunstig intelligens veldig varierende, men når det kommer til data-behandling så kan kunstig intelligens være mye bedre på å f.eks, bedømme utfallet av en valutakurs enn en vanlig person, gitt at systemet er godt nok trent. Mennesker og datamaskiner jobber mye bedre sammen. En datamaskin vil kunne se mønster og typiske utfall i et aksjemarked mye bedre enn det et menneske vil, men et menneske vil kunne tenke intuitivt og se tegn som er vanskelig for en kunstig intelligens å oppfatte. Jeg mener egentlig ikke noe annet enn at det ligger en antakelse av at siden en kunstig intelligens kan behandle mye mer data enn det man kan i eksisterende systemer, kan man ta mer risiko i beslutningfasen siden grunnlaget er "mer solid". På samme måte som politikere i enkelte land før finanskrisen mente de kunne bruke mer penger enn de hadde fordi de ikke hadde fått advarsler fra økonomene om at det kunne være farlig. Et ekspertsystem er ikke en erstatning for forståelse av faget, sagt annerledes. Det er det jeg mener er noe av det som blir solgt som en mulighet med kunstig intelligens. Lenke til kommentar
Mad Esc Skrevet 19. november 2014 Del Skrevet 19. november 2014 Det er ikke noen nødvendig forutsetning å måtte kunne lage en intelligens lik vår egen for å gjøre skade med AI. Det er nok gi en AI evne til å påvirke oppførsel til ett eller annet. Jeg er sikker på at det Elon snakker om er større enn det du tenker deg. Man vil alltids ha større sjanse til å gjøre skade med ny teknologi. Elon snakker vel om "singulariteten". De fleste av de kommentarene jeg har hørt om AI og "farlighet" går på frykt for at den skal være "ond". Det er jeg ikke bekymret for, siden datamaskiner ikke har følelser, men jeg deler bekymringen til Musk om at vi kommer til å skyte oss i foten med AI-styrte enheter opptil flere ganger innen 10 år fordi vi på grunn av kompleksiteten ikke klarer å forutse (eller for den del oppfatte) rekkevidden av de endringene vi gjør i samfunnet ved å sette dem til å styre forskjellige deler. Hvorfor skal en kunstig intelligens gjøre noe som helst? Først må den ha et motiv. Kanskje det er nødvendig å gi den følelser, noe som igjen er noe vi ikke vet noe om hva egentlig er og hvordan det lages. Samme med bevissthet. Eller kanskje vi kan gi den et grunnleggende mål, og i så fall må den også forstå verden rundt seg. Når et menneskebarn blir født er det nødt til å lære seg hvordan ting henger sammen rundt seg, men vi har også mange grunnleggende evner og deler i hjernen som er grunnen til at vi også kan lære. Jeg kan ikke se for meg at vi er i nærheten av å skape en kunstig intelligens som kan klare det samme, fordi vi rett og slett ikke forstår oss selv en gang. Lenke til kommentar
Gavekort Skrevet 19. november 2014 Del Skrevet 19. november 2014 Jeg henger ikke helt med på hva du mener med svar. Per i dag så er nøyaktigheten rundt kunstig intelligens veldig varierende, men når det kommer til data-behandling så kan kunstig intelligens være mye bedre på å f.eks, bedømme utfallet av en valutakurs enn en vanlig person, gitt at systemet er godt nok trent. Mennesker og datamaskiner jobber mye bedre sammen. En datamaskin vil kunne se mønster og typiske utfall i et aksjemarked mye bedre enn det et menneske vil, men et menneske vil kunne tenke intuitivt og se tegn som er vanskelig for en kunstig intelligens å oppfatte. Jeg mener egentlig ikke noe annet enn at det ligger en antakelse av at siden en kunstig intelligens kan behandle mye mer data enn det man kan i eksisterende systemer, kan man ta mer risiko i beslutningfasen siden grunnlaget er "mer solid". På samme måte som politikere i enkelte land før finanskrisen mente de kunne bruke mer penger enn de hadde fordi de ikke hadde fått advarsler fra økonomene om at det kunne være farlig. Et ekspertsystem er ikke en erstatning for forståelse av faget, sagt annerledes. Det er det jeg mener er noe av det som blir solgt som en mulighet med kunstig intelligens. Kunstig intelligens lærer av erfaring, så den vil nok neppe ha intuisjonen til å se en linje i en samfunnsøkonomi, men den kan se på dagens økonomi basert på historisk data og bruke dette til å best mulig gjette hva som skjer om man bruker penger eller hva enn det måtte være. Du kan kanskje se i den påstanden hvor vanskelig det da er å lage en kunstig intelligens som kan gjøre komplekse beslutninger for hva som er best for et samfunn og en økonomi, på grunn av alle de spesielle tilfellene og mangelen av så spesialisert data. Man ser fort om man kan stole på resultatene eller ei, men i bunn og grunn så stoler man aldri på resultatene fordi man har en forståelse av den kaotiske naturen til slike situasjoner. Lenke til kommentar
sveinsel Skrevet 19. november 2014 Del Skrevet 19. november 2014 (endret) Tesla-grunnleggeren Elon Musk tror utviklingen snart kan føre til Terminator-tilstander. – Kunstig intelligens kan bli en fare for mennesket innen fem år. Kunstig intelligens er betre enn ingenting: http://e24.no/bil/tesla-model-x-faar-hengerfeste/23339278 Endret 19. november 2014 av sveinsel Lenke til kommentar
ATWindsor Skrevet 20. november 2014 Del Skrevet 20. november 2014 Risikoen er høy for at noe farlig skjer om fem år? Det høres ekstremt optmisitisk ut mtp hastigheten av utvikling av kunstig intelligens. (og "vi får bra kunstig intelligens om 5-10 år har vært spådd siden 60-tallet) AtW 1 Lenke til kommentar
yngso Skrevet 27. februar 2015 Del Skrevet 27. februar 2015 Tror det er en begrepsforvirring ute og gaar her: AI er ikke kunstig liv. Mennesker kan lage de begrensningene som trengs i programmene... Lenke til kommentar
yngso Skrevet 27. februar 2015 Del Skrevet 27. februar 2015 Risikoen er høy for at noe farlig skjer om fem år? Det høres ekstremt optmisitisk ut mtp hastigheten av utvikling av kunstig intelligens. (og "vi får bra kunstig intelligens om 5-10 år har vært spådd siden 60-tallet) AtW Enig, det blir alltid sagt fint lite om grunnlaget for saanne spaadommer... Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå