Joachim_F Skrevet 16. mai 2015 Del Skrevet 16. mai 2015 Stephen Hawking advarer igjen.– Kunstig intelligens vil gå forbi oss innen 100 år Lenke til kommentar
Gjest Slettet+513 Skrevet 16. mai 2015 Del Skrevet 16. mai 2015 (endret) Jeg tviler. Roboter er bare kald logikk. Roboter kan ikke bli som oss levende da de ikke er født(bygget) levende. De blir bare billige imitasjoner som kan være kan bli naturtro, MEN. Uten selvbevisthet er det bare en imitasjon av oss. Cyborgs er mer sannsynlig. Bare biologi har liv. Endret 16. mai 2015 av Slettet+513 Lenke til kommentar
jøkul ptro Skrevet 16. mai 2015 Del Skrevet 16. mai 2015 Jeg har en teori om at Stephen Hawkings bare en front for A.I'en i stolen han sitter i... skummelt 1 Lenke til kommentar
Rudde Skrevet 16. mai 2015 Del Skrevet 16. mai 2015 Jeg vil igjen påpeke at det er svært lite sannsynlig at en AI vil ha et overlevelsesinstinkt og med dette noe som helst interesse av å ødelegge for oss, om såklart en overlevelsesinstinkt ikke er intensjonelt programmert i AI'et. En AI vil ikke ha gjennomgått en evulosjonsprosess på samme måte som organiske vesner som oss selv og derfor ikke ha et naturlig overlevelsesinstinkt. Jeg kan heller ikke se for meg at en AI vil ha noen som helst interesse av å være truende ovenfor oss. Jeg sier ikke at dette er garantert hva som kommer til å skje, men at det er en veldig ulogisk konklusjon. Jeg vil påstå vi står rimeligt trygt så lenge vi ikke gir AI'er autoritet til å "kill on will" før vi i det heletatt vet helt hva vi driver å leker med. Lenke til kommentar
Avean Skrevet 16. mai 2015 Del Skrevet 16. mai 2015 Tviler vi vet bedre enn Hawking. Det er også sikkert gjort langt mer framskritt enn hva media er klar over. Elon Musk nevnte jo det i et intervju, han var like redd for AI utviklingen. Da nevnte han at hvis vi visste like mye som han gjorde om framskrittene som er gjort, så hadde vi alle vært redd. Lenke til kommentar
Gavekort Skrevet 16. mai 2015 Del Skrevet 16. mai 2015 Jeg tviler. Roboter er bare kald logikk. Roboter kan ikke bli som oss levende da de ikke er født(bygget) levende. De blir bare billige imitasjoner som kan være kan bli naturtro, MEN. Uten selvbevisthet er det bare en imitasjon av oss. Cyborgs er mer sannsynlig. Bare biologi har liv. http://en.wikipedia.org/wiki/Duck_test Hva sier at hjernen din ikke kan brytes ned til "kald logikk"? Lenke til kommentar
Rudde Skrevet 17. mai 2015 Del Skrevet 17. mai 2015 Tviler vi vet bedre enn Hawking. Det er også sikkert gjort langt mer framskritt enn hva media er klar over. Elon Musk nevnte jo det i et intervju, han var like redd for AI utviklingen. Da nevnte han at hvis vi visste like mye som han gjorde om framskrittene som er gjort, så hadde vi alle vært redd. Det er jeg såklart enig i, men hvorfor jeg motsier meg både Musk og Hawkings er fordi jeg syns de argumentere dårlig for synspunktet sitt og de blir (desverre) tatt serriøst uansett hva de sier på grunn av bakgrunnen sin. Lenke til kommentar
Suppen Skrevet 17. mai 2015 Del Skrevet 17. mai 2015 En AI trenger ikke ha overlevelsesinstikt, ei heller å være selvbevisst for å utrydde oss. Den trenger heller ikke være programmert til det. Et eksempel på dette er noe som kalles "The Paperclip Maximizer" (http://wiki.lesswrong.com/wiki/Paperclip_maximizer). I korte trekk går det ut på at en AI har blitt gitt et mål om å skaffe flest mulig binders. Du består av atomer, og disse atomene kan omorganiseres til ganske mange binders.... Et annet eksempel er en AI som har fått som mål å utrydde kreft. Hva er den enkleste og raskeste måten å utrydde kreft på? Jo, utslett alt liv. 1 Lenke til kommentar
Rudde Skrevet 17. mai 2015 Del Skrevet 17. mai 2015 En AI trenger ikke ha overlevelsesinstikt, ei heller å være selvbevisst for å utrydde oss. Den trenger heller ikke være programmert til det. Et eksempel på dette er noe som kalles "The Paperclip Maximizer" (http://wiki.lesswrong.com/wiki/Paperclip_maximizer). I korte trekk går det ut på at en AI har blitt gitt et mål om å skaffe flest mulig binders. Du består av atomer, og disse atomene kan omorganiseres til ganske mange binders.... Et annet eksempel er en AI som har fått som mål å utrydde kreft. Hva er den enkleste og raskeste måten å utrydde kreft på? Jo, utslett alt liv. Det er jeg klar over, men da vil jeg heller ikke påstå det er en ekte AI, og heller "kald logikk" som nevnt over her. Og hvorfor skulle en ikke-selvbevist AI ha tilgang til ressurser som kunne utslette menneskeheten, oppgaven dens var å finne kuren, ikke å gjennomføre den. De vet vi hva den konkludere med og vi kan fore den flere parameter. Og da igjen, hvorfor skulle denne AI'en hatt noe interesse av å gjennomføre denne konklusjon, da den ikke er selvbevist? Lenke til kommentar
Limbeck Skrevet 17. mai 2015 Del Skrevet 17. mai 2015 Overgå oss i intelligens? Det er vanskelig siden vi fungerer så forskjellig. I matte har de passert oss for evigheter siden. Lenke til kommentar
Just2user Skrevet 17. mai 2015 Del Skrevet 17. mai 2015 Jeg for min del ser frem til singulariteten. Lenke til kommentar
xRun Skrevet 18. mai 2015 Del Skrevet 18. mai 2015 100 år kan være en litt optimistisk tidsramme, ser ikke bort fra at halvparten kan være mer enn tilstrekkelig. Se bare hva mennesker har fått til de siste 100 årene, og hvor mye raskere ting har gått de siste 50 ift. tidligere. Ser ingen grunn til å anta at utviklingen vil gå langsommere fremover. Lenke til kommentar
Anbefalte innlegg