AfterGlow Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 Steve Wozniak deler dommedagssynet på kunstig intelligens.Apple-grunnlegger: – Datamaskiner kommer til å ta over for mennesker Lenke til kommentar
Samuel T. Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 Såvidt jeg har forstått, går kunstig intelligens ut på et datasystem som kan læres opp til ting. Hunder kan også læres opp, men har de tatt over verden, kanskje? 1 Lenke til kommentar
FroZenThai Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 Såvidt jeg har forstått, går kunstig intelligens ut på et datasystem som kan læres opp til ting. Hunder kan også læres opp, men har de tatt over verden, kanskje? Så vidt jeg har forstått så er ikke hunder så fryktelig smarte i forhold til en data muligens kan være. Og jeg syns at det med datamaskiner kan ta over er en mulighet, intelligent eller ei. 3 Lenke til kommentar
goystein Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 En interessant (og lang) artikkel/blogg i to deler om teamet her. http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html 2 Lenke til kommentar
Uderzo Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 Såvidt jeg har forstått, går kunstig intelligens ut på et datasystem som kan læres opp til ting. Hunder kan også læres opp, men har de tatt over verden, kanskje? Det begrenser seg til, gjør handling x, få godbit. Kunstig intelligens vil, på et eller annet tidspunkt, nå et nivå som gjør datamaskiner i stand til å tenke som mennesker. Og det er all grunn til å være bekymret for det. En aktuell problemstilling er f.eks selvdrevne bilder. Hvis bilen havner i en ulykke hvor det står mellom ditt liv eller en annens liv, hvor ved å ofre deg, så vil sjansen øke for at andre medtrafikanter overlever. Er det et valg vi er klar for å overlate til en datamaskin? En datamaskin er fullstendig overlegen oss når det gjelder å lynraskt prosessere informasjon, vil det oppstå situasjoner i fremitden hvor vi enkelt å greit er ute av stand til å forstå valget en datamaskin tar? Fordi de operer på et mye høyere nivå enn oss selv? Det er der mange av ideene i science fiction kommer fra, hva om datamaskiner trekker den logiske slutningen at mennesker bare er i veien? Vil vi være i stand til å kontrollere fremtidens kunstige intelligens? 1 Lenke til kommentar
Crusis Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 maskiner kommer til å bli selvbevisst, før eller siden..om det vil bli en fare for oss mennesker, vet vi jo ikke, for da ilegger vi vel maskiner menneskelig moral, tankegang og logikk? Kanskje de bare drar sin vei, lager stjerneskip og oppretter kolonier/sivilisasjoner andre steder, vekke fra oss primitive mennesker 3 Lenke til kommentar
tommyb Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 "...det viste seg at Wozniak har overraskende sterke meninger..." Mmmmnei? Uansett samtaleemne er det vel aldri overraskende at Wozniak har sterke meninger? 2 Lenke til kommentar
tommyb Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 Såvidt jeg har forstått, går kunstig intelligens ut på et datasystem som kan læres opp til ting. Hunder kan også læres opp, men har de tatt over verden, kanskje? Det finnes nok av eksempler på hunder som har forsøkt ta over lokalmiljøet sitt. Da blir de avlivet. 1 Lenke til kommentar
P@rm@nn Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 (endret) Såvidt jeg har forstått, går kunstig intelligens ut på et datasystem som kan læres opp til ting. Hunder kan også læres opp, men har de tatt over verden, kanskje? Hvor mange sveisere kan sveise-hundene dine erstatte? I teorien kan en sveisecelle erstatte 239 årsverk[1]! Godnyheten er selvfølgelig at da kan sveiserne gjøre noe annet, og tradisjonelt er det det som har skjedd, vi har tatt effektiviteten ut i høyere produksjon. Problemer nå er: 1)Kan vi realistisk forvente at alle sveisere kan bli robotingeniører? Eller risikerer vi etter hvert at robotene blir så avanserte at den eneste arbeidskraften vi trenger fra mennesker er såpass avansert at bare f.eks 50% befolkningen realistisk har forutsetninger for å lære seg det som trengs? Hva gjør vi med resten? 2)Kan vi fortsette å produsere oss ut av problemet, altså fortsette å øke produksjonen av "ting" opp i himmelen? Det er eneste måten vi kan fortsette å effektivisere samtidig som vi beholder arbeidsplasser. 3)Hva skjer med maktbalansen mellom kapitaleiere og arbeidere? På kort sikt kan det se bra ut for arbeiderne, siden man trenger mer kompetent arbeidskraft for å drifte roboter. Men det er enklere å erstatte 10 ingeniører enn 100. Jo mer ekstremt det blir, jo færre ansatte man trenger per produksjonsenhet, jo enklere er det å flytte til et annet land med lavere (bedrift)skatter. Vi kan selvfølgelig tenke oss en utopi hvor vi ikke trenger å jobbe, eller vi må jobbe mye mindre. Men hvordan skal det gå til? Bedriftseiere vil jo helst skattes så lite som mulig, og roboter gjør det enda enklere å flytte produksjonen til land med lave skatter. Hvis vi skal ta ut en del av effektivitetsøkningen i økt velferd, f.eks bedre gamlehjem, skoler o.l så må det finansieres v.h.a skatter, samtidig som det er et konstant press for å senke bedriftsskattene (siden bedriftene enkelt kan flytte). Lønninger blir også en mindre del av produksjonskostnadene i forhold til bedriftsskatten, så man kan betale de få ingeniørene temmelig godt for å flytte til et land med litt lavere bedriftsskatter. Jeg er pessimist. Ikke fordi jeg ikke tror at teknologi kan gjøre samfunnet bedre, men jeg tviler sterkt på samfunnets evne til å ta håndtere den. 1: http://www.abcnyheter.no/penger/oekonomi/2013/02/03/roboter-kan-redde-norsk-industri Endret 24. mars 2015 av P@rm@nn 5 Lenke til kommentar
tHz Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 Vi er vanvittig langt unna selvbevisste maskiner. Dagens "machine learning" og "artificial intelligence" er ikke engang på hundenivå. Det vil si, vi kan lage en robothund som kan oppføre seg _litt_ som en hund, men det er fordi vi spesifikt har programmert scenarioer. Ekte læring, konteksttolkning, selvbevisthet er helt utopi. Med dagens CPUer kan vi rett og slett ikke lage selvbeviste maskiner. Hjernen funger helt annerledes enn dagens CPU og man har rett og slett hverken algoritmer eller cpukraft nok. CPU kraft i dag er absurd mangelfull for å simulere en hjerne. Men jeg er enig i premisset. OM vi lager en selvbevisst maskin etter vår egen mal for intelligens, vil den nok ta livet av oss så fort den kan. 1 Lenke til kommentar
Betroz Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 Steve Wozniak burde vite hva han snakker om siden han er en T-888 modell fra Skynet, sendt tilbake i tid av John Conner for å advare oss om dommedag 2 Lenke til kommentar
magne.moe Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 Såvidt jeg har forstått, går kunstig intelligens ut på et datasystem som kan læres opp til ting. Hunder kan også læres opp, men har de tatt over verden, kanskje? Det begrenser seg til, gjør handling x, få godbit.Kunstig intelligens vil, på et eller annet tidspunkt, nå et nivå som gjør datamaskiner i stand til å tenke som mennesker. Og det er all grunn til å være bekymret for det. En aktuell problemstilling er f.eks selvdrevne bilder. Hvis bilen havner i en ulykke hvor det står mellom ditt liv eller en annens liv, hvor ved å ofre deg, så vil sjansen øke for at andre medtrafikanter overlever. Er det et valg vi er klar for å overlate til en datamaskin? En datamaskin er fullstendig overlegen oss når det gjelder å lynraskt prosessere informasjon, vil det oppstå situasjoner i fremitden hvor vi enkelt å greit er ute av stand til å forstå valget en datamaskin tar? Fordi de operer på et mye høyere nivå enn oss selv? Det er der mange av ideene i science fiction kommer fra, hva om datamaskiner trekker den logiske slutningen at mennesker bare er i veien? Vil vi være i stand til å kontrollere fremtidens kunstige intelligens? Nå ligger dette ganske langt unna, hunder, selv de dummeste pattedyr er mye mer inteligente en datamaskinger, dvs even til å lære og bruke det de har lært i andre settinger. De fleste systemer som de i selvstyrte biler er dumme som insekter, i alle settinger vil de opperere forprogramert ut fra satte parametere, er de smarte nok til å kjøre bilen i grøfta for å ungå en møtende bil? Ja datamaskiner vinner på hastighet og nøyaktighet, det har de gjort siden 40 tallet. Ikke for det, vært å holde øye med dette dersom de klarer å lage inteligente datamaskiner. 1 Lenke til kommentar
ATWindsor Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 Vi kan selvfølgelig tenke oss en utopi hvor vi ikke trenger å jobbe, eller vi må jobbe mye mindre. Men hvordan skal det gå til? Som du selv er inne på, så er vi avhengige av kompetente politikere her. AtW Lenke til kommentar
Kerot Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 Jeg stusser på bruken av ordet selvbevist. Vi vet jo knapt hva det er som gjør levende skapninger selvbeviste. Så hvordan vet vi noe om maskiner overhodet kan bli det. Jeg liker temaet og diskusjonen, men jeg synes man trekker konklusjoner basert på en løs oppfattning av begrepet. Lenke til kommentar
Betroz Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 (endret) Jeg stusser på bruken av ordet selvbevist. Vi vet jo knapt hva det er som gjør levende skapninger selvbeviste. Så hvordan vet vi noe om maskiner overhodet kan bli det. Jeg liker temaet og diskusjonen, men jeg synes man trekker konklusjoner basert på en løs oppfattning av begrepet. Kanskje fordi man antar at mennesklig logisk tankegang kan løse slike spørsmål. Vitenskapen har såvidt skrapt på overflaten av hjernens hemmeligheter, og hvor bevissthet kommer fra. Det meste er fortsatt bare teori, selv om en professor her og en professor der måtte mene de vet sannheten. Endret 24. mars 2015 av Betroz Lenke til kommentar
Bureaucratoren Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 "Selvbevissthet" er strengt tatt ikke en nødvendig betingelse for at intelligente datasystemer skal kunne være en trussel. Kanskje det til og med er en ulempe for slike datasystemers effektivitet. Det gjelder strengt tatt også det man kaller bevissthet i sin alminnelighet, som jo bare er et effektivt virkemiddel for den type fysiske systemer vi selv representerer, i likhet med f.eks. emosjoner. Det vi må frykte er at intelligente systemer utvikler seg evolusjonært på sine egne premisser, så å si, på en måte som går ut av kontroll. De trenger på ingen måte å være "levende" eller lignende for å gjøre det. Et slikt system vil nesten 100 prosent sikkert gå på tvers av våre interesser når det mangfoldiggjør og utvikler seg selv. Hovedproblemet er kanskje at man ikke vil legge merke til det. Mange tror jo fortsatt at FaceBook og lignende systemer ganske enkelt er et redskap for dem og ikke omvendt. 2 Lenke til kommentar
blured Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 (endret) Anbefaler alle å sjekke ut "Nick Bostrom - (2014) Superintelligence: Paths, Dangers, Strategies.". Han formulerer seg ganske så tørt, men går svært grundig igjennom temaet. (Og er som Wozniak svært skeptisk til hvilke konsekvenser dette vil kunne få for mennesket). Forfatteren ser for seg tre mulige veier til superintelligens: 1. AI / Kunstig intelligens . Vi klarer å lage systemer/roboter som evner å lære av seg selv (litt som et barn), hvilket over tid vil utvikle seg til en intelligens som overgår menneskets. 2. Emulering av hjernen. Vi klarer å kopiere en biologisk menneskehjerne, og gjenskape denne i digital-/maskinform. 3. Nevromorf intelligens. Altså en slags kombinasjon av de to første alternativene. Angående når vi klarer å oppnå "human-level machine intelligence" / superintelligens, så har Bostrom samlet opp data fra noen spørreundersøkelser i tabellen under (der forskere innenfor fagfeltet har blitt spurt når de tror vi vil klare å oppnå superintelligens): Endret 24. mars 2015 av blured Lenke til kommentar
Crusis Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 Vi er vanvittig langt unna selvbevisste maskiner. Dagens "machine learning" og "artificial intelligence" er ikke engang på hundenivå. Det vil si, vi kan lage en robothund som kan oppføre seg _litt_ som en hund, men det er fordi vi spesifikt har programmert scenarioer. Ekte læring, konteksttolkning, selvbevisthet er helt utopi. Med dagens CPUer kan vi rett og slett ikke lage selvbeviste maskiner. Hjernen funger helt annerledes enn dagens CPU og man har rett og slett hverken algoritmer eller cpukraft nok. CPU kraft i dag er absurd mangelfull for å simulere en hjerne. Men jeg er enig i premisset. OM vi lager en selvbevisst maskin etter vår egen mal for intelligens, vil den nok ta livet av oss så fort den kan. Er enig med deg at med dagens maskiner, cpu`er, er vi langt unna, iallefall med det vi vet er kommersielt tilgjengelig. Men, kvantemaskiner er laget, nanoteknologier på mange felt utvikler seg i en forrykende fart. Det skulle ikke forundre meg at feks Private aktører, eller Black Projects med uendelige ressurser tilgjengelig, allerede kan ha laget noe som er lysår foran alt vi kjenner til nå, men som er forbeholdt en liten elite mht kunnskapen/informasjonen om dette. Det er uansett laget cpuer som skifter form, dess mer de lærer, lik vår hjerne skifter fysisk form når vi lærer noe nytt..Så utopien trenger ikke være langt unna Lenke til kommentar
Uderzo Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 Såvidt jeg har forstått, går kunstig intelligens ut på et datasystem som kan læres opp til ting. Hunder kan også læres opp, men har de tatt over verden, kanskje?Det begrenser seg til, gjør handling x, få godbit.Kunstig intelligens vil, på et eller annet tidspunkt, nå et nivå som gjør datamaskiner i stand til å tenke som mennesker. Og det er all grunn til å være bekymret for det. En aktuell problemstilling er f.eks selvdrevne bilder. Hvis bilen havner i en ulykke hvor det står mellom ditt liv eller en annens liv, hvor ved å ofre deg, så vil sjansen øke for at andre medtrafikanter overlever. Er det et valg vi er klar for å overlate til en datamaskin? En datamaskin er fullstendig overlegen oss når det gjelder å lynraskt prosessere informasjon, vil det oppstå situasjoner i fremitden hvor vi enkelt å greit er ute av stand til å forstå valget en datamaskin tar? Fordi de operer på et mye høyere nivå enn oss selv? Det er der mange av ideene i science fiction kommer fra, hva om datamaskiner trekker den logiske slutningen at mennesker bare er i veien? Vil vi være i stand til å kontrollere fremtidens kunstige intelligens? ..De fleste systemer som de i selvstyrte biler er dumme som insekter, i alle settinger vil de opperere forprogramert ut fra satte parametere.. Jepp, dagens systemer er fortsatt relativt primitive, men de blir raskt bedre. er de smarte nok til å kjøre bilen i grøfta for å ungå en møtende bil? Nei, men som du selv sier, datamaskiner har forbigått mennesket i form av hastighet for lenge siden. En datamaskin reagerer mye raskere enn mennesker, og når systemene i bilene blir så avanserte at alt som foregår på veien blir registrert, ønsker vi at datamaskinen skal gripe inn slik at vi unngår ulykker? Og hva vil en slik inngripen bety? Hvis bilen gjør en unnamanøver som vi mennesker ikke hadde vært raske nok til å kunne foreta i tide, unngår kollisjonen, men treffer fotgjengere istedenfor, da har datamaskinen tatt et valg over liv eller død. Er det noe som er ønskelig? Lenke til kommentar
baguett Skrevet 24. mars 2015 Del Skrevet 24. mars 2015 Frykter ikke at dette eller noe noe lignende vil skje ila. de neste ti årene, kanskje 20, men det kan absolutt skje en gang. Og at kjente fjes stiller seg skeptisk er bra. Politikere må dog få opp øynene og vurdere dette kraftig, det er tross alt en _potensiell_ trussel, om ikke for liv og helse, så for arbeidsplasser og mer. Viktig å være føre var på dette feltet. Lenke til kommentar
Anbefalte innlegg