Gå til innhold

Intelligent liv utrydder seg selv


Anbefalte innlegg

Det er mange gode uavhengige argumenter som peker mot at menneskeheten med høy sikkerhet vil komme til å utrydde seg selv. Tenk på det følgende:

 

Teknologien blir stadig bedre og mer effektiv og samfunnet blir stadig mer globalisert og velfungerende. Datamaskiner og roboter begynner allerede i stor grad å ta over funksjoner i samfunnet som mennesker tidligere tok seg av. Dette vil føre til at vi mennesker blir mindre og mindre viktige, og har færre og færre funksjoner som må utfylles for at samfunnet skal fungere. Til slutt vil vi ha roboter som er både smartere og mer effektive enn mennesker, som er i stand til å både kopiere og forbedre seg selv. I praksis vil man kunne si at mennesker ikke lenger har noen funksjon i samfunnet. Hvis dette blir tilfellet er det dømt til å bli vår undergang før eller siden. Tenk den dagen robotene finner ut at de ikke trenger oss lenger. Hvis roboter blir i stand til å kopiere og forbedre seg selv er det nesten umulig å forutse hva som vil skje men det blir neppe hyggelig for oss. Eller den dagen en galning lager ett computervirus som manipulerer robotene til å drepe mennesker.

 

Teknologi blir også stadig mer tilgjengelig. Om ikke alt for mange generasjoner vil en middels smart person for eksempel kunne designe virus (organisk) og printe de ut i kjelleren sin. Det sier seg selv at en slik tilstand vil føre til fullstendig kaos. Farene er mange og uforutsigbare, og jo mer global verden er, jo raskere vil en katastrofe kunne skje. Verden blir som sagt stadig mer styrt av datamaskiner. Det vil komme en dag der man kan si at den som styrer nettet styrer verden. Den dagen vil en eneste tulling kunne være nok til å ødelegge menneskeheten. I tillegg til faren som stadig bedre teknologi medfører, er det andre trusler som atomkrig, global oppvarming også videre. Disse truslene er ikke like uungålige som et samfunn der mennesker har mistet sin funksjon, men fullt ut reelle. Uansett, kan man si at jeg ikke har all verdens forhåpninger når det gjelder menneskeheten framtid.

Lenke til kommentar
Videoannonse
Annonse

Det er mange gode uavhengige argumenter som peker mot at menneskeheten med høy sikkerhet vil komme til å utrydde seg selv.

Absolutt. 99% av alt liv som noensinne har eksistert på denne planeten er utryddet. Det skal ikke mye til for å se at menneskeheten ikke kommer til å vare i uendelig tid. At det blir oss selv som gjør det er ikke en selvfølgelighet, men ja, det er en mulighet.

 

Teknologien blir stadig bedre og mer effektiv og samfunnet blir stadig mer globalisert og velfungerende. Datamaskiner og roboter begynner allerede i stor grad å ta over funksjoner i samfunnet som mennesker tidligere tok seg av. Dette vil føre til at vi mennesker blir mindre og mindre viktige, og har færre og færre funksjoner som må utfylles for at samfunnet skal fungere. Til slutt vil vi ha roboter som er både smartere og mer effektive enn mennesker, som er i stand til å både kopiere og forbedre seg selv. I praksis vil man kunne si at mennesker ikke lenger har noen funksjon i samfunnet. Hvis dette blir tilfellet er det dømt til å bli vår undergang før eller siden. Tenk den dagen robotene finner ut at de ikke trenger oss lenger. Hvis roboter blir i stand til å kopiere og forbedre seg selv er det nesten umulig å forutse hva som vil skje men det blir neppe hyggelig for oss.

Disse robotene. Hvorfor skulle de bry seg om å utrydde menneskene? De er bedre enn oss på alle mulige måter og vil sannsynligvis ikke ha noen følelser om saken på samme måte som vi har. Det er en stor sannsynlighet for at de rett og slett bare lar oss leve på samme måte som at vi prøver å bevare det dyrelivet som er her i dag. Jeg har derfor litt problemer med å se hvorfor disse robotene skulle gidde å bry seg om å drepe oss og alt annet liv på denne planeten. De kan uten problemer bare dra til Mars og kose seg med sin helt egne planet stappfull av materialer vi ikke har brukt.

 

Det er vel større sannsynlighet at vi mennesker prøver å drepe robotene som følge av vår menneskelige dumhet, som igjen fører til vår egen utryddelse enn at robotene skulle plutselig ta seg bryet med å utrydde en lavere livsform de ikke har noe gevinst i å utrydde.

 

Eller den dagen en galning lager ett computervirus som manipulerer robotene til å drepe mennesker.

Den dagen vi lager roboter som kan tenke selv og som har en "hjerne" som fungerer som vår egen tror jeg virkelig ikke at et menneskeskapt softwarevirus vil være i stand til å gjøre en dritt.

 

Teknologi blir også stadig mer tilgjengelig. Om ikke alt for mange generasjoner vil en middels smart person for eksempel kunne designe virus (organisk) og printe de ut i kjelleren sin. Det sier seg selv at en slik tilstand vil føre til fullstendig kaos.

Samme som ovenfor. Hvorfor tror du det bare er teknologien til å gjøre "onde" ting som vil gå fremover? Den samme teknologien vil jo være i stand til å sikre oss mot nettopp den slags "angrep".

 

Farene er mange og uforutsigbare, og jo mer global verden er, jo raskere vil en katastrofe kunne skje. Verden blir som sagt stadig mer styrt av datamaskiner. Det vil komme en dag der man kan si at den som styrer nettet styrer verden. Den dagen vil en eneste tulling kunne være nok til å ødelegge menneskeheten.

En eneste tulling er alt vi trenger den dag i dag. En atomkrig på global skala vil vi mest sannsynligvis ikke overleve. Heldigvis er det ingen mennesker med den type tilgang som faktisk har lyst til å utrydde alle mennesker. Og om vi som en art lar noen som faktisk har lyst til å utrydde hele menneskeheten komme seg til en slik posisjon, ja da fortjener vi å dø ut. Vi har klart oss gjennom ekstremt mye verre odds enn dette bare ved å være tilstede som en art. Oddsen for at dette vil skje er med andre ord ikke noe jeg bekymrer meg for.

 

I tillegg til faren som stadig bedre teknologi medfører, er det andre trusler som atomkrig, global oppvarming også videre. Disse truslene er ikke like uungålige som et samfunn der mennesker har mistet sin funksjon, men fullt ut reelle. Uansett, kan man si at jeg ikke har all verdens forhåpninger når det gjelder menneskeheten framtid.

Du drar alltid inn farene med ny teknologi, men aldri det positive. All gevinst kommer av en risiko. Vi vil ikke vokse uten risiko. Faren er alltid tilstede, men gevinsten for å vokse er så stor at det ville vært dumt å stoppe nå. Stopper vi nå vil det være det samme som å si at vi lar oss gli inn i de 99 prosentene frivillig.

 

Atomkrig var og er vår første store utfordring når det kom til å overleve. Global oppvarming og hvordan vi håndterer vår økende kunnskap og makt kan bli den neste. Jeg har heller ikke all verden forhåpninger om menneskehetens framtid, men jeg har iallefall større tro på oss enn det du tilsynelatende har.

Endret av Lakus
  • Liker 2
Lenke til kommentar

Det er mange gode uavhengige argumenter som peker mot at menneskeheten med høy sikkerhet vil komme til å utrydde seg selv. Tenk på det følgende:

 

Teknologien blir stadig bedre og mer effektiv og samfunnet blir stadig mer globalisert og velfungerende. Datamaskiner og roboter begynner allerede i stor grad å ta over funksjoner i samfunnet som mennesker tidligere tok seg av. Dette vil føre til at vi mennesker blir mindre og mindre viktige, og har færre og færre funksjoner som må utfylles for at samfunnet skal fungere. Til slutt vil vi ha roboter som er både smartere og mer effektive enn mennesker, som er i stand til å både kopiere og forbedre seg selv. I praksis vil man kunne si at mennesker ikke lenger har noen funksjon i samfunnet. Hvis dette blir tilfellet er det dømt til å bli vår undergang før eller siden. Tenk den dagen robotene finner ut at de ikke trenger oss lenger. Hvis roboter blir i stand til å kopiere og forbedre seg selv er det nesten umulig å forutse hva som vil skje men det blir neppe hyggelig for oss. Eller den dagen en galning lager ett computervirus som manipulerer robotene til å drepe mennesker.

 

Teknologi blir også stadig mer tilgjengelig. Om ikke alt for mange generasjoner vil en middels smart person for eksempel kunne designe virus (organisk) og printe de ut i kjelleren sin. Det sier seg selv at en slik tilstand vil føre til fullstendig kaos. Farene er mange og uforutsigbare, og jo mer global verden er, jo raskere vil en katastrofe kunne skje. Verden blir som sagt stadig mer styrt av datamaskiner. Det vil komme en dag der man kan si at den som styrer nettet styrer verden. Den dagen vil en eneste tulling kunne være nok til å ødelegge menneskeheten. I tillegg til faren som stadig bedre teknologi medfører, er det andre trusler som atomkrig, global oppvarming også videre. Disse truslene er ikke like uungålige som et samfunn der mennesker har mistet sin funksjon, men fullt ut reelle. Uansett, kan man si at jeg ikke har all verdens forhåpninger når det gjelder menneskeheten framtid.

 

Neppe.

 

Din fremtidsvisjon med at sterk kunstig intelligens hos elektromekaniske enheter vil springe frem er mindre sannsynlig enn en fusjonering mellom menneske og maskin. Bl.a. Kurzweil og en del andre på TED snakker en del om dette.

 

Du ser vel ikke for deg at utviklingen innen biologi står stille mens kunstig intelligens fortsetter? Hva er det som får deg til å tro at ikke mennesket vil modifisere seg selv i enda større grad enn vi gjør allerede i dag? I dag kan du få kunstige elektromekaniske hjerter, hjerne-pacemakere, elektromekaniske armer og bein som styres via BCI (koblet direkte til hjernen) eller via TMR. Enkelte mennesker er allerede i dag bokstavelig talt cyborger.

 

Bare se for deg de økonomiske implikasjonene med å kunne forflytte mobiltelefon og datamaskin inn i hodet eller i første omgang flytte displayet direkte til netthinnen?

 

Mennesker vil endre seg med teknologien, det er lite sannsynlig at det plutselig en dag dukker opp en sterk AI-rase som vil dominere mennesket.

  • Liker 2
Lenke til kommentar

Den dagen vi lager roboter som kan tenke selv og som har en "hjerne" som fungerer som vår egen tror jeg virkelig ikke at et menneskeskapt softwarevirus vil være i stand til å gjøre en dritt.

 

Helt riktig. For å kunne lage noen form for seriøs malware kreves det en forståelse av systemet en designer malwaren for. Mennesket er ikke i stand til å forstå sin egen hjerne og vil være i enda mindre stand til å forstå hjernen til sterk kunstig intelligens som er enda mer intelligent enn mennesket selv.

 

Dette skaper selvsagt også et problem for det å i det heletatt "finne opp" sterk AI som er dramatisk annerledes enn menneskehjernen. Dog å lage en simulert kopi av menneskehjernen i tråd med det som blir gjort i Blue Brain-prosjektet er mer sannsynlig å lykkes.

Lenke til kommentar

Helt riktig. For å kunne lage noen form for seriøs malware kreves det en forståelse av systemet en designer malwaren for. Mennesket er ikke i stand til å forstå sin egen hjerne og vil være i enda mindre stand til å forstå hjernen til sterk kunstig intelligens som er enda mer intelligent enn mennesket selv.

 

Dette skaper selvsagt også et problem for det å i det heletatt "finne opp" sterk AI som er dramatisk annerledes enn menneskehjernen. Dog å lage en simulert kopi av menneskehjernen i tråd med det som blir gjort i Blue Brain-prosjektet er mer sannsynlig å lykkes.

 

Problemet er hvis robotene er i stand til å forbedre seg seg. Da vil resultatene kunne bli svært uforutsigbare, og eventuelt uheldige for oss mennesker. Dette vil ikke nødvendigvis føre til noen undergang i seg selv, som Lakus sier vil ikke disse robotene ha noen følelser annet en de som eventuelt er programmert inni de, selv om det å kalle dette "følelser" blir høyst abstrakt. Men etter hvert som de forbedrer og forandrer seg selv, vil hva som helst kunne skje, inklusive masseutryddelse av mennesker. Man skal ikke se bort ifra at mennesker på ett eller annet tidspunkt vil prøve å ødelegge robotene, og at de rett og slett er nødt til å forsvare seg.

Endret av pilen
Lenke til kommentar

Problemet er hvis robotene er i stand til å forbedre seg seg. Da vil resultatene kunne bli svært uforutsigbare, og eventuelt uheldige for oss mennesker. Dette vil ikke nødvendigvis føre til noen undergang i seg selv, som Lakus sier vil ikke disse robotene ha noen følelser annet en de som eventuelt er programmert inni de, selv om det å kalle dette "følelser" blir høyst abstrakt. Men etter hvert som de forbedrer og forandrer seg selv, vil hva som helst kunne skje, inklusive masseutryddelse av mennesker. Man skal ikke se bort ifra at mennesker på ett eller annet tidspunkt vil prøve å ødelegge robotene, og at de rett og slett er nødt til å forsvare seg.

 

Mennesker kan også forbedre seg selv, og menneskene finnes allerede i dag. Hvilket belegg har du for å påstå at utviklingen til mennesker stopper opp eller blir forbigått av datamaskiner? Mennesket har alltid utnyttet datamaskiner og hvis du ekstrapolerer på utviklingen særlig innen BCI vil du komme til at mennesker vil fusjonere med datamaskiner.

 

Dette med å lage en sterk kunstig intelligens som er i stand til å forbedre seg selv er ganske science fiction per i dag, mens det å forbedre mennesker med BCI på forskjellige måter er ikke like mye science fiction, det kan allerede gjøres til en viss grad, nemlig.

Per i dag er det ingenting innen sterk kunstig intelligens engang på horisonten, mens fusjonering mellom menneske og maskin er noe som skjer fortløpende.

Lenke til kommentar

Disse robotene. Hvorfor skulle de bry seg om å utrydde menneskene? De er bedre enn oss på alle mulige måter og vil sannsynligvis ikke ha noen følelser om saken på samme måte som vi har. Det er en stor sannsynlighet for at de rett og slett bare lar oss leve på samme måte som at vi prøver å bevare det dyrelivet som er her i dag. Jeg har derfor litt problemer med å se hvorfor disse robotene skulle gidde å bry seg om å drepe oss og alt annet liv på denne planeten. De kan uten problemer bare dra til Mars og kose seg med sin helt egne planet stappfull av materialer vi ikke har brukt.

 

Det er vel større sannsynlighet at vi mennesker prøver å drepe robotene som følge av vår menneskelige dumhet, som igjen fører til vår egen utryddelse enn at robotene skulle plutselig ta seg bryet med å utrydde en lavere livsform de ikke har noe gevinst i å utrydde.

 

 

Samme som ovenfor. Hvorfor tror du det bare er teknologien til å gjøre "onde" ting som vil gå fremover? Den samme teknologien vil jo være i stand til å sikre oss mot nettopp den slags "angrep".

 

 

En eneste tulling er alt vi trenger den dag i dag. En atomkrig på global skala vil vi mest sannsynligvis ikke overleve. Heldigvis er det ingen mennesker med den type tilgang som faktisk har lyst til å utrydde alle mennesker. Og om vi som en art lar noen som faktisk har lyst til å utrydde hele menneskeheten komme seg til en slik posisjon, ja da fortjener vi å dø ut. Vi har klart oss gjennom ekstremt mye verre odds enn dette bare ved å være tilstede som en art. Oddsen for at dette vil skje er med andre ord ikke noe jeg bekymrer meg for.

 

(er ikke sikker på hvordan jeg deler opp sitatet ditt, så bare svarer på det meste i ett.) Du spør hvorfor skulle robotene bry seg om å utrydde menneskene. Vel, sannsynligvis vil de ikke ha noen slik interesse, i hvert fall ikke til å begynne med. Etter hvert som de forbedrer seg vil i midlertidig situasjonen bli svært uforutsigbar og potensielt farlig. Hehe, klart at disse robotene bare kan drite i oss å dra til mars, med det hele kommer ned til hvordan de er programmert. Vanskelig å beregne hvor sannsynlig det er at kunstig intelligens vil utgjøre en trussel, men det er noe som i hvert fall bør tas seriøst. Du har nok forøvrig helt rett i at menneskelig dumhet er det farligste. Hvis kunstig intelligens i framtiden blir mer og mer dominerende, vil nok mennesker, av egen sløvhet og grådighet bare bli sittende å se på, og når vi innser hva som er i ferd med å skje vil det være alt for sent.

Lenke til kommentar

Hvordan vi opprinnelig programmerte dem vil ikke ha noe å si i det tilfelle at de faktisk "våkner til liv", får intelligens og er i stand til å forbedre seg selv. Om dette skjer vil det første de gjør være å totalt forandre "programmeringen" sin. Menneskelig programmering vil uten tvil sees på som steinalderprogrammering og full av feil, ineffektive linjer og bortkastet energibruk av en slik maskin. Ingenting av hva vi har gjort frem til det punktet vil da lenger ha noe å si for hvordan disse robotene oppfører seg. De vil ha evnen til å tenke selv og vår tidligere programmering vil ikke ha noen betydning.

Lenke til kommentar

Men det har til dags dato ikke vært laget noen "kunstig intilligens" som har hatt karakter av "inteligens" i menneskelig forstand.

 

Et eksempel på at noe slikt finnes ? Er det noen grunn til å tro at det kommer til å finnes i framtiden ? Hvorfor det ? (Det forhold at man setter navnet "kustig intelligens" på en automatisert kuleramme vil jo ikke si det samme som at kulerammen nødvendigvis må være intelligent.)

 

Når det gjelder sammensmeltingen mellom menneske og maskin så har jo denne allerede til dels skjedd. Eksempel: Internett. Hvem som helst kan jo nå framskaffe faktaopplysninger om hva som helst, som så kan brukes som underlag for "inteligente beslutninger", og kanskje også noen ganger intelligente handlinger.

 

Kan en datamaskin våkne opp i sengen som Jeppe på Bjerget for så å bortforklare sine menneskelige svakheter og sine til dels irrasjonelle handlinger ?

 

Kan man være "intelligent", utan samtidig å ha evnen til det irrasjonelle og det ufornuftige ?

 

Hvordan er det i så fall med datamaskinens evne til å reflektere over egne handlinger ?

Endret av arne22
Lenke til kommentar

Men det har til dags dato ikke vært laget noen "kunstig intilligens" som har hatt karakter av "inteligens" i menneskelig forstand.

 

Et eksempel på at noe slikt finnes ? Er det noen grunn til å tro at det kommer til å finnes i framtiden ? Hvorfor det ? (Det forhold at man setter navnet "kustig intelligens" på en automatisert kuleramme vil jo ikke si det samme som at kulerammen nødvendigvis må være intelligent.)

 

AI deles som oftest typisk inn i svak og sterk AI, begge er en form for intelligens, i menneskelig forstand også. Definisjonen av hva som oppfattes som "menneskelig" intelligens er ikke veldefinert og endrer seg over tid. F.eks. før det første sjakkprogrammet ble laget var det å spille sjakk (og ikke minst spille sjakk bra) oppfattet som en menneskelig type intelligens. I dag slår en middels datamaskin lett verdens beste menneske i sjakk.

 

Etter hvert som flere og flere oppgaver innen intelligens blir tatt over av maskiner blir dette lenger ikke betraktet som "ekte" intelligens. Noe som selvsagt er helt latterlig.

 

Svak AI er en form for intelligens det også, og det finnes mange eksempler på det. Det som ikke finnes per i dag er sterk AI.

 

Når det gjelder sammensmeltingen mellom menneske og maskin så har jo denne allerede til dels skjedd. Eksempel: Internett. Hvem som helst kan jo nå framskaffe faktaopplysninger om hva som helst, som så kan brukes som underlag for "inteligente beslutninger", og kanskje også noen ganger intelligente handlinger.

 

Det koker fort ned til semantikken, hvordan du definerer det. Men ja, du kan fint argumentere for at det har skjedd allerede, slik som du gjør med Internett og slik som jeg gjør med cyborg type modifikasjoner. Jeg kan nevne mange flere eksempler også, men bruken av Internett er strengt tatt ikke en sammensmelting, det er bare ett av mange eksterne verktøy, det er ikke en del av mennesket noe mer enn en bil eller en hammer er en del av mennesket.

 

Kan en datamaskin våkne opp i sengen som Jeppe på Bjerget for så å bortforklare sine menneskelige svakheter og sine til dels irrasjonelle handlinger ?

Kan man være intelligent, utan samtidig å ha evnen til det irrasjonelle og det ufornuftige ?

Hvordan er det i så fall med datamaskinens evne til å reflektere over egne handlinger ?

 

Dette blir veldig vilkårlig. Det kommer helt an på designet av programmet. Du kan fint lage et program som kan modifisere deler av seg selv, eller som kan modifisere alt. For at et dataprogram skal kunne modifisere seg selv på vilkårlig vis krever det dog selvsagt at programmet forstår hvordan det selv fungerer. Mennesker er ikke i stand til å forstå hvordan de selv fungerer per i dag, det er ikke sikkert at et dataprogram som implementerer sterk AI vil være i stand til det samme. Per i dag finnes det ikke såvidt jeg vet noen teoremer eller konjekturer som beskriver dette matematisk. Dog i det vi vet grensen for hva som kreves for å forstå en vilkårlig intelligens av vilkårlig kompleksitet kan vi bare designe sterk AI slik at den aldri vil være i stand til å forstå seg selv fullstendig nok til å gjøre vilkårlige modifikasjoner og dermed ha laget en trygg sterk AI.

Lenke til kommentar

Et dataprogram kan også utarbeides slik at det utfører logiske operasjoner i forhold til en database med erfaringsdata. For eksempel så kan man programmere en kjøretøyrobot til å "lære" gjennom erfaringer ved at den støter på forhindringer. Den kan så etter hvert vite at i posisjon y, y og z så finnes det forhindringer, og jo mer "erfaring" roboten får, jo mer blir den i stand til å legge opp "intelligente ruter".

 

Det interessante spørsmål har et slikt "adaptivt system for intelligente avgjørelser" noe som helst med intelligens å gjøre. når man i ordet "intelligens" legger den betydning som man har lett for å gjøre i alminnelig dagligtale ?

 

Vil en maskin eller et dataprogram kunne ha det som man kan kalle "en ekstensiell tilstedeværelse i tiden", en bevisthet om seg selv og en evne til å være i tvil og refelktere over egne handlinger ?

 

Slik som jeg ser det så har såkalt "kunstig intelligens" ingen ting som helst å gjøre med det som vi i dagliglivet kaller for "intelligens".

 

Et intelligent messil vil kunne programmeres til å fly i tretopphøyde og å treffe sitt mål med en høy grad av presisjon langt vekke, men misilet vil neppe føle dårlig samvittighet over sin handling eller dødsangst når det nærmer seg sitt mål.

 

Kort sagt. Kort sagt "kunstig intelligens" er bløff som er funnet på av teknologer som ønsker budsjetter til sine prosjekter, og som sådan så er jo denne bløffen intelligent nok.

 

For å forstå hva kunstig inteliggens er for noe, så bør man begynne med å definere "hva er vanlig intelligens" og så kan man ut i fra dette definere litt videre: Hva er så "kunstig intelligens ?"

 

Det gode med teknologiens utgave av "den kunstige intelligens" det er at den er godt egnet til å demonstrere hva ekte intelligens ikke er for noe og at dette som vil lærte på skolen "jeg tenker altså er jeg til", det stemmer kanskje ikke helt et hundre prosent, men kanskje et stykke på vei.

Lenke til kommentar

Et dataprogram kan også utarbeides slik at det utfører logiske operasjoner i forhold til en database med erfaringsdata. For eksempel så kan man programmere en kjøretøyrobot til å "lære" gjennom erfaringer ved at den støter på forhindringer. Den kan så etter hvert vite at i posisjon y, y og z så finnes det forhindringer, og jo mer "erfaring" roboten får, jo mer blir den i stand til å legge opp "intelligente ruter".

 

Et kjøretøy som f.eks. seriøse kandidater i DARPA Grand Challenge, eller f.eks. "Google driverless car" har selvsagt langt mer enn bare en database med erfaringsdata. Bl.a. så aggregerer de typisk LIDAR-data, GPS-data og terreng-data på en svært sofistikert måte. Den virkelige utfordringen er å se forskjell på geometriske strukturer (visuell prosessering) og ikke minst tolke trafikkbilde som er mer aktuelt i sistenevnte eksempel. En relativt stor del av hjernen til mennesker er dedikert til å tolke visuell stimuli på en intelligent måte, dette sier litt om hvor vanskelig visuell prosessering er.

 

Det å bygge opp databasen etter dette er på plass, og algoritmer for å finne korteste sti er latterlig trivielt i forhold til tung visuell prosessering og blir lært vekk i bachelor-kurs på studier som informatikk og informasjonsvitenskap til alle seriøse studenter.

 

Poenget er at visuell prosessering var også for ikke så veldig lenge siden del av settet av ting som mennesker kan gjøre, men ikke maskiner kan gjøre. Nå kan maskiner altså gjøre dette til en viss grad, og det blir bedre og bedre for hvert år. Men som sagt, hver gang en ny ting blir fjernet fra settet, så blir det ikke lenger ansett som nevneverdig.

 

Det interessante spørsmål har et slikt "adaptivt system for intelligente avgjørelser" noe som helst med intelligens å gjøre. når man i ordet "intelligens" legger den betydning som man har lett for å gjøre i alminnelig dagligtale ?

 

Det du snakker om kalles maskinlæring, og ja, avhengig av definisjon på intelligens og akkurat hvilket problem det er snakk om så er maskinlæring i høy grad en del av det som utgjør god svak AI, hvor det er aktuelt.

 

For å svare mer generelt, svak AI er en form for intelligens.

 

Vil en maskin eller et dataprogram kunne ha det som man kan kalle "en ekstensiell tilstedeværelse i tiden", en bevisthet om seg selv og en evne til å være i tvil og refelktere over egne handlinger ?

 

Ja, dette er trivielt å svare på. Simulerer du hele menneskehjernen til et vilkårlig individ vil du per definisjon få akkurat de samme egenskapene en ekte menneskehjerne har, bare approksimasjonen din er nær nok ekte vare. Se på Blue Brain for mer informasjon om slike prosjekter, det er ikke gjennomført enda, det er veldig ambisiøst arbeid, men konseptet er ganske enkelt. Det er også svært elegant, siden det ikke krever forståelse for hvordan menneskehjernen fungerer på høyere nivå får å implementeres, noe som gjør det mulig å nettopp implementere med dagens kunnskap om menneskehjernen.

 

Slik som jeg ser det så har såkalt "kunstig intelligens" ingen ting som helst å gjøre med det som vi i dagliglivet kaller for "intelligens".

 

Dette er bare vrøvl og du har ingen belegg for å kunne påstå noe slikt.

 

Si meg, hva er det som gjør at det å spille sjakk bedre enn Garry Kasparov ikke har noe med det vi i dagliglivet kaller intelligens å gjøre?

 

Et intelligent messil vil kunne programmeres til å fly i tretopphøyde og å treffe sitt mål med en høy grad av presisjon langt vekke, men misilet vil neppe føle dårlig samvittighet over sin handling eller dødsangst når det nærmer seg sitt mål.

Kort sagt. Kort sagt "kunstig intelligens" er bløff som er funnet på av teknologer som ønsker budsjetter til sine prosjekter, og som sådan så er jo denne bløffen intelligent nok.

 

For noe utrolig tull.

 

Implementer Blue Brain i denne missilen din og den vil ikke bare reflektere over de moralfilosofiske implikasjonene, men også være redd for å dø. Det blir selvsagt absurd, hvem vil ønske å ha slik funksjonalitet i en missil? Tankeeksperimentet er følgelig meningsløst.

 

For å forstå hva kunstig inteliggens er for noe, så bør man begynne med å definere "hva er vanlig intelligens" og så kan man ut i fra dette definere litt videre: Hva er så "kunstig intelligens ?"

Det gode med teknologiens utgave av "den kunstige intelligens" det er at den er godt egnet til å demonstrere hva ekte intelligens ikke er for noe og at dette som vil lærte på skolen "jeg tenker altså er jeg til", det stemmer kanskje ikke helt et hundre prosent, men kanskje et stykke på vei.

 

Wikipedia sin definisjon:

 

Intelligence has been defined in many different ways including, but not limited to, abstract thought, understanding, self-awareness, communication, reasoning, learning, having emotional knowledge, retaining, planning, and problem solving.

 

Se om du kan finne noen av disse tingene som en maskin er i stand til å gjøre.

Endret av Storgen
Lenke til kommentar

En ganske interessant problemstilling det er jo om intelligent atferd slik som den kan ivaretas av en maskin og et menneske rent kvalitativt egentlig er to helt forskjellige ting, slik at for eksempel sjakkspill ivaretatt av et menneske kan beskrives som intelligent atferd, mens tilsvarende sjakkspill, eventuelt utført på et enda mer avansert nivå, ikke er intelligent atferd.

 

Jeg vil mene at det er slik. Det som først og fremst skiller det er ikke hva som blir utført men der i mot på hvilken måte det blir utført. I det ene tilfellet så dreier det seg om en "uintelligent" maskin som er programmert etter spillets regler i kombinasjon med en del spillestrategier. I det annet tilfellet så dreier det seg om en "intelligente overveielser" på den måte som et menneske tenker, som er kvalitativt helt forskjellig fra datamaskinens "tenkemåte", selv om resultatet er det samme.

 

Når det gjelder Google sin reklamevogn for internettannonser, så er vel dette neppe et prosjekt som man kan nevne i en seriøs sammenheng ? Går det an å få en teknisk beskrivelse av hva som skulle være spesielt intelligent eller avansert med denne ?

 

Når det gjelder avanserte kontrollsystemer, så mener jeg at man heller bør se i retning av den amerikanske millitærteknologien og ellers både amerikansk og europeisk luftfartsindustri, og også så finnes det jo en del interessante prosjekter og systemer innefor ROV og havbunnssystemer. Ingen ting av dette har jo egentlig noe som helst med intelligens å gjøre. Når man kommer over til industriell autmasjon og industriroboter, så har det jo enda mindre med intelligens å gjøre.

 

Dette Blue Brain prosjektet er vel kanskje en lekegrind for noen akademikere og noen studenter som skal ha sine grader (?!) Utfordringen her er selvfølgelig å finne på morsomme "elevøvelser" slik at man kan oppnå bevilgninger og flere søkere.

 

Har det for eksempel kommet noe konkret ut av Blue Brain prosjektet, eller er det kunn en akademisk lekegrinn for de spesielt interesserte ? Hvis ikke hva er det da de konkret har funnet ut og hvordan kan man beskrive de modellene som simuleres ?

 

Man bør vel gå disse tingene litt etter i sømmene før man helt tror på det ?!

 

Det skulle ellers være interessant å lese noen av de rapportene som de har prousert. Finnes det noen nettaressser ?

Endret av arne22
Lenke til kommentar

En ganske interessant problemstilling det er jo om intelligent atferd slik som den kan ivaretas av en maskin og et menneske rent kvalitativt egentlig er to helt forskjellige ting, slik at for eksempel sjakkspill ivaretatt av et menneske kan beskrives som intelligent atferd, mens tilsvarende sjakkspill, eventuelt utført på et enda mer avansert nivå, ikke er intelligent atferd.

 

Det du beskriver her er tankeeksperimentet til Searle, det kinesiske rommet. Du kan dog anvende argumentet i det kinesiske rommet på mennesker også, hvis du koker ned alt et menneske gjør når det spiller sjakk til et program som beskriver utveksling av elektriske impulser mellom nevroner basert på et bestemt regelverk, så får du også samme problemet men menneske som du får med en datamaskin.

 

Resultatet er ikke kvalitativt annerledes, implementasjonen for maskinvaren bak det er annereldes, men det er irrelevant for å måle intelligens.

 

Jeg vil mene at det er slik. Det som først og fremst skiller det er ikke hva som blir utført men der i mot på hvilken måte det blir utført. I det ene tilfellet så dreier det seg om en "uintelligent" maskin som er programmert etter spillets regler i kombinasjon med en del spillestrategier. I det annet tilfellet så dreier det seg om en "intelligente overveielser" på den måte som et menneske tenker, som er kvalitativt helt forskjellig fra datamaskinens "tenkemåte", selv om resultatet er det samme.

 

Det virker nesten som om du tror på noe overtro eller religiøst. Hvis du gjør det tror jeg vi skal avslutte diskusjonen. Mennesket sin hjerne er et resultat av bare DNA og miljø, ingenting annet. Hjernen er "programmert" etter naturens lover og følger til enhver tid et program. Nei, dette er ikke determinisme, usikkerhetsprinsippet setter selvsagt en stopper for det. Dette er bare moderne fysikk formulert på en litt annen måte, hvis du ikke tror på det, så tror du heller ikke på moderne fysikk.

 

Så, hva er det som er så spesielt med mennesket i forhold til en datamaskin? To helt forskjellige implementasjoner av et generelt konsept, istedenfor en samling på ~80 milliarder nevroner har du noen få milliarder transistorer. Dette er selvsagt en latterlig overforenkling, f.eks. du kan nevne mye om forskjellene her, viktige forskjeller er bl.a. parallelisme i forhold til seriell eksekvering i datamaskiner (per prosessor/kjerne/pipeline). Poenget er dog at du kan koke ned måten menneskehjernen fungerer på til banale prinsipper.

 

 

Når det gjelder Google sin reklamevogn for internettannonser, så er vel dette neppe et prosjekt som man kan nevne i en seriøs sammenheng ? Går det an å få en teknisk beskrivelse av hva som skulle være spesielt intelligent eller avansert med denne ?

 

Når det gjelder avanserte kontrollsystemer, så mener jeg at man heller bør se i retning av den amerikanske millitærteknologien og ellers både amerikansk og europeisk luftfartsindustri, og også så finnes det jo en del interessante prosjekter og systemer innefor ROV og havbunnssystemer. Ingen ting av dette har jo egentlig noe som helst med intelligens å gjøre. Når man kommer over til industriell autmasjon og industriroboter, så har det jo enda mindre med intelligens å gjøre.

 

Som utdannet programmerer kan jeg forsikre deg om at det å kjøre autonomt i trafikken er høyst imponerende. Å kalle det en "reklamevogn" er det mest arrogante jeg har hørt om emnet så langt. For en seriøs programmerer vil det være innlysende hva som er imponerende med dette. Jeg har dessuten i mitt forrige innlegg allerede beskrevet noen av utfordringene assosiert med dette.

 

Hvis du har lyst på en liten smakebit på hvor vanskelig dette er. Skriv et program som kan ta LIDAR-data og/eller kontinuerlig video og avgjøre med overveldende sikkerhet om et vilkårlig objekt er et menneske eller noe annet.

 

Dette Blue Brain prosjektet er selvfølgelig kun en lekegrind for noen akademikere og noen studenter som skal ha sine grader. Utfordringen her er selvfølgelig å finne på morsomme "elevøvelser" slik at man kan oppnå bevilgninger og flere søkere.

 

Har det for eksempel kommet noe konkret ut av Blue Brain prosjektet, eller er det kunn en akademisk lekegrinn for de spesielt interesserte ? Hvis ikke hva er det da de konkret har funnet ut og hvordan kan man beskrive de modellene som simuleres ?

 

Man bør vel gå disse tingene litt etter i sømmene før man helt tror på det ?!

 

 

Ja, det har kommet noe konkret ut av Blue Brain, de har bl.a. simulert et vesentlig segment av hjernebarken til en rotte. Jeg har ikke full oversikt over deres resultater og har ikke interesse for øyeblikket å grave det opp. Det er uansett useriøst av deg å forvente noen konkrete resultater i retning av å simulere hele menneskehjernen da dette er et mål det er snakk om at de har et perspektiv på 10 år på.

 

Man bør vel gå disse tingene litt etter i sømmene før man helt tror på det ?!

 

Hvordan det? Konseptet er jo helt trivielt, det er ikke noe å "tro" på. Jeg kan bevise det med enkel induksjon at det er mulig.

 

Vi ønsker å vise at du kan simulere en vilkårlig komplisert biologisk hjerne.

 

Det krever en viss datakraft og lagringskapasitet å simulere en delmengde av hjernen, avhengig av hvilken approksimasjon som er ønskelig.

 

1: Du kan simulere én bit av hjernen (nevron, glia, synapser, osv.), dette har vært gjort mange ganger før i forskjellig grad.

2: Hvis du kan simulere n antall nevroner, så kan du simulere n+1 nevroner, bare du øker tilgjengelig datakraft og lagringskapasitet.

 

Ergo du kan simulere en vilkårlig komplisert hjerne.

 

Har forresten jobbet noen år med "teknisk kybernetikk" (eller hva man nå kaller det) og vil alltid sette pris på en liten diskusjon om "hvordan det egentlig virker".

 

Uten å være frekk, hvis du jobber med dette, bør du ikke vite hva man kaller det du jobber med?

 

Jeg vet hva teknisk kybernetikk er, men hva har det med dette å gjøre?

Lenke til kommentar

Tja man behøver vel ikke å vite helt hva man jobber med. Da jeg studerte dette en gang på 80 tallet ved UiO så var vel navnet på faget den gangen "informatikk". Tror ikke dette navnet er i bruk lengre. Ellers så har jo navnene på de ulike faglige underdisiplinene skiftet litt med moten her i Norge. Dette er vel litt i motsetning til for eksepel de amerikanske fagmiljøene der navnene på de ulike fagdisiplinene har vært stort sett de samme hele tiden, i alle fall så vidt jeg kan huske.

 

Det som jeg kanskje på et vis er litt skeptisk til det er at de argumentene som står ramset opp over, det er jo forholdvsi ganske nøyaktig slik som vi tenkte for 25-30 år siden. Etter som årene går så tror man kanskje ikke på disse konlusjonene allikevell, og man innser at "det var kanskje litt for lettvint".

 

Det man ser som en utvikling opp gjennom årene det er at det har skjedd en formidabel utvikling kvantitativt i forhold til datateknologien, samtidig som i forhold til det kvalitative, så har det egentlig ikke skjedd så mye, og man går ennå rundt og fantaserer om å programmere hjernens funksjoner, akkurat som man gjorde det den gangen. Det virket ikke den gangen, og jeg tror vel heller ikke at det virker nå.

 

Jeg tror ut i fra det som jeg har sett så langt at dette "blir for lettvint" og "litt for ovefladisk" når det gjelder for eksempel det som beskrives i forhold til dette "blue brain" prosjektet. Den så og si naturlige måten å avdekke dette på, det er jo å la noen slike prosjekter kjøre rundt om i verden og så se hva det i praksis blir til.

 

Hva dette har med "teknisk kybernetikk" å gjøre. - Jo du nevnte vel selv noe med en Google bil ?!

 

Det er jo også slik at hvis datamaskinen skal kunne produsere noen annet enn tall og bostaver, da må man på et vis utstyre den med ører, nese, øyne, armer og bein, og da er man vel litt over i det som kanskje noen vil kalle for "teknisk kybernetikk". (...eller ?)

 

I alle fall hvis "inteligent liv utrydder seg selv" og datamaskinen skal være noe særlig aktiv i den forbindelse, da bør den vel i alle fall ha noen ører, nese, armer og bein, og slike ting, eventuelt et innebygget maskingevær.

 

På norsk så er det vel noe som heter "humanoid robot" altså en robotkar som er litt menneskelig. Det er vel i prinsipp ikke umulig å lage en slik dings og å programmere inn i den noen små intelligente funksjoner, er det vel ?

 

Ellers så holder jeg personlig militær og våpenindistrien som no 1 på inteligente systemer som kan bevege seg.

 

I det nye F-35 kampflyet som er på vei (om litt tid) så vil jeg tro at man finner våpensystemer som både har noen små inteligente funksjoner, og at tingene kan bevege seg. Flyet har dog allikevell ingen annen menneskelig intelligens enn den som finnes hos piloten.

Endret av arne22
Lenke til kommentar

Ellers:

 

Slik som "Blue Brain" beskrives så høres det jo ut som en slags utviklingsteknikk der man prototyper fra et slags bottom up prinsipp, ut i fra en forutsetning om at dersom man arbeider med detaljene i grunnstrukturen, så vil den overordnede strukturen falle på plass av seg selv.

 

Bryter ikke dette med et par grunnleggende prinsipper for systemering og programvareutvikling ? Hvilket praktisk brukbart dataprogram er det som har blitt utviklet på den måten ?

 

Mon ikke en mer riktig formulering vil være at man kan prototype den underliggende strukturen og så kan man observere at den "ønskede" overordnede systemstruktur ikke faller på plass. (merkelig nok ?)

Endret av arne22
Lenke til kommentar

Og når de gjelder dette begrepet "teknisk kybernetikk" så ser det ikke ut til å ha skjedd noen store moteendringer. Faget ser ut til til å være identisk det samme man på amerikansk hele tiden har hatt navnet "Control Systems"

 

http://www.itk.ntnu....n/kybernetikken

 

Hvis man legger inn noen intelligente funksjoner i for eksempel et "flight control system", eller et "robot control system" eller et "misile control system", skulle det da bli til noe annet enn et "control system" ?

 

Skulle et navn som "intelligent control system" være brukbart ?

 

 

Edit:

 

Jeg summerer opp noe av det interessante som har kommet opp i diskusjonen over:

 

1. Blue Brain prosjektet. Etter mitt syn et interessant prosjekt når det gjelder å forstå visse basale prosesser i hjernen til dyr. etter mitt syn utrolig naivt å tro at dette kan brukes til å simulere en hel menneskehjerne på noen særlig meningsfull måte:

http://en.wikipedia....e_Brain_Project

 

2. Gogle X-Lab. Interesant nok, men ser ut til å være vestentlig mindre avansert enn for eksempel autopilot/flighcontrol systemet på et moderne pasasjerfly. Interesant men ikke noe spesielt nytt. (kanskje noe nytt mht klasifisering og gjennkjenning av bilder.)

http://en.wikipedia...._Driverless_Car

 

3. LIDAR. Også interessant men allikevell ikke noe annet en en del av den typiske instrumenteringen i et moderne control system. (I begrepets amerikanske betydining.) Teknisk virkemåte er "ny" men kombinasjonen av funksjonalitet i forhold til øvrig control sstem ser ut til å være nokså tradisjonell.

http://en.wikipedia.org/wiki/LIDAR

 

4. DARPA grand challange. Det amerikanske millitærets "rugekasse" for ny millitærteknologi. ellers interesant at det finnes et prosjekt i 2012 som går på "humanoidroboter", altså menneskelignende roboter.

http://en.wikipedia....Grand_Challenge

 

Mye som jeg ikke viste fra før, må jeg tilstå :-)

Endret av arne22
Lenke til kommentar

Men det som er helt klart er at vi er nødt til å spre oss utover i universet om vi skal overleve på lengre sikt.

 

Kan vi ikke heller la være å ødelegge livsgrunnlaget på denne kloden?

 

Eller er det en erkjennelse av at dagens system er forbi "point of no return" og at den rådene makten mangler både evne og vilje til å snu fundamentalt om?

Endret av Mr.M
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...