Andrull Skrevet 26. februar 2016 Del Skrevet 26. februar 2016 (endret) Og 20 år er ganske optimistisk. I alle fall om du tror det ikke bare har blitt utviklet, testet og godkjent, men også erstattet folk på sykehus land og strand. Og etter hva meg bekjent så tjener de ganske godt, og har veldig veldig mye å gjøre. Og køene ser ikke ut å bli noe mindre, tross en sterkt teknologisk utvikling. Så her snakker vi om nesten et umettelig kø av folk som ønsker operasjoner og leger. Plenty av jobbmuligheter med andre ord. Samt det faktum at leger og maskiner jobber i tett samarbeid allerede. At EN maskin tar over alt er ganske langt inn i fremtiden. Strekker vi det så langt, som du gjør, som en sterkt AI. Så vil det kunne snu ting. For da er det ikke lengre snakk om at roboter bare er et verktøy, men at de faktisk vil regne seg selv som noe eget. Dvs. at de kanskje ønsker å legge beslag på ressursjer og det som måtte komme med. Men at samfunnet ønsker å lage eller ta i bruk et verktøy som selv kanskje krever større ressursjer blir en annen sak. Og nærmest kan kalles en del av befolkningen. Men dette er altså ikke dette. Kun en smart og effektiv bruk av allerede fullt utviklede verktøy. Og om noe mer teknologisk, så er de like dumme som en rullende gråstein. Endret 26. februar 2016 av Andrull 1 Lenke til kommentar
coffeee Skrevet 26. februar 2016 Del Skrevet 26. februar 2016 Mest sannsynlig er det en realitet. Husk at denne utviklingen skjer med eksponensiell vekst. Datateknologien fordobler seg altså for hvert eneste år. På 20 år betyr det at datateknologien blir 500 000 ganger bedre enn den er i dag. Lenke til kommentar
Andrull Skrevet 26. februar 2016 Del Skrevet 26. februar 2016 (endret) Mest sannsynlig er det en realitet. Husk at denne utviklingen skjer med eksponensiell vekst. Datateknologien fordobler seg altså for hvert eneste år. På 20 år betyr det at datateknologien blir 500 000 ganger bedre enn den er i dag. Langt ifra 'dessverre'. Kutt bort alle nullene, så har du et mer realistisk tall. Moores lov, sa at antall transistorer man kunne pakke inn på et gitt område ville doble seg for hver 18 måned. Og selv om antall transistorer til en viss grad kan diktere hvor høy ytelse man kan forvente av en prosessor, så vil et økt antall transistorer minske graden av effektivt design. Jo flere, jo vanskeligere å utnytte. Du kan nok derfor ikke forvente en dobling i ytelsen hver 18 måned. Det var nok en tid hvor man samtidig klarte å øke frekvensen prosessoren kunne operere, og dermed kanskje fikk en doblet ytelse hvert 2 år. Men denne grensa for frekvensøkning på dagens halvledere (silisium) nådde vi for en 12-13 år siden. Deretter skjønte man at det ikke gikk lengre, og for å kontre problemet med å effektivisere stadig mer og mer komplekse kretser så fikk man et lite gjennombrudd som kunne fortsette veksten. Ved hjelp av å øke parallelliteten til en CPU med flere kjerner. Og plutselig så vi både 2 og 4 kjerner. Med flere kjerner så kom dog problemene med å lage programvare som kan dra nytte av alle sammen, noe som også sakket utviklingen med antall kjerner også. Spesielt på forbrukerfronten. I tillegg så har det de siste 5-6 årene vært stadig vekk vært flere utsettelser, samt en svært langsom vekst på transistorfronten. Foreløpig har det bare vært en dobling i antall transistorer på 7 år. (bloomfield, i7-920 til 5960X) Krymping under 20 nm har ikke Intel klart å komme ut med enda på high-end fronten. Og forbedringene de siste årene har vært marginale(5-10 % ish for hver nye generasjon). Er ganske vanskelig å lage en stor feilfri prosessor. På servermarkedet har det vært noe bedre, da det av natur klarer å skalere parallellitet langt bedre. Dette er uansett ikke noe sjokk, da vi begynner å nærme oss den maksimale teoretiske grensen som silisium har. Og det vil sakke ned videre. Nye stoffer og metoder er og har lenge vært under lupen og konstruksjon, for å kunne utvide hhorisonten for datateknologien. Les: optiske transistorer, grafén, og kvanteprosessorer. Noen er fortsatt på det teoretiske plan, andre har faktisk prototyper. Men i dag er det fortsatt ikke noe som er i nærheten av å erstatte silisiumprosessoren. Og det kommer nok fortsatt til å ta en del år før de i det hele tatt klarer å komme seg forbi dagens nivå, og enda lengre før de blir praktiske i størrelse og pris. Og først da, gitt at alt går som det skal, så kan vi se en flott økning i datakapasitet igjen. Det blir raskt et par tiår. Frem til da, så vil ting øke i sneglefart. Men at det samtidig gjøres store fremskritt på AI generelt sett er jo selvsagt sant. Rent programvaremessing. Men noen sterk AI, da trenger vi også rå datakraft og små nok chips til å matche dette. Endret 26. februar 2016 av Andrull 1 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå