Gå til innhold

NVIDIA ser inn i fremtiden


Anbefalte innlegg

Nei.. det blir hverken optisk eller elektroner...

Blir noe ala meneskehjernen.. altså i 2014.. Tenk å hadd den speed`en på en hardisk som hukommelsen til hjernen ?

Spinnvillt.. ligger kanskje ennå lengre inn i fremtiden.. men mener de har fundert på noe lignende

Eh.. nervesignaler = 100Mps

Lenke til kommentar
Videoannonse
Annonse
Eksponensiellt:

År 0: 100%

År 1: 125% (25% mer enn år 0)

År 2: 156% (25% mer enn år 1)

År 3: 195% (25% mer enn år 2)

År 4: 244% (25% mer enn år 3) osv

 

:D *prøve å huske gk*

Jeg regner med at du har helt rett. Jeg tenkte på eksponensielt som noe opphøyd i noe ... og det er jo akkurat det det er :) Way to go smartypants Lars. (meg)

 

PS. Det virker som framtidsvisjonen din har litt tungvindt tilkobling for f.eks minneplugger, bytting av CD/DVD/Bluray-disker, tilkobling av skrivere, videokamera og spesialkort med dertil hørende ledninger. Tviler på at det er så lurt å strekke alle mulige kabler lange avstander i huset heller. (Trådløst vil gi for dårlig båndbredde). Hvorfor ikke bare ha lokale mini-PC'er rundtom i huset? F.eks bærbare PC'er eller stasjonære (=vanlig LCD-skjerm + vanlig tastatur + tynn mini-PC som henger bakpå LCD-skjermen eller er integrert i tastaturet slik som Amiga500'n var) Så kan man heller ha trådløse lagringsenheter (harddisker med WLAN, LAN og integrerte webservere) der det måtte passe i huset.

Trenger ikke CD/DVD ol når du har PDA med disk og wlan til den. Det kan jo også f.eks være en minneleser på alle monitorene også. Og all data som vi tidligere kjøpte på CD hentes ned fra produsentens server om du har den rette digitale lisensen. Skriver? Trådløs USB vet vi kommer, og neste generasjon det skal vel holde fint til en skriver uansett hvor mange ark i sekundet den vi kaste ut.

Hvorfor ikke miniPC? Jo fordi med "min" løsning kan du bruke energien mer økonomisk, og det gir større frihet med tanke på mobilitet. Det tar også livet av begrepet PC ettersom en slik sentral maskin vil ta seg av all dataprosessering i huset, og routing av alle digitale signaler fra alle enheter.

 

Også må vi ha stemmestyring/gjenkjenning og gi maskinen en helt rolig mannsstemme, et rødt "øye" og total kontroll over alt i huset. :)

 

Jeg tror hvertfall at den store grå boksen (aka Harddisken i visse kretser) og de tusen ledningene som går til den, kommer til å forsvinne og heller gå over til f.eks en kombo av sentral "supermaskin" med høy prosesseringskraft + laptoper med tyngde på funksjonalitet og mobilitet. (og mindre på ytelse, siden du ikke trenger 100GHz på alle "vanlige" ting)

Endret av JohndoeMAKT
Lenke til kommentar

En annen del av det økonomiske perspektivet er at for 10 år siden så ville raskere PC'er bety bedre ytelse i word, til lyd, video, rendering, spill, tegning og en rekke andre ting. Per i dag så er selv de billigste personlige PC'ene raske nok til det meste (det eneste store unntaket er spill). Dvs. at det er nesten kun spillytelse som driver fremover utviklingen nå. På ett eller annet tidspunkt vil dette stoppe. Kanskje som følge av at spill med alt for mye flere detaljer blir for dyre å utvikle, eller at folk er fornøyde med kvaliteten på 2004-spill. (hallo, folk sitter jo og spiller CS og starcraft i massevis ennå). Dermed vil det på et tidspunkt ikke bli noe særlig behov for raskere PC'er, og utviklingen går kanskje over på helt andre områder.

Det du glemmer er at også denne typen "lett" software finner måter og benytte seg av denne nye funksjonaliteten.

 

Det kanskje mest markante vil være på os siden. Visionene og ideene bak microsoft longhorn vitner om dette.

 

Et mere sømløst og pauseløst os er det man beveger seg mot. F.eks vil det bli uaktuelt å vente på noe som heldst når det kommer til datamaskiner i framtiden.

 

Bare boot opp og kjør en gammal 98 -maskin. Alt tar dritlang tid. Maksina har ikke blitt tregere en den var den gangen du brukte den, men du har blitt vant til et høyere tempo.

 

I framtiden vil maskinene skru seg på fortere en dagens tv'er. Du trykker på knappen og er i desktop (med mindre microsoft har bytta ut den også ;) ) og sammme med å skru den av. ikke mere Start>avstlutt> slå av maskinen-> vent. Bare trykk og den er av.

 

Å søke etter filer og dokumenter vil skje i realtime. Og med avanserte inteligente baksystemer som nesten er så raske at du får det du vill ha før du viste du vill ha det (Noe det virker som microsoft sin binders prøver på men feiler totalt ;):p )

 

Instalasjon av drivere og software går ubemerket hen for brukeren.

 

Du dytter inn cd'en (eller den optiske holocuben eller whatever) og du er i gang med spillet/programmet. (mest sansynlig så vill håndfaste distrubusjonsmetoder være en sagablott, du stikker på nettsida, velger purchace, trial, eller abonement(?) og softwaren starter instantly.

 

vi kommer til å bevege oss mot en mye mere 'seamless' datahverdag, hvor ting rett og slett bare funker for your avarage user. Slik som man ser i alle andre brukerartikler i dag. Hvis den ikke funker må den leveres inn. Tviler på at det er mange her som har satt seg ned og hacka bios/software på sin minidisk/mp3 spiller når den ikke ville sammarbeide. ;)

 

Heh spora litt av her... men... det å teste en eldre maskin (type 10 år tilbake, som min 100mhz pentium med windows 98) gir et lite innblikk i hvordan maskiner og software som gjør den samma oppgaven oppleves ganske forskjellig tross alt.

Endret av Dipso
Lenke til kommentar
Hvorfor akkurat 65nm? Hvorfor ikke 64 eller 66? Eller hva med 69? Tror jeg liker 69 bedre enn 65! Men hva med 63? Det er jo også et fint tall. Sukk...

Tallene er nok delvis tilfeldig valgt. Er litt på tynn is her men det er nå en gang slik at en før eller siden må velge et tall og da ser det ut til at de velger størrelser slik at arealet av minste node halveres hver gang. Videre er det en del slingringsmonn her. 65nm betyr vel 65nm +- noen nm. Det er også slik at 65nm ikke er minste størrelse for alle steg i prosessen. Dvs definering av transistor-gate gjøres med 35nm og resten med 65nm eller høyere.

Endret av Knick Knack
Lenke til kommentar
Men i 2014 skal ! vi ha minst fire prosessorer mener jeg.

 

EDIT: Nå er jo ikke elektronene så altfor mye tregere enn fotonene i en optisk prosessor.

Quad har jo allerde vært en god stund

 

http://www.apple-history.com/frames/body.p...llery&model=950

 

1992. Og siden flere CPUer er blit mer egnet til dual/ quad systermer, spess K8 og PPC970/ PPC970FX.

 

Men jeg tror det er umuig å se inn i fremtiden når det gjelder data. En gang sier utviklingen stopp innen et produkt, eks cd-brenner 52x. Men så kommer det opp et annet produkt så begynner alt på nytt igjen. Det neste tror jeg at utviklingen vil nesten stoppe på software fronten, og alle programmer kommer som hardware. Det vil gi en syk ytelseforbedring, men det vil koste mangfoldige oljefond. Kanskje skjermer ikke finnes lengre og alt er holografisk. Tenk Rimmer i Red Dwarf.

 

Det er umulig å vite.

Lenke til kommentar
Hvorfor akkurat 65nm? Hvorfor ikke 64 eller 66? Eller hva med 69? Tror jeg liker 69 bedre enn 65! Men hva med 63? Det er jo også et fint tall. Sukk...

Det er 42 som er det magiske tallet som Deep Thought kom frem til:

 

"The great supercomputer Deep Thought is the most powerful computer ever built, with one exception.

 

It was designed by hyper-intelligent pan-dimensional beings, who wanted to know the answer to Life, the Universe, and Everthing.

 

Its creation annoyed a fair few philosophers, who felt that it was taking over their turf."

 

:p

Endret av snorreh
Lenke til kommentar
På sikt tror jeg rene grafikkort blir overflødige - bare CPU'ene blir kraftige nok så trenger vi ikke en 'ekstern' enhet som tar seg av grafikken.

Jeg tviler på at prosessorene noen gang blir kraftige "nok". Hadde vi sagt til noen at enkelte applikasjoner trenger 3GHz prosessorer for en åtte-ni år siden hadde de nok bare ristet på hodet.

Lenke til kommentar
Jeg tviler på at prosessorene noen gang blir kraftige "nok". Hadde vi sagt til noen at enkelte applikasjoner trenger 3GHz prosessorer for en åtte-ni år siden hadde de nok bare ristet på hodet.

Helt enig med deg. 3D-kortene er f.eks. ikke kraftige nok før grafikken er like realistisk som film, og dit er det ennå et stykke igjen. Og det tar ennå flere timer å rendre video i dvd-kvalitet.

Lenke til kommentar
Er ikke disse tallene vel optimistiske? 100 GHz prosessorer vanlig allerede om 10 år høres litt tvilsomt ut spør du meg...

Hvilke prosessorer hadde vi for ti år siden?

Jo, men det blir jo vanskeligere og vanskeligere grunnet varmeutvikling og sånn. Har faktisk hørt om folk som tviler på at man noen gang kommer over 100 GHz-grensa på grunn av varmeutvikling...

Noen tall hentet fra sandpile.org:

 

Pentium Pro 150MHz, lansert 1. nov 1995, siten går ikke lengre tilbake. Typisk effektforbruk: 23W.

 

Pentium IV 3.4D GHz (ikke EE), lansert 2. feb 2004, dvs. 8 år og 9mnd senere. Typisk effektforbruk: 89W.

 

Så på ti år, la oss si vi har hatt en 4-dobling av effekten. Sier vi at vi klarer det samme et tiår til (noen ingen trodde 75->85, 85->95 eller noe som helst annet tidsperiode) så vil en prosessor anno 2014 ha noe sånt som 100GHz og bruke ca. 400W. Ytelsen er umulig å si pga. forskjellig arkitektur, cache, instruksjonssett osv., men er vel liten tvil om at den er mer enn 4x ;)

 

Kjella

Lenke til kommentar
Som mange vet så betyr ikke MHz en dritt egentlig. Du kan jo i teorien lage en CPU som går på 10MHz som er kjappere enn en CPU på 1GHz feks. Høres søkt ut, men i teorien så er det mulig. Nøkkelen ligger vel i å lage mindre og kjappere transistorer. De har jo forsket en del år allerede med atomer som transistorer, men er vel fortsatt litt for ustabilt.

Enig at klokkefrekvens ikke er alt, la oss bare tenke litt på det vi tenker med: hjernen. Klokkefrekvensen er er på noen kilohertz, men massiv parallelprosessering gjør at selv en maurhjerne er rskere enn en CPU (ref. f.eks billedbehandlingen for synet).

 

Joda, mindre transistorer kan nok hjelpe en stund til, men en bør også ta en kikk på arkitekturen.

Lenke til kommentar

Enig at klokkefrekvens ikke er alt, la oss bare tenke litt på det vi tenker med: hjernen. Klokkefrekvensen er er på noen kilohertz, men massiv parallelprosessering gjør at selv en maurhjerne er rskere enn en CPU (ref. f.eks billedbehandlingen for synet).

 

Joda, mindre transistorer kan nok hjelpe en stund til, men en bør også ta en kikk på arkitekturen.

Hva mener du med raskere enn en CPU, billedbehandling er kanskje en av tingene hjernen vår scorer høyest på, en datamskin vil feks slå en maur i sjakk, nå er intelligens veldig vanskelig, og spesielt sammenligningen mellom dyr/menneske og maskin, men det er vel liten tvil om at datamskiner slår maur på nesten alt.

 

AtW

Lenke til kommentar

Artikkelen er basert på ren eksponensiell vekst, og hopper derfor bukk over større endringer. Verden og teknologien har endret seg mye de siste 10 år (f.eks Internet ble mer tilgjengelig med Mosaic da den kom for ca. 10 år siden), og det er all grunn til å tro at dette vil fortsette. F.eks. hvor ofte transporterer vi filer på floppy? Nå går det meste over nett eller på store memorysticks.

 

 

Teknologien utvikler seg og endrer den ikketeknologieke hverdagen til folk på godt (tilgjengelighet) og ondt (spam). Uansett er tommelfingerregelen at mennesklige problemer ikke løses med tekniske grep, utopia er neppe rett rundt hjørnet.

 

 

Så hvorfor ikke selv prøve å se lengre inn i krystallkulen? En kan lett tenke seg en plugg i hjernen, gå rett på nett med de små grå, og da er grafikk-kort ikke lengre det samme. Jeg antar at de fleste med teknologisk interesse kjenner bøkene til Bruce Sterling, William Gibson, Neal Stephenson og de andre i Cyberpunk-literaturen. På 80- og deler av 90-tallet var dette målet for mange bedrifter, men det gikk ikke bra (ref. Ono Sendai). Forskningen på hjernen fortsetter, og brainjacks er ett av mange hete tema, der en kobler sammen hardware og wetware. Selv vil jeg nok vente med å installere Microsoft Brain driver version 1.0 beta...

 

 

En annen trend er "always on", der mobil teknologi er kommet så langt at en alltid er på nett, alltid igang. Der er ikke målet høy oppløsning med mye datakraft, men god lesbarhet med riktig kraft som bruker lite strøm.

Så kan en spekulere på hvordan dette vil påvirke verden.

Lenke til kommentar

Enig at klokkefrekvens ikke er alt, la oss bare tenke litt på det vi tenker med: hjernen. Klokkefrekvensen er er på noen kilohertz, men massiv parallelprosessering gjør at selv en maurhjerne er rskere enn en CPU (ref. f.eks billedbehandlingen for synet).

 

Joda, mindre transistorer kan nok hjelpe en stund til, men en bør også ta en kikk på arkitekturen.

Hva mener du med raskere enn en CPU, billedbehandling er kanskje en av tingene hjernen vår scorer høyest på, en datamskin vil feks slå en maur i sjakk, nå er intelligens veldig vanskelig, og spesielt sammenligningen mellom dyr/menneske og maskin, men det er vel liten tvil om at datamskiner slår maur på nesten alt.

 

AtW

Langt ifra. En datamaskin er bare flink til å behandle tall. Ikke'no annet.

Lenke til kommentar

Enig at klokkefrekvens ikke er alt, la oss bare tenke litt på det vi tenker med: hjernen. Klokkefrekvensen er er på noen kilohertz, men massiv parallelprosessering gjør at selv en maurhjerne er rskere enn en CPU (ref. f.eks billedbehandlingen for synet).

 

Joda, mindre transistorer kan nok hjelpe en stund til, men en bør også ta en kikk på arkitekturen.

Hva mener du med raskere enn en CPU, billedbehandling er kanskje en av tingene hjernen vår scorer høyest på, en datamskin vil feks slå en maur i sjakk, nå er intelligens veldig vanskelig, og spesielt sammenligningen mellom dyr/menneske og maskin, men det er vel liten tvil om at datamskiner slår maur på nesten alt.

 

AtW

Langt ifra. En datamaskin er bare flink til å behandle tall. Ikke'no annet.

Roboter er jo datamaskiner, og de kan bli svært så flinke på sine spesialiserte oppgaver...

 

Edit: Blir ihvertfall kontorllert av datamaskiner...

Endret av Goophy
Lenke til kommentar
Hva mener du med raskere enn en CPU, billedbehandling er kanskje en av tingene hjernen vår scorer høyest på, en datamskin vil feks slå en maur i sjakk, nå er intelligens veldig vanskelig, og spesielt sammenligningen mellom dyr/menneske og maskin, men det er vel liten tvil om at datamskiner slår maur på nesten alt.

 

AtW

Billedbehandling er et felt hvor biologiske hjerner (ikke bare for mennesker) slår de elektroniske. Et annet er læring/tilpassning; få maskiner er istand til å reprogrammere seg slik en ser hos dyr.

 

 

For menneskehjernen er det ytterligere noen fortrinng vi har: uslått evne til assosiering, konkludering og abstrahering. I tillegg kommer endel ting som vi ikke engang vet hvordan en skulle implementere, uansett hvor mye datakraft en har, evner som f.eks intuisjon, innsikt og kunst. En datamasin er nok rask til å summere tall, slå opp i databaser osv, men har fortsatt langt igjen når det kommer til mer avanserte evner. Sjakk er vel et felt der maskiner kjemper i samme klasse som stormestre.

Lenke til kommentar

Enig at klokkefrekvens ikke er alt, la oss bare tenke litt på det vi tenker med: hjernen. Klokkefrekvensen er er på noen kilohertz, men massiv parallelprosessering gjør at selv en maurhjerne er rskere enn en CPU (ref. f.eks billedbehandlingen for synet).

 

Joda, mindre transistorer kan nok hjelpe en stund til, men en bør også ta en kikk på arkitekturen.

Hva mener du med raskere enn en CPU, billedbehandling er kanskje en av tingene hjernen vår scorer høyest på, en datamskin vil feks slå en maur i sjakk, nå er intelligens veldig vanskelig, og spesielt sammenligningen mellom dyr/menneske og maskin, men det er vel liten tvil om at datamskiner slår maur på nesten alt.

 

AtW

Langt ifra. En datamaskin er bare flink til å behandle tall. Ikke'no annet.

Ja og? Mennesker er flinke til å sende elektriske impulser, ikke noe annet, alt i verden munner jo ut i fysikk i bunn og grunn, tall (dvs matematikk) er et bra medium å behnadle denne fysikken med, datamskiner kan løse komplekse oppgaver vha tallbehandling, å si at en avansert datamaskin ikke er "smartere" enn en maur, som er styrt nesten utelukkende av instinkt, er å dra den langt.

 

AtW

Lenke til kommentar
Jeg tror hvertfall at den store grå boksen (aka Harddisken i visse kretser) og de tusen ledningene som går til den, kommer til å forsvinne og heller gå over til f.eks en kombo av sentral "supermaskin" med høy prosesseringskraft + laptoper med tyngde på funksjonalitet og mobilitet. (og mindre på ytelse, siden du ikke trenger 100GHz på alle "vanlige" ting)

Hvorfor skal man absolutt ha en "ekstra kraftig PC" i huset i tillegg til alle de middels kraftige?

 

Hva med distribuert databehandling, der man bare aktiverer andre prosessorer i nettverket når man trenger mer datakraft? F.eks om du skal kjøre noe virkelig krevende et øyeblikk eller en stund, så bruker den datakraften fra alle CPU'ene du har satt den opp til å kunne ta i bruk, evt kjøpe og selge overskudds-regnekraft fra og til andre. På denne måten vil man kunne dekke toppforbruket samtidig somman slipper å ha den digre boksen en plass i huset.

Lenke til kommentar
Hvorfor akkurat 65nm? Hvorfor ikke 64 eller 66? Eller hva med 69? Tror jeg liker 69 bedre enn 65! Men hva med 63? Det er jo også et fint tall. Sukk...

Hvorfor mer eller mindre nøyaktig 65nm ? Jo fordi det er kun enkelte bølgelengder som er kompatible med prosessen og materialene som brukes der. Det har noe med adsorbsjonsspekteret og emmisjonsspekteret til forskjellige materialer å gjøre. Det er sikkert flere faktorer som spilelr inn, men tallet er i hvertfall ikke satt tilfeldig.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...