Gå til innhold

NVIDIA ser inn i fremtiden


Anbefalte innlegg

Men i 2014 skal !  vi ha minst fire prosessorer mener jeg.

 

EDIT: Nå er jo ikke elektronene så altfor mye tregere enn fotonene i en optisk prosessor.

dual 4...........lol

Eh ja, eller Quad som det heter.

 

På sikt tror jeg rene grafikkort blir overflødige - bare CPU'ene blir kraftige nok så trenger vi ikke en 'ekstern' enhet som tar seg av grafikken.
Jeg tror muligens det motsatte. At vi muligens får mer spesialisert HW, f.eks en "3Ds-Max modul", eller "Mpeg2 encoder" dsp-ish-modul prosessorer.
Lenke til kommentar
Videoannonse
Annonse

Man kan nok ikke bruke dagens silisiumkjerner dersom man skal ha 100GHz. Det gjelder å tenkt nytt. Nå er man på 0,09µ, neste steg er vel 0,065µ. Det begynner å nærme seg punktet hvor det blir teknisk vanskelig å komme seg på enda lavere verdier.

Lenke til kommentar
Quad er bedre ;)

Men tror ikke det er noe problem å ha 100 GHz CPU'er om ti år, industrien har hatt en vane til å komme seg igjennom de fleste problemer og dem finner nok på noe lurt i fremtiden også. :yes:

100 GHz høres helt spinnvilt ut :) ... lure på hva vi kommer til å bruke det på :D

 

Hawk

Lenke til kommentar

Jeg kan ikke skjønne hvordan DRAM skal kunne takle slike hastigheter. Det er vel ikke mulig rent teoretisk? Må nok bytte ut teknologien for å komme noe særlig videre om et par år.

 

Og jeg tror ikke at man kan si hvor mange hertz en prosessor operer på siden de enten er klokkeløse eller har flere klokker i forskjellige deler av prosessoren. (Pentium 4's ALUer).

 

Men det ar alltid morsomt å drømme om fremtiden selv om det blir ren tipping.

Endret av martiol
Lenke til kommentar

Ser mange er veldig opphengt i MHz her.. :hmm:

Er temmelig sikker på at innen 10 år så sitter vi med noe annet enn en x86 CISC prosessor som standard PC CPU. Syns Intel & co. har brukt nok år med 'gammel' teknologi nå, så jeg ser fram imot noen nye måter å gjøre ting på slik at vi får et skikkelig 'performance' hopp som knuser skalaen til Mr. Moore.

Må berømme Sony litt her.. De tenker helt klart fremover og er ikke redd for å gjøre ting på litt andre måter enn det har blitt gjort før. Sannsynligvis så kommer også 'Cell' cpu'en dems til å være den første som sprenger Moore's lov sønder og sammen.

 

Som mange vet så betyr ikke MHz en dritt egentlig. Du kan jo i teorien lage en CPU som går på 10MHz som er kjappere enn en CPU på 1GHz feks. Høres søkt ut, men i teorien så er det mulig. Nøkkelen ligger vel i å lage mindre og kjappere transistorer. De har jo forsket en del år allerede med atomer som transistorer, men er vel fortsatt litt for ustabilt.

Endret av fluke2k
Lenke til kommentar
100 GHz høres helt spinnvilt ut :) ... lure på hva vi kommer til å bruke det på :D

 

Hawk

Kanskje men 3Ghz ville hørt helt vilt ut for 10 år siden. Bruk tror jeg skal bli noe problem, det blir jo mer kompliserte spill og annen grafikk.

Hvis de blir så raske om ti år, tenk hvor raske de blir om tusen år, eller om hundre milliarder år! Det er best å vente med å kjøpe, tror jeg... 

Før eller siden vil en komme til et punkt der en ikke kan lage det raskere. Elektroner evntuelt lys har en bestemt hastighet og det er en grense på hvor lite en kan gjøre det. Det er mye optimalisering som kan gjøres for å få hardwaren til å gå raskere, eller lage ny arkitektur og hvie ut x86 arkitekturen og få noe bedre.

Lenke til kommentar

Nvidia har begått en klassisk tabbe, nemlig unnlatt å se på det økonomiske aspektet ved dette. Det er ingen tvil om at alt de spår kan lages, men spørsmålet er om det vil lønne seg å lage det!

 

Ellers er det som martiol sier. Det vil neppe være så noen klokkefrekvens å forholde seg til. Det vil kun være datarater. Mange design vil nok gå helt bort fra interne klokker. Kun for ekstern kommunikasjon vil de være av særlig nytte.

 

Men etter hvert vil nok den største gevinsten ligge i endring av arkitekturer, da ny teknologi favoriserer andre løsninger enn de som var "best" for 25 år siden.

 

Edit: Det er forresten kronisk at flertallet tar feil, når det gjelder å spå fremtiden. Før gjorde folk narr av Bill Gates og hans 640k RAM mens de i samme åndedrag ikke kunne fatte annet enn at i386 med 4MB RAM aldri skulle bli foreldet. Nå tror "alle" at utviklingen går eksponentielt i all fremtid. Begge deler er naturlig nok feil.

 

Jeg tror PC konseptet vil brytes i flere dedikerte enheter i fremtiden slik at de kan optimaliseres for bruksområdet. Og de vil definitivt ikke være noe du bygger selv. Kun servere vil være modul basert slik som i dag, tipper jeg.

Endret av Knick Knack
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...