Gå til innhold

Når kommer Nvidia's 7 serie?


nikhuse

Anbefalte innlegg

Videoannonse
Annonse

Vel... nVidia kommer garantert med noe...

 

De har ikke sluppet en high-end brikke siden våren 2004, og de trengte tydligvis ikke noe oppdatering på høsten som gav dem 10Mhz ekstra som ATi har gjort...

 

R4x0 -> R520 er en del redesign grunnet at de må støtte FP32 for å kunne bruke shader model 3.0. Det blir nok lagt på ekstra pipelines også... Så her har ATi en stor re-design jobb, selv om R520 kommer til å basere seg på R300-arkitekturen

 

Hos nVidia (NV40 -> G70(?)) Trenger de ikke endre aritekturen på samme måte som ATi. nVidia støtter allerede shader model 3.0, så de kan for eksempel legge på litt flere pipelines, samt forbedre og effektivere designet demmes

 

Magefølelsen min sier at nVidia og ATi kommer til å fortsette å ha ganske identisk ytelse i fremtiden, men tiden vil viste....

Lenke til kommentar

Kan eventuelt skje med ATI, samme som skjedde med Nvidia for en tid siden. At FX serien skulle knuse all motstand. Var jo mye rykter om de kortene, det stemte desverre ikke. Siden Nvidia ikke har gitt mye lyd fra seg det siste året, kan det skje at "revlusjonerende" R520 får en smell av erkerivalen?Bare spekulerer jeg..

Lenke til kommentar
Raptor,11/04/2005 : 09:16] De har ikke sluppet en high-end brikke siden våren 2004, og de trengte tydligvis ikke noe oppdatering på høsten som gav dem 10Mhz ekstra som ATi har gjort...

Er ikke snakk om å trenge noe her tror jeg. Tror rett og slett nVidia ikke gadd bryet med å slippe et kort som er omtrent identisk med de kortene de allerede har ute.

 

Grunnen til at ATi slapp ut sine kort kan jo være at de håpet på at folk ville kjøpe enda mer, nå som det kom et "nytt" produkt på markedet. (Jeg er villig til å vedde på at det finnes noen tullinger som kjøpte seg Radeon X850 XT når det kom ut - selv om de hadde Radeon X800 XT fra før av)

 

EDIT: leif

Endret av Zythius
Lenke til kommentar

skjønner ikke at folk gidder å kjøpe skjermkort hver gang det kommer et bedre et. har man 85-100 fps i de spillene man spiller, så trenger man jo ikke mer. er ikke vits med 200fps+ da man bare får tearing alikevel.

f.eks q3 kjører jeg i 85fps(v-sync) og det flyter jo bedre enn når jeg har 300-500fps(uten v-sync).

 

tror både geforce 6600/6800++ og radeon x800pro++ holder ut dette året med nok fps. vis ikke har du alltids sli...

Lenke til kommentar
Grunnen til at ATi slapp ut sine kort kan jo være at de håpet på at folk ville kjøpe enda mer, nå som det kom et "nytt" produkt på markedet. (Jeg er villig til å vedde på at det finnes noen tullinger som kjøpte seg Radeon X850 XT når det kom ut - selv om de hadde Radeon X800 XT fra før av)

 

EDIT: leif

Det hadde nok også litt med at de hadde veldig lave yields på X800 brikkene. Det var jo ikke akkurat lett å få tak i X800XT PE kortene.

 

Se her f.eks: http://www.gdhardware.com/ed/ati_open/001.htm

Lenke til kommentar
nVidia har jobbet med GeForce7/NV50(?) siden de sluttet med utviklingen av NV30/FX serien, dog ikke noe offesiell info enda, noe som kan tyde på at det vertfall ikke kommer noen nye kort i butikkene før 2006.

nVidia kaller ikke brikken NV50 lenger. Ryktene sier at de har gått over til G nå, så neste brikker skal hete G70, har også sett G80 i beta-drivere...

 

nVidia er mye strengere med hennsyn på lekasjer av spessifikasjoner nå...

 

Tror garantert de kommer til å svare på R520

Lenke til kommentar
Er nVidia markedleder, sier du?

Det er spørs hvordan man snur og vender på tallene. + at det er stor usikkerhet på hva som er gjeldende for øyeblikket siden markedsandelene fyker opp og ned for hvert eneste kvartal. Det står litt mer om hva som gjalt i 4. kvartal 2004 her:

http://www.dvhardware.net/article3367.html

http://www.theregister.co.uk/2004/04/16/ati_vs_nvidia/

http://www.channelregister.co.uk/2005/01/2...ip_sales_q4_04/

Endret av Simen1
Lenke til kommentar
Er nVidia markedleder, sier du?

Det er spørs hvordan man snur og vender på tallene. + at det er stor usikkerhet på hva som er gjeldende for øyeblikket siden markedsandelene fyker opp og ned for hvert eneste kvartal. Det står litt mer om hva som gjalt i 4. kvartal 2004 her:

http://www.dvhardware.net/article3367.html

http://www.theregister.co.uk/2004/04/16/ati_vs_nvidia/

http://www.channelregister.co.uk/2005/01/2...ip_sales_q4_04/

Ganske interesant, trodde faktisk at Nvidia var de som solgte mest skjermkort (bortsett fra Intel sin integrerte grafikk) men det er jo tydelig at nvidia har mistet ganske mange markedsandeler siden sist jeg sjekket.

Lenke til kommentar
Trur nok Nvidia kjem med kort som bruker fleire GPUer (som kanskje er forbetra på den måten at dei bruker mindre strøm og gir frå seg mindre varme)

Ja, det tror jeg også. Tror nVidias neste generasjons skjermkort vil kjøre med dobbelkjerne på toppmodellene.

 

Tror også nVidia vil introdusere dobbelkjerne før ATI.

Lenke til kommentar

Vil det si at vi er på vei inn i en ny Voodoo tid?

 

Med enorme kort, der nVidia i neste omgang kommer med dobble løsninger som deretter kan kjøres i SLI, og ikke utvikler den neste generasjon teknologi fordi mer av den gamle slår ATI på Doom 3?

Lenke til kommentar
Trur nok Nvidia kjem med kort som bruker fleire GPUer (som kanskje er forbetra på den måten at dei bruker mindre strøm og gir frå seg mindre varme)

Ja, det tror jeg også. Tror nVidias neste generasjons skjermkort vil kjøre med dobbelkjerne på toppmodellene.

Dobbeltkjerne er faktisk gammelt nytt på skjermkortfronten. Svært gammelt nytt. I praksis er det akkurat det som skjedde når de doblet antall pipelines eller Vertex units. Vi er i dag kommet til hele 6 vertex units og 16 pixel pipelines per GPU, altså en slags 6-16 kjernet GPU.

 

CPU'er henger langt etter på paralellisering (2 kjerner er knapt kommet til markedet.)

Lenke til kommentar

Vel, når en chip blir så komplekst at den ville fått en uakseptabel yield kan det bli nødvendig å dele den opp. Enten med 2 seperate chiper eller 2 kjerner per chippakke (2 deler silisium per chippakke fremfor 2 kjerner per silisium). Men da er det ikke lenger snakk om å dobble ytelsen med å kjøre dobbelkjerne som det nok ble siktet til her.

Lenke til kommentar
Raptor,11/04/2005 : 09:16] de trengte tydligvis ikke noe oppdatering på høsten som gav dem 10Mhz ekstra som ATi har gjort...

herrlighet... det var dumt sakt

du veit like godt som meg at grunnen til at ati slapp x850xx kortene var fordi de hadde problemer med å levere x800 kortene pga tidskrevende produksjon. noe de logisk nok taper masse penger på!

 

nVidia kaller ikke brikken NV50 lenger. Ryktene sier at de har gått over til G nå, så neste brikker skal hete G70, har også sett G80 i beta-drivere...

men det er riktig.

men jeg er ikke sikker på om Gxx brikkesettet kommer til å klare å matche R520.

har sett mange "lekasjer" anngående det R520 og det var veldig, veldig bra!

men vi får håpe nVidia blir de med neste absolutte toppkort!

 

edit: leif var tilstedet!

Endret av headcleaver
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...