Gå til innhold

nVidias kommende lanseringer, hva vet vi?


WheelMan

Anbefalte innlegg

Videoannonse
Annonse

:S Æsj, dette var dårlig nytt.

To misslykede skjermkort for min del denne gangen også altså. (med ATI som ikke satser på high-end markedet, og et misslykket Nvidia kort)

 

Ser ut som om 8800GTX-kortet holder langt mer enn ventet... dessverre. :p

Ivhertfall etter at ryktene om at HD4870 blir ca like raskt som 9800GTX, som igjen betyr en ytelse tilsvarende 8800GTX.

 

Og det faktum at GTX 280 måtte yte en god del for å kunne hamle opp med et dobbelkort som 9800GX2. :shrug:

Lenke til kommentar

Jeg tror... *trommevirvel*.. at jeg forbereder meg til prøve-muntlig i naturfag..

 

Klikk for å se/fjerne innholdet nedenfor
På denne fronten tror jeg faktisk core går på 1,3 Ghz, og shaders på 602. Men jeg er kjent for å faile på slik :p
Endret av WheelMan
Lenke til kommentar

Ahha, nå skjønner jeg hva du mener. :p

 

Om The INQ har byttet ut shader med ordet Processor så kan det jo stemme....

 

Bytter du ut ordet processor så står det:

shader kjerner - 240

Shader frekvens - 1296MHz

Dette gir god mening

hadde det vært kjerne de mente med Processor, så hadde det stått:

kjerner - 240

kjerne frekvens - 1296Mhz

Dette gir ingen mening

Øverste blir da feil. Det er kun 1 kjerne. (naturigvis)

Kjerne frekvens blir også ganske urealistisk, samt at shaderfrekvensen også blir urealistisk som følge av dette.

 

Virker ivhertfall logisk at det er førstnevnte.

Endret av andrull
Lenke til kommentar

En kjernefrekvens på 600Mhz virker jo også litt logisk med godt over 1 milliard transistorer. Antar vi 1,3 Milliarder (bare for å velge et nogenlunde realistisk tall) og en frekvens på 600MHz så tilsvarer det ivhertfall akkurat en dobbling i renytelse. Om vi ser bort ifra alt som heter ROP's og slikt.

 

Blir kanskje ikke akkurat så veldig nøyaktig, men det blir jo litt å tenke på. 1,3GHz og 1,3 milliarder transistorer høres ivhertfal helt urealistisk ut. (jeg ser i såfall for meg en flamme som står opp av skjermkortet når det kjører på LOAD i såfall). :whistle:

Lenke til kommentar
En kjernefrekvens på 600Mhz virker jo også litt logisk med godt over 1 milliard transistorer. Antar vi 1,3 Milliarder (bare for å velge et nogenlunde realistisk tall) og en frekvens på 600MHz så tilsvarer det ivhertfall akkurat en dobbling i renytelse. Om vi ser bort ifra alt som heter ROP's og slikt.

 

Blir kanskje ikke akkurat så veldig nøyaktig, men det blir jo litt å tenke på. 1,3GHz og 1,3 milliarder transistorer høres ivhertfal helt urealistisk ut. (jeg ser i såfall for meg en flamme som står opp av skjermkortet når det kjører på LOAD i såfall). :whistle:

Er nok kjernefrekvensen som er 602MHz, og shaderne som kjører på 1296MHz ja. :)

 

En tidligere tabell:

12117698854f592cb84b.jpg

Lenke til kommentar

Dette var godt, jeg tok det nesten for god fisk at de hadde bommet rått på shaderne og ble først nedstemt men nå ble jeg virkelig oppstemt.

 

1 milliard transistorer har dog ATI vært oppi for flereår siden med mye høyere frekvens, så det må være mer enn bare antallet som begrenser frekvensen. Men det er klart at vi begynner å nå noen grenser her.

 

Derfor ønsker jeg også å kjøpe et slikt GT200/280 om det treffer godt på ytelsen slik at jeg kan ha kortet et par år minst. Ellers blir det 2*4870 i CF. Pris og ytelsesmessig tror jeg de alternativene blir omtrent like, men jeg foretrekker singlecard bla. pga. totalt strømforbruk.

Endret av Theo343
Lenke til kommentar
Derfor ønsker jeg også å kjøpe et slikt GT200/280 om det treffer godt på ytelsen slik at jeg kan ha kortet et par år minst. Ellers blir det 2*4870 i CF. Pris og ytelsesmessig tror jeg de alternativene blir omtrent like, men jeg foretrekker singlecard bla. pga. totalt strømforbruk.

 

hvis ati kortet har flere Gflops enn nvidia og nesten samme bånd vidde. hva får deg da til og tro at man må ha 2 ati kort for og matche ett nvidia??

 

 

på papiret snakker vi super grusing og det som værre er i ati sitt favør :D

Endret av leifeinar
Lenke til kommentar

Flops og aktuell ytelse har nok ingen direkte sammenheng.

På papiret så trenger vi ikke snakke om noen grusing nei.

ATI har som regel gjort det bra på antall GFlops (les, 2900XTX).

 

Har du sett spesifikasjonene til HD3870?

På arket ser de voldsomt gode ut, men shaderene til ATI er langt mindre effektive, enn de som Nvidia bruker. HD3870 har 320Shadere, mens 9800GTX har 128 som yter en del mer.

Per enhet yter ALU'ene til G92 bedre, men HD3870 har likevel mer rå shader ytelse. Men hovedsaklig, i det minste med dagens spill, er det texture ytelsen som begrenser kortet. Med AA har også kortet en bakdel med mangel på MSAA resolve i ROP.

 

Edit: AMD plasserer 4870 litt over midtveis mellom 9800GTX og 9800GX2, men vi får nå se.

 

GTX 280 har rundt 75% flere transistorer, 4 ganger flere ROPS's (dog halvparten TMU's), langt mer effektive shadere (ALU'er), og høyere minnebåndbredde.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...