Gå til innhold

Den lille nVidia Fermi tråden: GTX 470/480/580 etc. Fermi for f...


Nizzen

Anbefalte innlegg

Videoannonse
Annonse

Nvidia satser jo fortsatt på å selge kortene sine med physx som grunnlag, å legge til dedikerte, raskere og mer effektive regneenheter for mer komplekse kalkulasjoner av physx høres ikke utrolig ut. De fl

 

Folk flest tror jo faktisk at PhysX er mye brukt i dag.

Hvis folk flest allerede tror dette, hva vinner Nvidia på å bruke en del av transistor budsjettet på dedikert hardware som nesten ikke vil bli brukt?

Lenke til kommentar

Ja der er en logisk brist der.

 

Hvor stor er egentlig ytelsesforskjellen mellom 560 ti og 570? Er 570 verdt 1000 kr mer? Sliter med hvilket kort av de to jeg skal velge. Oppløsningen jeg skal spille på er 1080p hvis det skal ha noe å si.

GTX 570 til 2200 kr gir vel litt mindre for pengene enn GTX 560 Ti til rundt 1700 kr, men GTX 570 gir til gjengjeld bedre ytelse, så jeg ville nok valgt dette. Uansett så gir begge alternativene mye mer for pengene enn høyere modeller.
Lenke til kommentar

La oss ta et tankeeksperiment, sett at nVidia bare krympet GF110 til 28nm og hevet kjernefrekvensen til cirka 890 MHz og hatt 3GB minne, da hadde den kunne målt seg ganske fint med Tahiti til og med 1920x1200, og trolig ligget rett under i høyere oppløsninger. Det vil overraske meg stort om Kepler ikke gjør det bedre enn dette.

7950 er ca 5% raskere enn GTX 580 på 1920x1200 ifølge anandtech og de fleste andre benchmarks jeg har kikket på. Med tanke på at klokkefrekvensene til 580 og 7950 er såpass nærme hverandre vil jeg påstå de har 99% lik ytelse per MHz (kjernefrekvens). 7970 ligger igjen ca 20% over et 7950, og å påstå at ytelsen per MHz er omtrent 10% høyere blir ikke feil. Et GTX 580 på 28nm klokket til 890MHz ville isåfall konkurrert med overklokkde 7950 på 900MHz.

 

Noe som fortsatt er uklart er om 28nm-noden i dag faktisk gir mulighet for betydelig høyere klokkefrekvens eller om Tahitis høye klokkefrekvenser under overklokking kommer av at arkitekturen gjør det mulig.

Jeg vil minne om at det er først ved høyere oppløsninger enn 1920x1200 at HD 7950 leder ytelsemessig, og flertallet kjører faktisk ikke det.

Ved høyere oppløsninger drar 7950 fra 580, forskjellen blir så stor at selv i spill som BF3 og Dirt 3 der 580 typisk ligger over 7950 legger det seg under på 2560x1600.

 

EDIT:

Om vi antar at ryktene om 6 milliarder transistorer på GK110 er sant og sammenligner med hva AMD fikk ut av 28nm får vi:

Brikkestørrelse på ~690 mm^2 (transistortetthet økt med 55%)

~810MHz klokkefrekvens

~250W TDP

70% bedre ytelse enn GTX 580

 

Har litt vanskelig for å tro at det der er mulig.

Endret av arni90
Lenke til kommentar

Jeg så en lenke til dette fra en annen side og jeg lo hardt. For det første er PhysX implementert i CUDA, i tillegg er ikke Tahiti en umiddelbar trussel for nVidia, det skal ikke mye til før nVidia har ytelsetronen tilbake, og tilgangen på Tahiti er ganske begrenset inntil videre. GTX 580 ligger også på nivå med HD 7950 ytelsemessig. nVidia ønsker ikke å gjøre en papirlansering, så de venter til de har et tilstrekkelig volum til markedet.

 

GDI kan sikkert svare på om det er noe hold i påstanden om 32nm.

Det er overhodet ikke noe "hardware AGEIA" i Kepler.

 

Kepler har blitt designet for 28nm helt fra starten. Maxwell blir designet for 20nm.

 

Papirlansering nå er egentlig ganske dumt. For det første så er det veldig lite penger i high-end kort, og de fleste store OEM-kontrakter er "on hold" i påvente av Ivy Bridge plattformen til Intel. Det viktigste nå er å produsere opp store volum med brikker som er klare til salg i begynnelsen av april når IB lanseres.

Lenke til kommentar

GDI: Takk for bekreftelse, jeg fant forresten svaret selv, se innlegget over. :)

 

Akkurat nå er jeg personlig mer interessert i dokumentasjon om akritekturen til Kepler enn akkurat spesifikajsonene til modellene, noen idé om når noe slikt publiseres?

 

La oss ta et tankeeksperiment, sett at nVidia bare krympet GF110 til 28nm og hevet kjernefrekvensen til cirka 890 MHz og hatt 3GB minne, da hadde den kunne målt seg ganske fint med Tahiti til og med 1920x1200, og trolig ligget rett under i høyere oppløsninger. Det vil overraske meg stort om Kepler ikke gjør det bedre enn dette.

7950 er ca 5% raskere enn GTX 580 på 1920x1200 ifølge anandtech og de fleste andre benchmarks jeg har kikket på. Med tanke på at klokkefrekvensene til 580 og 7950 er såpass nærme hverandre vil jeg påstå de har 99% lik ytelse per MHz (kjernefrekvens). 7970 ligger igjen ca 20% over et 7950, og å påstå at ytelsen per MHz er omtrent 10% høyere blir ikke feil. Et GTX 580 på 28nm klokket til 890MHz ville isåfall konkurrert med overklokkde 7950 på 900MHz.

 

Noe som fortsatt er uklart er om 28nm-noden i dag faktisk gir mulighet for betydelig høyere klokkefrekvens eller om Tahitis høye klokkefrekvenser under overklokking kommer av at arkitekturen gjør det mulig.

Techpowerup har med flere spill og gir derfor et bedre bilde av den generelle ytelsen.

 

Men poenget mitt står fast, AMD leder bare ytelsetronen så vidt, nVidia trenger ikke en mye kraftigere brikke enn GF110 for å slå Tahiti på ren ytelse.

 

 

EDIT:

Om vi antar at ryktene om 6 milliarder transistorer på GK110 er sant og sammenligner med hva AMD fikk ut av 28nm får vi:

Brikkestørrelse på ~690 mm^2 (transistortetthet økt med 55%)

~810MHz klokkefrekvens

~250W TDP

70% bedre ytelse enn GTX 580

 

Har litt vanskelig for å tro at det der er mulig.

Jeg håper at den ikke var ment på meg, for jeg har ikke påstått at GK110 kommer til å bli slik. Hvis det skulle vise seg at GK100/110 får ytelse på det nivået så skyldes det nok ikke at de bare har doblet en GF110, Kepler byr på mange endringer i arkitekturen, store deler av ytelseforbedringene kommer som følge av det sa godeste Jen-Hsun Huang. Vi har nevnt hotclocks og transistortetthet, som kan være nøkkelfaktorer for arkitekturen, men det er spekulasjoner.
Lenke til kommentar

Virker som Charlie er tilbake i sitt vanlige røde hjørne:

Semiaccurate - Physics hardware makes Kepler/GK104 fast

 

Performance is likewise said to be a tiny bit under 3TF from a much larger shader count than previous architectures. This is comparable to the 3.79TF and 2048 shaders on AMD’s Tahiti, GK104 isn’t far off either number

In the same way that AMD’s Fusion chips count GPU FLOPS the same way they do CPU FLOPS in some marketing materials, Kepler’s 3TF won’t measure up close to AMD’s 3TF parts. Benchmarks for GK104 shown to SemiAccurate have the card running about 10-20% slower than Tahiti. On games that both heavily use physics related number crunching and have the code paths to do so on Kepler hardware, performance should seem to be well above what is expected from a generic 3TF card. That brings up the fundamental question of whether the card is really performing to that level?

On some games, GK104 will handily trounce a 7970, on others, it will probably lose to a Pitcairn. Does this mean it won’t actually do what is promised? No, it will. Is this a problem? Depends on how far review sites dare to step outside of the ‘recommenced’ list of games to benchmark in the reviewers guide.

 

 

 

Charlie var rimelig spot-on rundt Fermi-lanseringen, så vi får se hvor nærme han er denne gangen. Dette er også det andre ryktet om at Kepler får dedikert fysikk-"maskinvare."

 

Hvorfor har ikke NVidia hatt en "primer" på Kepler-programmering som AMD hadde i fjor sommer omkring GCN?

Lenke til kommentar

Når folk snur så tvert så er det åpenbart ikke noe å høre på. Og når så mange slenger ut alle slags påstander så er sannsynligheten stor for at minst én av de er ganske nær sannheten, og det er da enkelt i ettertid å hevde at en person hadde riktig.

 

Det vil nok fortsette med rykter i alle retninger en god stund til, frem til like før Kepler faktisk kommer.

 

Når det gjelder ageia og andre rykter så tror jeg vi skal lytte til GDI som jobber tett på nVidia med CUDA.

Lenke til kommentar

Charlie var rimelig spot-on rundt Fermi-lanseringen, så vi får se hvor nærme han er denne gangen. Dette er også det andre ryktet om at Kepler får dedikert fysikk-"maskinvare."

Charlie var IKKE spesielt spot-on. Det eneste han hadde rett med var at Fermi var forsinket, du trengte ikke å være en rakettforsker for å skjønne at det var sansynlig ut i fra problemene som var på 40nm og 3 milliarder transistorer samt helt ny arkitektur.

 

Hvorfor har ikke NVidia hatt en "primer" på Kepler-programmering som AMD hadde i fjor sommer omkring GCN?

Fordi CUDA abstraherer bort mesteparten av forandringene, så alle programmer som allerede fungerer vil fortsette å fungere. Det finnes selvsagt en "Best Practice Guide" som vil bli gjort public når kortet lanseres. Slike "primere" er heller ikke vanlig kost hos AMD, når de hadde Fusion Developer Sumit i sommer så hadde de mye mer å bevise for å bli tatt seriøst i GPGPU-området.

Endret av [GDI]Raptor
  • Liker 2
Lenke til kommentar
Så hvor tror dere Kepler ligger i forhold til 7970 ift ytelse?

 

Vil tro at siden 7970 loader på 190W vil vi snakke 240W+ for nvidia å 10-20% bedre ytelse @ stock settings

Tviler på det, Tahiti XT er på ingen måte effektiv per transistor, sannsynligvis pga compute.

Nvidia har derimot en arkitektur som har god compute-ytelse allerede, derfor trenger de sannsynligvis ikke "investere" like mange transistorer som AMD har gjort med GCN. Det er meget godt mulig Nvidia klarer å lansere en omtrent like stor brikke som Tahiti med like høyt strømforbruk og 20% høyere ytelse, spørsmålet er bare når og om AMD vil lansere en forbedret GCN-brikke noe senere.

Lenke til kommentar

Det er meget godt mulig Nvidia klarer å lansere en omtrent like stor brikke som Tahiti med like høyt strømforbruk og 20% høyere ytelse, spørsmålet er bare når og om AMD vil lansere en forbedret GCN-brikke noe senere.

2013 kommer neste iterasjon fra AMD.

Planen i den iterasjonen som jeg mener å huske har kodenavn "Sea Island" er å re-designe "front-end" på GPU på samme måte som Nvidia gjorde med Fermi.

Lenke til kommentar
Raptor' timestamp='1328264327' post='18906688']

Det er meget godt mulig Nvidia klarer å lansere en omtrent like stor brikke som Tahiti med like høyt strømforbruk og 20% høyere ytelse, spørsmålet er bare når og om AMD vil lansere en forbedret GCN-brikke noe senere.

2013 kommer neste iterasjon fra AMD.

Planen i den iterasjonen som jeg mener å huske har kodenavn "Sea Island" er å re-designe "front-end" på GPU på samme måte som Nvidia gjorde med Fermi.

Det er vel fortsatt mulig å lansere en tweaket Tahiti for høyere klokkefrekvenser (ala RV790) og kalle dual-GPU for 7970X2?

Lenke til kommentar

Det er vel fortsatt mulig å lansere en tweaket Tahiti for høyere klokkefrekvenser (ala RV790) og kalle dual-GPU for 7970X2?

Tviler på at det kommer noe ny revisjon av Tahiti.

De sa senest på Finacial Analysis Day idag at neste iterasjon blir "Sea Island" i 2013 også på 28nm.

Lenke til kommentar

Det er nok ikke umulig med justeringer av referansemodellene, men jeg tror AMD må forbedre yields før det. Mitt inntrykk er at Tahiti går opp til rundt 1GHz før den virkelig blir varm, og referansemodellene må operere med en trygg margin under dette. Over dette mister vel Tahiti en del av fordelene sine med effektforbruk. Uansett så tror jeg vi må avvente og se Keplers konsumentmodeller først.

Lenke til kommentar

Det er nok ikke umulig med justeringer av referansemodellene, men jeg tror AMD må forbedre yields før det. Mitt inntrykk er at Tahiti går opp til rundt 1GHz før den virkelig blir varm, og referansemodellene må operere med en trygg margin under dette. Over dette mister vel Tahiti en del av fordelene sine med effektforbruk. Uansett så tror jeg vi må avvente og se Keplers konsumentmodeller først.

Min opplevelse av Tahiti er at den blir varm når man rører spenningen, og at det derfor er en god idé å ikke kjøre spenningen særlig høyere enn 1200 mV på luft. De fleste 7970 overklokker til 1100MHz på stock spenning, så AMD kunne trygt lansert et 1100MHz "7990" eller "7980" med litt binning.

 

 

Lurer litt på om noen er 100% sikre på at Kepler skal droppe hotclocks. Tenker da på Lenzfire - entire Kepler specs, price and date

 

Eneste jeg fant var 3DCenter, men de har ingen kilde.

Lenke til kommentar

Hvis grensen er rundt 1100 MHz så burde et potensielt "HD 7980" vært klokket til maksimalt 1050 MHz, dvs. 13.5% over HD 7970. Hvis AMD setter dette for høyt kan de koste mye i retursaker.

Jeg har klart å få 1350MHz benchmark-stabilt og 1300MHz relativt stabilt med en vannblokk og 1300mV.

 

De fleste 7970 overklokker til 1100MHz på stock spenning skrev jeg, med spenningsjustering klarer de fleste 1200MHz, nettopp derfor jeg påstår at et binnet 7970 til 1100MHz er en mulig lansering. De har jo i prinsippet gjort det før med 4890.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...