Gå til innhold

Geforce GTX 280 testet


Anbefalte innlegg

Dette er et BS test! Har ingenting med virkeligheten å gjøre.

GTX280 er 2 x 9800 i en chip. Da MÅ den testes VS 9800 GX2.

Og gjett hva - GTX280 er saktere enn 9800 GX2 OC!

Tullball, hva har du for noen informasjon som kan underbygge at det er snakk om to kjerner i chippen?

 

Neppe... Men vi husker jo når core2 kom, hvordan endel AMD-folk påstå at Intel ikke kjørte "ekte" dualcore. De ble riktignok stille etterhvert, men de holdt jammen på lenge til tross for at ytelsen ga de eneste svarene som folk brydde seg om. Enkelte av dem har faktisk ikke vært aktive på forumet siden.... :lol:

Lenke til kommentar
Videoannonse
Annonse
1. Hva oppløsningen er har da lite å si for grafikken.. Medium grafikk er medium grafikk. Du får ikke noe bedre ved høyere oppløsning. Vi vil se tester gjort i High og Very High, SAMT i høye oppløsninger. Forskjellen ligger i at forskjellige deler av GPUen blir brukt mer/mindre ved høyere grafikk. Shaderene går på "tomgang", og de lave teksturene gjør at den ekstra minnebåndbredden ikek kommer til nytte.

 

2. Jo det har ALT med saken å gjøre! At 9800GX2 som kjører på en høyst optimalisert driver blir sammenlignet med GTX 280 som kjører på en tidlig BETA/AlFA driver er det som er borti natta. Andre "tester " viser at GTX 280 slår 9800GX2 med nye drivere så det dette som er intressangt, da det er disse driverene brukerene vil bruke...

 

5. Venter fortsatt i spenning på noen håndfaste kilder om din GPU oppbygning... Poenget mitt er at det blir svært feilaktig å si at det akkurat blir som 2 x 9800 når spesifikasjonene sier noe helt annet, og minnet, shaderene og det meste er forandret. (for da sitter du jo ikke lengre med 2 9800 når alt er forandret?!)

 

1. Ja vi får vente på very high resultater. Personlig mener jeg at å teste på medium gir litt mindre CPU avhengighet.

 

2. Joda klart det. Jeg ser for meg det: jeg kjøper GTX280 idag (4k), venter et halvtår på drivere og samtidig som nVidia lanserer nytt kort er drivere for det gamle perfekt. Det har gjentatt seg 100 gang før. Poenget er at drivere er viktig del av produktet - du kjøper ikke bil som ikke kan kjøre mer enn 100km/t for å så få bedre ytelse etter 1 år med ny PC om bord.

 

3. Det er klart, men det er det som stemningen/troen/utgangspunktet you name it for GTX280. Og husk at Intel nekter nVidia å lage brikker sett for Nehalem - og med SLI støtte bare på AMD platform er de nødt til å satse på 1 GPU kort - og som mange gang før med CPU - ved å kjøre "flere" kjerner. Det kan også delvis bekreftes med hva nVidia har fått til med TEGRA.

Lenke til kommentar

Hmmm må ikke softwaren være skrevet "for" cuda/Physx for at du skal få noe morro ut av det?.. Og så vidt jeg vet er jo Cuda oppe og kjører for 8xxx/9xxx kort allerede..

 

Var litt deppa når jeg hadde kjøpt 2x9800gx2 kort og så kommer GX280 nå.. men men, shit happens.. det kommer alltid noe nytt..

 

Og optimaliserte drivere, tja, tjo, drivere fikser endel.. og herper til andre ting... Både ATI/AMD og Nvidia har jo "jukset" med drivere for at benchmarks skal se bedre ut.. så om en er på jakt etter reelle ytelsestall så bør en vel vente 1-3 mnd, mens drivere og brukere får tid til å teste og gjøre sitt..

 

Når det gjelder den heller modne diskusjonen noen brukere har her så har jeg en kommentar: "Jeg liker vafler jeg.."

Lenke til kommentar
1. Ja vi får vente på very high resultater. Personlig mener jeg at å teste på medium gir litt mindre CPU avhengighet.

Er vel ehller omvendt. På medium så blir ikke crysis belastet med tunge shaderoppgaver, partikkler eller teksturer. Ja det blir som et annet spill. :)

Crysis er jo langt fra prosessorbegrenset uansett da. ;)

 

2. Joda klart det. Jeg ser for meg det: jeg kjøper GTX280 idag (4k), venter et halvtår på drivere og samtidig som nVidia lanserer nytt kort er drivere for det gamle perfekt. Det har gjentatt seg 100 gang før. Poenget er at drivere er viktig del av produktet - du kjøper ikke bil som ikke kan kjøre mer enn 100km/t for å så få bedre ytelse etter 1 år med ny PC om bord.

Du missforstår tidsaspektet....

Det er snakk om å bruke drivere som kommer på lanseringsdatoen og som er ment å bruke med kortet, ikke å vente i et halvt år.

For å bruke ditt eksempel: Du testkjører ikke en bil før den har kommet av produksjonsbordet og bensinkabelen (eller what so ever) sitter halveis i...

Er vel nesten alltid slik. (noen tidlige tester lekkes ut, og som er gjort med helt tidlige drivere der ytelsen ikke har vært i fokus)

Er en grunn til at vi har NDA... (så vi skal slippe slikt oppstyr HVER eneste gang noe lanseres :p)

 

3. Det er klart, men det er det som stemningen/troen/utgangspunktet you name it for GTX280. Og husk at Intel nekter nVidia å lage brikker sett for Nehalem - og med SLI støtte bare på AMD platform er de nødt til å satse på 1 GPU kort - og som mange gang før med CPU - ved å kjøre "flere" kjerner. Det kan også delvis bekreftes med hva nVidia har fått til med TEGRA.

? Nvidia kan ha både SLI, tri-SLI og Quad-SLI osv..(alt etter hva nvidia måtte ønske) på alle salgs platformer med PCI-E.

Det eneste som er kravet er at SLI-styringen skjer internt på kortet og ikke i brikkesettet. Altså kan du bare ha et fysisk kort, men det begrenser ikke antall GPUer.

Selv kjører jeg SLI på et Intel P35 kort uten SLI-støtte....

Endret av andrull
Lenke til kommentar
? Nvidia kan ha både SLI, tri-SLI og Quad-SLI osv..(alt etter hva nvidia måtte ønske) på alle salgs platformer med PCI-E.

Det eneste som er kravet er at SLI-styringen skjer internt på kortet og ikke i brikkesettet. Altså kan du bare ha et fysisk kort, men det begrenser ikke antall GPUer.

Selv kjører jeg SLI på et Intel P35 kort uten SLI-støtte....

 

Ja men på drivernivå så kjører den SLI. Og klart at du kan bruke 9800 GX2 så lenge det er PCI-E, men når nVidia nå føler at SLI er dead-end så går de over til 1 fysisk GPU. For å etterhvert droppe SLI støtte på drivernivå eller ikke bruke mer tid på den.

 

Og når det gjelder drivere så vil både GTX280 og 9800 GX2 med tiden få bedre ytelse. Og det kan godt hende at forskjell mellom de 2 vil bli større - men samtidig så skal det mye til for at 177.34 som er ekstrem beta idag er klar som ikke-beta til lansering.

Endret av GCardinal
Lenke til kommentar

Milde måne..

 

Selv jeg som blir litt skuffa over at jeg ikke venta synes at det er fint når produsenter lanserer nye kort.. Gleder meg til å lese sammenligninger med ATI/AMD's nye kort..

 

Hvilket som er best, hvilket som krever mest strøm osv.. vel det får jeg vite tidsnok.... Ta alt med en klype salt, til og med livet..

 

Ha en fortreffelig fin og våt sommer dag..

Lenke til kommentar

Hvis 177.34 er "ekstrem BETA" i dag så kan du jo tenke deg hva 177.26 er... Man vil som regel se en god økning etter de første driverene til et skjermkort. Så stabiliserer det seg etter en måneds tid og ytelsen øker da mer gjevt utover alle skjermkortene.

 

Ja men på drivernivå så kjører den SLI. Og klart at du kan bruke 9800 GX2 så lenge det er PCI-E, men når nVidia nå føler at SLI er dead-end så går de over til 1 fysisk GPU. For å etterhvert droppe SLI støtte på drivernivå eller ikke bruke mer tid på den.

Hvor har du det fra at Nvidia dropper alt som heter SLI på drivernivå? Uansett, så har senere sagt at dette blir siste generasjon med en enkelt fysisk GPU på skjermkortet. Men om de bruker SLI-teknologi for å koble sammen flere kjerner i fremtiden er dog usikkert.

Om de stopper å oppdatere SLI-driverene så vil det jo være til fordel for GTX 280, så virker jo litt selvmotigende.

 

Hmm apropo lansering, noen skriver i dag?... så er det i dag eller i morgen. Om det er i dag, når (kl)?

Kl 15:00 går NDA'en min bort. Antar det er samtidig som lansering.

Endret av andrull
Lenke til kommentar

Gleder meg absolutt til sammenlikningene ja. :thumbup:

 

Men, som jeg har sagt tidligere, senest da 8800 serien ble lansert; noen hw-nettsteder burde ta roundup reviews når kortene er rundt 3mnd gamle og driverstøtten er bedre. Ting har ofte forandret seg ganske mye da, og er det jevnt mellom ATI/NV på release datoene, så er det rett og slett dumt å ikke ta en "recount".

Endret av mad_arab
Lenke til kommentar
Gjest Slettet-QjT4b9

Synd at jeg sover når det er release :p

Men, gleder meg til tester av dette og 4870 av samme team, da vi får ordentlig sammenlikningsgrunnlag. Synd at Intel og Nvidia ikke er bestevenner, ellers hadde jeg hatt SLi på mitt X48-kort jeg :(

Lenke til kommentar
Desse tala får meg jo nesten til å "angre" litt på at eg kjøpte 9800GTX for ei stund sidan... Men eg hadde nok ikkje kjøpt meg GTX280 uansett. Det er jo ALT FOR STORT og produserar for mkje varme. Dessutan har eg mykje anna å bruke pengar på ;)

Det er ikke noe større enn 9800GTX, og bruker mindre strøm/varme når du ikke spiller/kjører det på LOAD. Ved LOAD så bruker det nok mer strøm, men gir jo da også bedre ytelse.

 

GTX 260 ville jo kanskje vært et bedre alternativ i sådann. Men skal bli spennende å se. :thumbup:

Endret av andrull
Lenke til kommentar
Hvor har du det fra at Nvidia dropper alt som heter SLI på drivernivå? Uansett, så har senere sagt at dette blir siste generasjon med en enkelt fysisk GPU på skjermkortet. Men om de bruker SLI-teknologi for å koble sammen flere kjerner i fremtiden er dog usikkert.

Om de stopper å oppdatere SLI-driverene så vil det jo være til fordel for GTX 280, så virker jo litt selvmotigende.

 

Intel er i gang med sin nye Nehalem og både Intel og nVidia har bekreftet at nvidia (brikersett) får ikke lov å mekke hovedkort for Nehalem. Det igjen betyr at hardware støtte for flere nvidia kort koblet sammen blir kun på AMD hovedkort - men det er lite spennende for nVidia med tanken på ATI.

 

Og da fortsette for SLI bare for kort som er på 1 spor men har flere fysiske GPU er ikke lønnsomt/logisk.

 

Så er vi tilbake til ett spors kort med nettopp "flere" kjerner i enn GPU. Og det er det vi ser i GTX280 - forsøk på å få mest mulig i enn GPU - rå kraft uten SLI. Selvsagt er det støtte for SLI men 3 x 4k = 12k for 3 x GTX280 er stivt uansett. Husk at 790i Ultra er siste nVidia kort med 3-way SLI for Intel CPU.

 

Og det at nVidia putter alt de har i GTX280 som etter hvert kommer til å videreutvikles og er det kortet de mest sannsynlig kommer til å satse på yter så dårlig er oppsiktsvekkende.

 

Og mange vil nok si at +5%-10% er ikke dårlig - men det er dårlig med tanken på at de putta alt i den. Og de faktisk sier at det er "new techonology".

 

Ser man litt større bildet i det heile, med avslappet stemning oss ATI, drivere som faktisk fungerer med Crossfire og med Crossfire støtte på AMD og Intel platformer - se ser man hvorfor det nVidia leverer er så dårlig.

 

For å kunne være noe lunde sterk treng de minst 30-40% mer ytelse enn 9800 GX2

Endret av GCardinal
Lenke til kommentar
Gjest Slettet-QjT4b9
Hvor har du det fra at Nvidia dropper alt som heter SLI på drivernivå? Uansett, så har senere sagt at dette blir siste generasjon med en enkelt fysisk GPU på skjermkortet. Men om de bruker SLI-teknologi for å koble sammen flere kjerner i fremtiden er dog usikkert.

Om de stopper å oppdatere SLI-driverene så vil det jo være til fordel for GTX 280, så virker jo litt selvmotigende.

 

Intel er i gang med sin nye Nehalem og både Intel og nVidia har bekreftet at nvidia (brikersett) får ikke lov å mekke hovedkort for Nehalem. Det igjen betyr at hardware støtte for flere nvidia kort koblet sammen blir kun på AMD hovedkort - men det er lite spennende for nVidia med tanken på ATI.

 

Og da fortsette for SLI bare for kort som er på 1 spor men har flere fysiske GPU er ikke lønnsomt/logisk.

 

Så er vi tilbake til ett spors kort med nettopp "flere" kjerner i enn GPU. Og det er det vi ser i GTX280 - forsøk på å få mest mulig i enn GPU - rå kraft uten SLI. Selvsagt er det støtte for SLI men 3 x 4k = 12k for 3 x GTX280 er stivt uansett.

 

Og det at nVidia putter alt de har i GTX280 som etter hvert kommer til å videreutvikles og er det kortet de mest sannsynlig kommer til å satse på yter så dårlig er oppsiktsvekkende.

 

Og mange vil nok si at +5%-10% er ikke dårlig - men det er dårlig med tanken på at de putta alt i den. Og det faktisk sier at det er "new techonology".

 

Ser man litt større bildet i det heile, med avslappet stemning oss ATI, drivere som faktisk fungerer med Crossfire og med Crossfire støtte på AMD og Intel platformer - se ser man hvorfor det nVidia leverer er så dårlig.

 

For å kunne være noe lunde sterk treng de minst 30-40% mer ytelse enn 9800 GX2

Du fikk meg til å tenke på, om 4870 skal være så bra som det sies, og GTX280 yter cirka som dette, GTX280 er da som sagt av flere brukere "ta to betal for en"? Så 4870 med en gpu KAN yte bedre enn GTX280 som har to sammen? Konkurranse anyone?

Lenke til kommentar

Så 8800GTX var også noe drit når det kom?

7950GX2 var ikke stort dårligere den første tiden og lå på samme nivå som 8800GTS 640MB.

 

Akkurat som at GTX 280 forventes å bli noe bedre enn 9800GX2, og GTX 260 blir på samme nivå som 9800GX2...

Ja 7800GTX var vel også noe dritt da det kom.... Var jo ikke SÅ mye bedre enn 6800Ultra.

 

Og 9800GTX var vel også noe dritt da det kom? siden ytelsen ikke økte særlig i forhold til 8800GTX/Ultra.

 

Obs. På samme antall FPS så synes jeg 8800GTX glir bedre enn 9800GX2. Dobbelkjerne skaper noe litt mindre stabil FPS.

 

Og det at nVidia putter alt de har i GTX280 som etter hvert kommer til å videreutvikles og er det kortet de mest sannsynlig kommer til å satse på yter så dårlig er oppsiktsvekkende.

Når vi ser dobbel-GPU versjoner av kortet så øker nok ytelsen betraktelig.

Endret av andrull
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...