Gå til innhold

Test: AMD Radeon R9 290X


Anbefalte innlegg

 

 

Hvor får du det regnestykket ifra? Hvor kommer 32W i fra?

 

Ta gjerne en ekstra titt på grafen :)

Sukk. Mente 33 Watt, uten at det burde skape full forvirring (styrker jo bare poenget)

Jeg finner både 3W forskjellen du snakket om (men som ikke er sammenlignbart, da det er for silent mode), og 33W som da er for uber mode. :)

Lenke til kommentar
Videoannonse
Annonse

Sukk. Mente 33 Watt, uten at det burde skape full forvirring (styrker jo bare poenget)

Jeg finner både 3W forskjellen du snakket om (men som ikke er sammenlignbart, da det er for silent mode), og 33W som da er for uber mode. :)

 

Okei, kan du forklare hvor du får 33 watt fra da?

 

Jeg finner ikke tallene som må til for at dine 33 watt skal gå opp, av de grafene som nylig er presentert .

Lenke til kommentar

 

Okei, kan du forklare hvor du får 33 watt fra da?

 

Jeg finner ikke tallene som må til for at dine 33 watt skal gå opp, av de grafene som nylig er presentert .

? Det var jo du selv som postet grafen i din egen post. :omg:

 

Men greit, skal gjøre det lettere så vi får saken ut av verden. :)

post-79251-0-37721600-1384016201_thumb.png

  • Liker 4
Lenke til kommentar

? Det var jo du selv som postet grafen i din egen post. :omg:

 

Men greit, skal gjøre det lettere så vi får saken ut av verden. :)

attachicon.gif290x.png

 

 

Ja ok, da er det en annen sak :)

 

Da har vi sammenlignet med feil grafer.

Ser du på denne så vil du se hva jeg har ment når jeg har sagt at differansen er på 13 watt.

 

235 - 222 = 13 ikke sant? :)

 

Jeg har ikke helt forstått argumentet ditt om ubermode, for står det noen plass her at kortet IKKE er i ubermode?

 

Uansett, det må gå an å diskutere uten sarkasm

Vi diskuterer jo alle mann fordi vi er interessert i dette, ene eller andre veien og da må det være mulig å oppføre seg deretter også :)

 

EDIT: Henviser da mest til kommentaren om at jeg får komme tilbake i morgen når jeg er edru. Slikt blir bare smakløst og smålig :)

 

 

post-131058-0-10080600-1384023122_thumb.png

Endret av IceBlitz
  • Liker 1
Lenke til kommentar

Hvis resultatene avviker fra andre tester og andre sin oppfatning av kortet, og testen ikke

Spesielt når toms hardware i tillegg påpeker i ettertid at deres presse-eksamplar ikke går helt overens med et de har kjøpt på en normal nettbutikk.

I tillegg til dette så vil strømforbruket variere voldsomt etter hva salgs temp-target man har på kortet, og selvsagt hvilken frekvens det kjører på. De måler også kun skjermkortets strømforbruk, uten å spesifisere hvordan de har målt det, noe som igjen får meg til å ta resultatet med en klype salt. Joda, det er mulig å måle, men krever noe modding.

 

I testen for 290x så ser vi at strømforbruket går helt opp i 295 Watt, og helt ned i 185 Watt (under GTX 770) i en annen test.

 

Ser vi på andre tester så viser bit-tech 24 Watt forskjell, mens techpowerup viser opp mot 55W forskjell ved maks last (ikke gaming). Og selv om Quiet bare viser til 17 W forskjell i gaming-målingen deres så bruker altså GTX 780 Ti mindre strøm og yter bedre.

 

Og av den grunn så er det ingen som klager. At GTX 780Ti bruker mer strøm enn GTX 780 var liksom aldri noen bombe.

  • Liker 1
Lenke til kommentar
  • 1 måned senere...

"kraftigste skjermkortet vi har sett"

Så da har dere ikke sett Titan og 780ti da eller?

Mitt Titan @1250 mhz core og opp under 7 Ghz på minne gruser dette kortet med ganske mye, tatt i betraktning at kortene fra AMD som sendes til testere er golden samples, hohoh. Folk rapporterer lavere for kortene for konsumermene.

Dere må ha med frame latency i testene? Det er med i alle seriøse tester nå fortiden blant annet for å vise den virklige FPSen en får.

Lenke til kommentar

"kraftigste skjermkortet vi har sett"

Så da har dere ikke sett Titan og 780ti da eller?

Mitt Titan @1250 mhz core og opp under 7 Ghz på minne gruser dette kortet med ganske mye, tatt i betraktning at kortene fra AMD som sendes til testere er golden samples, hohoh. Folk rapporterer lavere for kortene for konsumermene.

Dere må ha med frame latency i testene? Det er med i alle seriøse tester nå fortiden blant annet for å vise den virklige FPSen en får.

780 Ti hadde ikke kommet da HW.no testet 290X. Titan-kortet ditt er jo overklokka ganske høyt. Problemet med klokkefrekvensen er overdrevet, og gjaldt kun i quiet-mode. Har testet to stk 290X i Uber, kjørte på 1000mhz konstant.

  • Liker 1
Lenke til kommentar

"kraftigste skjermkortet vi har sett"

Så da har dere ikke sett Titan og 780ti da eller?

Mitt Titan @1250 mhz core og opp under 7 Ghz på minne gruser dette kortet med ganske mye, tatt i betraktning at kortene fra AMD som sendes til testere er golden samples, hohoh. Folk rapporterer lavere for kortene for konsumermene.

Dere må ha med frame latency i testene? Det er med i alle seriøse tester nå fortiden blant annet for å vise den virklige FPSen en får.

Det går an å overklokke R9 290X også vet du?

AMD sendte golden samples til pressen? Techreport har testet dette og jeg kan ærlig talt ikke se større forskjeller enn det Nvidias GPU yield Boost tillater.

Frame latency for enkeltkort er i stor grad irrellevant i dag, det eneste slike tester er gode for er å kartlegge om man får spikes i frameraten.

Det å teste frame latency er også en komplisert og noe dyr prosess: man trenger et capture-card med en DL-DVI-port, en solid RAID-kontroller med 512GB eller helst 1024GB store SSDer, og så må man lære FCAT-programvaren til Nvidia som fort kan ta litt tid, maskinen som tar opp kan heller ikke være samme maskin som spiller spillet... Etter at man har tatt opp og analysert dataene må man så filtrere dataene til noe fornuftig.

 

Det er mye man kan kritisere HW.no for, men akkurat det du kritiserer dem for her er ikke noe å kritisere dem for.

  • Liker 2
Lenke til kommentar

FPS viser da tilnærmet den virkelige FPSen. FPS = Frame per second, og det må jo da også være summen/snittet av et par målinger, som mer enn godt nok vises med de fleste software-verktøy.

 

Men om man ønsker å se hvor lang tid hvert skjermkort bruker på å å produsere hvert bilde, så må du ha frame latency test, og det er som Arni nevnte, en meget møysommelig test.

 

Noen tester kan nok også ta en kjapp en, og bruke software for å registrere dette, og vil i beste fall være høyst unøyaktig. Da er det bedre å ikke ha det med overhode, noe HW.no burde fortsette med. Selv om jeg ser frem til skikkelig testutstyr en eller annen gang når slikt faller i pris (SSDer begynner å komme med skikkelig god pris i så store størrelser). ;)

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...