Gå til innhold

Test: AMD Radeon R9 295X2


Anbefalte innlegg

Videoannonse
Annonse

Selv om dette ikke er et grafikkort som står på min egen ønskeliste, synes jeg denne testen var helt kurant. Bet meg imidlertid merke i følgende:

 

"Et fall til meget fint spillbare 47 FPS i snitt er en nedgang på drøyt 75 prosent – som jo er ganske mye, isolert sett – men GeForce GTX 690 faller samtidig med hele 92 prosent."

 

Her ser det jo ut som om begge kortene nesten stoppet helt når oppløsningen ble skrudd opp!... :hmm: Er du sikker på at du har regnet riktig, unge Aamo?

 

Jeg tenker vi sier hhv. 43% og 48% nedgang i stedet. Ikke spesielt stor forskjell mellom de to kortene når det gjelder ytelsestapet på høyere oppløsning, altså.

Lenke til kommentar

 

Er det ikke på tide å ta med litt nyere spill i testene. Bytte ut BF3 med BF4 for eksempel.

 

Hei!

Akkurat det spørsmålet kommer opp rett som det er når vi tester skjermkort, men som vi skriver i artikkelen er Battlefield 4 fortsatt litt for nytt til at vi ønsker å bruke det. Spillet får støtt og stadig nye oppdateringer, feilrettinger og slikt, som kan føre til at ytelsen et gitt skjermkort leverer kan endre seg nærmest over natten. Derfor holder vi oss til Battlefield 3 - som er mer "ferdig", i den forstand at det har fått de fleste oppdateringene som kan påvirke resultater, og som fremdeles gir et veldig godt bilde på hvordan skjermkortene faktisk yter.

 

 

Det må være den dårligste unnskyldningen ever. Kanskje dere vil låne 2x 780ti av meg for å teste Bf4? Dere kan tilogmed låne Bf4 av meg :green:

  • Liker 2
Lenke til kommentar

skule likt å set dette korte opp mot det nye korte til NVIDIA titan z eller to titan black i sli..

 

dette korte er jo også pci e 3.0 men hvorfor er det så få hk fra amd med pci e 3.0 slot..

Titan Z er ikke ute enda, men vil jo kjøre langt lavere frekvenser enn Titan Black, vi snakker om rundt 700 MHz base clock...

 

Eneste hovedkort fra AMD med støtte for PCIe 3.0 er de med FM2+, og det er kun x8 PCIe 3.0

AM3+ har ikke mulighet for PCIe 3.0 fordi båndbredden mellom CPU og chipset er for liten.

Lenke til kommentar

 

621 Watt? LOL?

 

Har du sett hva et GTX 780Ti bruker, eller ble du så ivrig att du fullstendig overså det?

 

GTX 780 Ti bruker 379watt. to slike bruker da 758W..

 

GTX 780 bruker 337watt, to slike bruker da 674W..

 

Greit å prøve å ta av seg nvidia brillene en gang i blant, selv om jeg forstår att det er hardt.

 

 

 

 

62529.png

 

 

Greit å ta av seg AMD brillene å kanskje?

Endret av LoveAmiga
  • Liker 3
Lenke til kommentar

 

 

621 Watt? LOL?

Har du sett hva et GTX 780Ti bruker, eller ble du så ivrig att du fullstendig overså det?

 

GTX 780 Ti bruker 379watt. to slike bruker da 758W..

 

GTX 780 bruker 337watt, to slike bruker da 674W..

 

Greit å prøve å ta av seg nvidia brillene en gang i blant, selv om jeg forstår att det er hardt.

Nei det gjør di ikke? Hvor har du det i fra?

Ett er ca max 250w, men du glemmer att det er hele systemet de opp gir.

Selv har jeg 8 x 780Ti og de ligger på ca 300w med alt.

Lenke til kommentar

 

 

621 Watt? LOL?

 

Har du sett hva et GTX 780Ti bruker, eller ble du så ivrig att du fullstendig overså det?

 

GTX 780 Ti bruker 379watt. to slike bruker da 758W..

 

GTX 780 bruker 337watt, to slike bruker da 674W..

 

Greit å prøve å ta av seg nvidia brillene en gang i blant, selv om jeg forstår att det er hardt.

 

 

 

 

62529.png

 

 

Greit å ta av seg AMD brillene å kanskje?

 

 

Ved bruk av 2 stk 780ti i sli, så kan man ikkje doble watt i forhold til ett kort. Dette til orientering.

 

Hadde det vært slik hadde det vært perfekt 100% skalering, og kanskje mere enn det :p

  • Liker 1
Lenke til kommentar

Mye heftig samlet på et kort det der.

Men la ut 3700,- x2 for asus gtx 780 directCU II oc.

Veldig clock vennlige kort da jeg kjører dem med gpu boost på 1100 og mem 7000mhz stabilt uten artifacts på skjerm.

Gir en en firestrike score på 15520 (graphics 20448 physics 11747) og det sammens med en 2600k~4600mhz fra 2011.

 

og de kortene bråker ikke en gang noe spes på 100% fan load

 

Ble jo nesten Nvidia reklame det her, bare sier at man kan alltid få mer for pengene.

Men helt klart et monster presset inn i et kort

Lenke til kommentar

Er det nokon her som seriøst vurdere å kjøpe eit slikt kort? Eg forstår at det kan vere viktig for produsentane å ha det sterkaste kortet på marknaden, men eksisterer eigentleg denne marknaden?

 

Synest også at det der noko absurd at eit kort til 10000kr ikkje klarer å køyre eit spel frå 2010 på 60 FPS.

 

Ikke at jeg skal kjøpe noe som helst i nærmeste fremtid, men når jeg først gjør det kjøper jeg noe av det friskeste man får tak i så det holder lenge. Det nytter ikke med noe som drar gårsdagens spill i 60 fps i 1080p om jeg vil kjøre 1440p med minst 60 fps et par år framover. Jeg ville riktignok kjøpt to enkeltkjernekort isteden ettersom jeg har et relativt bevisst forhold til penger.

 

Disse spillene fra flere år tilbake kjører på så dårlige motorer at det i praksis er umulig å få dem til å kjøre bra. Når jeg spiller Crysis med GTX 670 SLI er jeg nede på 18 fps eller noe i den stilen et bestemt sted i spillet, uten at grafikkortene skal få skylda for det. Mange spill klarer såvidt jeg har forstått ikke å utnytte flerkjerneprosessorer nærmest i det hele tatt, og da blir FPS deretter.

Lenke til kommentar

 

 

Støy orker jeg ikke mer. Ferdig med puberteten!

Vi får vente til produksjonslinja til TSMC klarer 20nm.

28nm er på overtid og overmoden.

Å tror du det hjelper på støyen? De bare øker frekvensen på kortene for å få opp ytelsen? Skal du ha ett støy svakt kort velg dette?

https://www.komplett.no/evga-geforce-gtx-780ti-3gb-physx-cuda/802793

Eller 780ti classy med full vannkjøling og rikelig med radiatorer og stille vifter. Er man ferdig med "pupperteten", så har man råd til dette ;) Endret av Nizzen
  • Liker 3
Lenke til kommentar

Er det nokon her som seriøst vurdere å kjøpe eit slikt kort?

 

 

Tja, jeg vurderer å bytte ut min nåværende skjermrigg med 3 stykk 4K-skjermer, og hvis dette skjermkortet greier å trekke tre slike skjermer så kan det være en god løsning for meg.

 

Jeg jobber primært med rene kontorapplikasjoner (Office, Visual Studio / SQL-manager, bildebehandling etc.), derav behovet for ekstrem skjermflate. Merk også stikkordet "jobber", jeg har altså et firma som dekker kostnaden, så noen lapper fra eller til spiller ingen rolle.

 

Spille er noe jeg gjør en gang i jubelåret, men skal jeg først spille så er det gøy om systemet kan trekke litt mer enn kabal og minesveiper. Derfor er det forhåpentlig mer gøy med ett stykk R9-295x enn tre stykk R9-270, selv om testen dessverre ikke sier et dugg om dette.

 

For ja, i slike artikler savner jeg mer fremoverlente tester. Jeg er ikke veldig interessert i hvordan kortet yter i spill som kom for fire år siden, jeg lurer mer på hvordan det takler skjermer som kommer i butikkene om fire uker.

Lenke til kommentar

Takk for testen! Dere valgte å aktivert PhysX for å sette skjermkortene på prøve, men jeg ser ikke helt hvordan det blir helt rettferdig hvis både kort fra Nvidia og AMD settes opp mot hverandre. PhysX kan bare kjøres på enten Nvidia-kort eller på CPU'en. Har jeg misforstått noe? Takk!

Lenke til kommentar

Takk for testen! Dere valgte å aktivert PhysX for å sette skjermkortene på prøve, men jeg ser ikke helt hvordan det blir helt rettferdig hvis både kort fra Nvidia og AMD settes opp mot hverandre. PhysX kan bare kjøres på enten Nvidia-kort eller på CPU'en. Har jeg misforstått noe? Takk!

Nei, du har ikke misforstått noe dessverre. Hardware.no sine testrutiner er akkurat så gode, jeg påpekte det da de først endret testrutiner for over et år siden uten noen reell respons.

  • Liker 1
Lenke til kommentar

Nei, du har ikke misforstått noe dessverre. Hardware.no sine testrutiner er akkurat så gode, jeg påpekte det da de først endret testrutiner for over et år siden uten noen reell respons.

 

Det var synd. Takk, N o r e n g!

Lenke til kommentar

Tja, jeg vurderer å bytte ut min nåværende skjermrigg med 3 stykk 4K-skjermer, og hvis dette skjermkortet greier å trekke tre slike skjermer så kan det være en god løsning for meg.

 

Jeg jobber primært med rene kontorapplikasjoner (Office, Visual Studio / SQL-manager, bildebehandling etc.), derav behovet for ekstrem skjermflate. Merk også stikkordet "jobber", jeg har altså et firma som dekker kostnaden, så noen lapper fra eller til spiller ingen rolle.

 

Spille er noe jeg gjør en gang i jubelåret, men skal jeg først spille så er det gøy om systemet kan trekke litt mer enn kabal og minesveiper. Derfor er det forhåpentlig mer gøy med ett stykk R9-295x enn tre stykk R9-270, selv om testen dessverre ikke sier et dugg om dette.

 

For ja, i slike artikler savner jeg mer fremoverlente tester. Jeg er ikke veldig interessert i hvordan kortet yter i spill som kom for fire år siden, jeg lurer mer på hvordan det takler skjermer som kommer i butikkene om fire uker.

 

Det er ikke noe problem å jobbe på 3x 4k skjermer, det klarer du fint med feks et vanlig mid/highend kort.

 

Om du derimot tenker på gaming på 3x 4k skjermer så er det noe helt annet. 4gb Vram er overhode ikke nok til å drive 3x 4k skjermer om du vil ha noe eyecandy som AA osv, vi snakker her skjermflaten til 12x 1080p skjermer. Da ville jeg nok heller gått for noe alla 2/3x 290x 8Gb Toxic eller 2/3x Titan Black evt Titan Z.

Endret av EggMan88
  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...