Gå til innhold

AMD har lansert kraftkaren «Fury X» og nye Radeon-kort


Anbefalte innlegg

Bare et spørsmål Gabri3L: Hvis for eksempel Aftenposten hadde skrevet i en leder eller kommentar at de synes det er galskap et Regjeringen gjennomfører en gitt politikk. Synes du da det er riktig at Regjeringen skal "boikotte" Aftenposten, og ikke invitere de på fremtidige pressekonferanser?

https://youtu.be/QFWgc8qjQwk?t=463

 

"Hang on a minute, we've been conned"

 

Jeg kan ikke bli med på sammenlikningen med regjering og politikk. Regjeringen skal bestå av våre representanter og SKAL svare til befolkningen, ofte gjennom presse, selvfølgelig vil et slikt scenarie være uholdbart.

 

AMD skal kun svare overfor sine aksjonærer. Så når et medlem av pressen lager en grinevideo og nærmest skjeller ut AMD fordi de ikke fikk lov til å komme inn på samme rom som kunder under computex. Vel, som du ser har jeg ingen motforestillinger mot at de da ikke får teste det kortet. AMD har rett til å forvente seg nøytral og profesjonell oppførsel fra den delen av pressen. At pressen ikke hadde adgang kan like sannsynlig være et forsøk på å demme opp for lekkasjer. Og jeg synes AMD har vært flinke i år. Jeg fikk jo med meg at det skulle komme et "Nano", men regnet med det måtte være den vannkjølte, så liten som den er. Project Quantum kom fra ingensteds, og selv om jeg tidligere hintet om at jeg trodde på en dual GPU versjon av Fury, så var jeg rimelig alene om det.

 

At AMD skal æreskjelles fordi Nvidia har sluttet med rebadging før de selv har hatt anledning til dette blir litt dumt for meg. Hva er det han knølen mener AMD skulle gjort? Sagt: "Hei hei alle sammen, her kommer et par Fury mens vi venter på 14nm, men ingenting annet, fordi vi har ikke råd til å bruke millioner av dollar på 28nm nå som 14nm er rett rundt hjørnet. Dere får kjøpe 200 serien et år til da så lenge."?

 

Jeg synes rebadging først og fremst er et problem når det er et rent klistremerke-bytte. Om det er det som har skjedd med 390X er jeg usikker på. De sier at de har kutte TDP med 15W fra forrige generasjon. Men tester ser ikke ut til å bekrefte dette med noen stor grad av sikkerhet. Da kikker jeg på testene som er gjort, og ser at tilsynelatende så bør der være et marked for 300 serien fremdeles. 4GB ekstra, med raskere RAM, gjør at der 290X før måtte slippe taket, så klarer 390X å hevde seg. Og som forventet gjerne spesielt i høyere oppløsninger med hjelp av en venn...

Endret av Gabri3L
Lenke til kommentar
Videoannonse
Annonse

 

Bare et spørsmål Gabri3L: Hvis for eksempel Aftenposten hadde skrevet i en leder eller kommentar at de synes det er galskap et Regjeringen gjennomfører en gitt politikk. Synes du da det er riktig at Regjeringen skal "boikotte" Aftenposten, og ikke invitere de på fremtidige pressekonferanser?

https://youtu.be/QFWgc8qjQwk?t=463

 

"Hang on a minute, we've been conned"

 

Jeg synes fremdeles det er godt innenfor hva man bør tillate seg at journalister. Desuten er ikke kan som snakker på denne podcasten heller han som tester GPUer for KitGuru.

 

Jeg kan ikke bli med på sammenlikningen med regjering og politikk. Regjeringen skal bestå av våre representanter og SKAL svare til befolkningen, ofte gjennom presse, selvfølgelig vil et slikt scenarie være uholdbart.

 

AMD skal kun svare overfor sine aksjonærer.

Jeg ville vært ganske skeptisk som aksjonær når AMD nekter å samarbeide med journalister som er kritiske til deler av strategien. Fortsetter de med dette så er det høy risiko for at strategien kan slå hard tilbake.

 

Vel, som du ser har jeg ingen motforestillinger mot at de da ikke får teste det kortet. AMD har rett til å forvente seg nøytral og profesjonell oppførsel fra den delen av pressen. At pressen ikke hadde adgang kan like sannsynlig være et forsøk på å demme opp for lekkasjer.

Den største lekkasjen for AMD og Nvidia er kunder, ikke presse under NDA.

 

 

Og jeg synes AMD har vært flinke i år.

Venter å uttale meg til etter alle detaljer om Fury er kjent, men ut i fra hva jeg vet nå så er jeg ganske nøytral...

 

At AMD skal æreskjelles fordi Nvidia har sluttet med rebadging før de selv har hatt anledning til dette blir litt dumt for meg.

Ja, når de klarer å rebage en hel serie (Fury er ikke en del av 300-serien) så fortjener de det. I 200-serien hadde de heldigvis noen nye GPU'er (390, 390x og 385) nå er alt rebrand og rebadge.

Nvidia kunne fint rebrandet GTX 750 (Maxwell Gen1) til GTX 950, det har de heldigvis ikke gjort!

 

Hva er det han knølen mener AMD skulle gjort? Sagt: "Hei hei alle sammen, her kommer et par Fury mens vi venter på 14nm, men ingenting annet, fordi vi har ikke råd til å bruke millioner av dollar på 28nm nå som 14nm er rett rundt hjørnet. Dere får kjøpe 200 serien et år til da så lenge."?

Ja, hvorfor ikke?

Slipp heller nye 200-serie kort. For eksempel R9 290x -> R9 295x osv...

 

Jeg synes rebadging først og fremst er et problem når det er et rent klistremerke-bytte. Om det er det som har skjedd med 390X er jeg usikker på. De sier at de har kutte TDP med 15W fra forrige generasjon. Men tester ser ikke ut til å bekrefte dette med noen stor grad av sikkerhet.

Etter hva jeg har sett av resultater så er 300-serien innenfor hva man kan forvente seg av modning når en brikke er i produksjon i 12 måneder ++
  • Liker 1
Lenke til kommentar

HC konkluderer med noe annet enn testene deres viser. Hvis de konkluderte utelukkende basert på minimums fps må de jo skrive det. De kunne sortert på minimums fps hvis dette hadde vært det de ville dømme utifra. Det hadde blitt like ryddig. De velger altså å ikke gjøre det. Jeg har og techspot som kilde som viser at GTX 980 er 6% raskere enn R9 390X. I tillegg er det ingen som kjøper stock kort. De kjøper gigabyte/sapphire/asus/msi. Da vil jo et GTX 980 uansett være raskere. Jeg kan gå med på at de har omtrent den samme ytelsen, men jeg kan ikke gå med på at R9 390X har en egde over 980. Det stemmer på ingen måte.

 

Jeg har aldri sagt at det er mot noen lover i det hele tatt. Jeg sier at hvis en tenker på denne saken med norsk kriminalfilosofi så vil det være en gal avgjørelse av AMD. Med amerikansk filosofi derimot, er det ikke. Det er selvfølgelig lovlig å velge å IKKE gi noe. AMD har ingen plikt til å gi Fiji til noen som helst. Selvfølgelig er det ikke lovstridig noe sted i verden.

 

AMD kan ikke bevise noe før kortene er ute. De kunne bygd opp en historie med å presentere tall som stemmer. Det er jo noe Apple f. eks har. De fleste av tallene på batteritid f.eks pleier å stemme veldig godt. Slik det er nå kan ikke AMD bevise noe som helst før det er testet av 3. part. Poenget med disse benchmarksene er jo for å få folk til å kjøpe med en gang. Det får de folk til å gjøre.

Lenke til kommentar

Diskusjonen om rebranding har sporet totalt av. Det er da ikke at noe rebrandes i seg selv som er problemet, og så lenge AMD er tydelig på ytelse og andre egenskaper så har jeg ingen problemer med det i seg selv.

 

Det er f.eks. ingen som har hylt og skreket over at GTX 770 var omtrent GTX 680, og nesten hver generasjon har et eller annet som videreføres på den måten. Og jeg ser absolutt ingen problemer med det så lenge det gir mening å ha det produktet i det segmentet, vi kan da ikke forvente at AMD og Nvidia på død og liv skal lage nye brikker hvert år for hvert segment hvis de ikke har noen forbedringer å hente ut?

 

Problemet med 300-serien til AMD er ikke selve rebrandingen, men at de introduserer produkter som er totalt underlegen konkurrenten. Det er rett og slett en dårlig strategi fra AMDs side, siden Nvidia har de soleklart beste alternativene i de fleste tilfeller. Selv om AMD skulle skru prisen kraftig ned, så vil AMD fremdeles slite med høyere produksjonskostnader med større ineffektive brikker. Så det er primært dumt for AMDs del, og selvsagt dumt fordi de ikke har mulighet i 2015 å gi Nvidia noen konkurranse her.

Lenke til kommentar

Problemet med 300-serien til AMD er ikke selve rebrandingen, men at de introduserer produkter som er totalt underlegen konkurrenten. Det er rett og slett en dårlig strategi fra AMDs side, siden Nvidia har de soleklart beste alternativene i de fleste tilfeller. Selv om AMD skulle skru prisen kraftig ned, så vil AMD fremdeles slite med høyere produksjonskostnader med større ineffektive brikker. Så det er primært dumt for AMDs del, og selvsagt dumt fordi de ikke har mulighet i 2015 å gi Nvidia noen konkurranse her.

Enig.

390, 380 og 360 er for så vidt ok rebrands, det er forrige generasjons brikke med ganske like features. De produktene jeg er kritisk til er de som nå blir rebranda for 2. gang (370 og en haug OEM-produkter) som er baser over tre år gamle GCN 1.0 brikker. Disse mangler flere egenskaper som nyere brikker har.

 

Er også helt enig det du sier om ineffektive brikker. 390X er et god eksempel på dette. Brikken har et strømforbruk over Titan X for og kanskje så vidt matche GTX 980 i ytelse.

  • Liker 1
Lenke til kommentar

Men hva blir så alternativet til Amd?

Holde på R9 2xx serie navnet og alt det innebærer ( Pr , uendret ytelse ) og er man sikker på at forbrukeren får med seg at de "nye" 2015 Q3 produktene faktisk yter bedre enn forgjengeren i serien?

 

Sånn sett så forstår jeg at det er en rebranding , det gir faktisk mening , det som ikke gir mening er at Amd faktisk ikke er så flinke med selve PR'en bak dette og står klart fram.

 

Ja , det gir selskapet en liten mulighet til å høste inn noe bedre fortjeneste i en periode , men de fleste forbrukerne via de tester som er gjort er nok klare over ytelsen på disse kortene og jeg tviler på at Amd får solgt så mange om de ikke setter prisen riktig.

 

Personlig var jeg glad over tilbudet jeg fikk på dette skjermkortet (R9 280 ) og med i pakken fikk jeg jo 3 spill fra Amd , via Amd sitt Gaming evolved har jeg fått 3 nye spill via poengsystemet, totalt utgjør vel dette en markedsverdi på omtrent 600-800 kroner på de nye spillene og kanskje 100-200 på de eldre spillene ( På det tidspunktet valgte jeg Hitman : Absolution , Thief , Total War II og fikk senere Dirt 3 complete og Supreme commander +Forged alliance ) , viderefører Amd dette programmet med de "nye" skjermkortene i 300 serien er det godt mulig at de kan få en god del kunder , men igjen så er det viktig å treffe på prisen.

 

Sånn sett så må man som forbruker veie opp det man får for pengene sine og om dette da er såpass bra tilbud i forhold til andre muligheter at det er verdt å kjøpe det. Om et skjermkort i snitt kun yter 4-5 fps mindre på samtlige spill og vi snakker om god og spillbar framerate så tror jeg nok at jeg hadde også sett på om det var med spill i pakken og om disse kan gi den lille merverdien som skal til for å kjøpe akkurat det skjermkortet ( uavhengig om det er Nvidia / Amd ).

Lenke til kommentar

Det er jo faktisk et viktig poeng. NVIDIA har gått over til tripple A spill virker det som. Nylig hadde de jo Witcher 3 med kortene, og da som eneste spill. AMD har jo gjerne flere spill med, og da ofte som du sier ganske populære spill. Så AMD gir absolutt mer verdi med disse pakkene i forhold til NVIDIA. Så har du jo selvfølgelig det programmet med poeng i tillegg. Der kan du tom kjøpe GPU hvis du spiller nok.

 

Et av problemene med rebrand er jo tydelig i bærbare. Her kan en jo ikke bruke AMD, fordi de bruker såpass ineffektive brikker. Apple har jo f.eks Pitcairn brikker i sine maskiner. Pitcairn og Bonnaire burde jo absolutt vært byttet ut.

 

Som sagt er jo ikke de nyere kortene et problem i seg selv sånn sett. Det at de er mindre effektive kunne de jo bekjempet med lavere priser. Problemet er jo når de de selger det til samme pris.

 

AMD kan jo sånn sett sikkert ikke gjøre så mye med det. De har mer begrenset budsjett enn NVIDIA. Forhåpentligvis får vi en helt ny serie med 14 nm i 2016. 

Lenke til kommentar

AMD selv lister opp specs for Fury som en del av 300 serien. Nvidia stripper ned sin Titan X og kaller den 980ti, da må det være greit å kalle Fury en del av 300 serien.

 

jeg mente AMD har vært flinke til å unngå lekkasjer. Vi fikk jo faktisk noen overraskelser under pressekonferansen. At kunder kan lekke? Bevares, men bare det de tror de vet. Pressefolk lekker det de tror de slipper unna med (og de vet gjerne mer), og alle vil ha nyhetene ut først.

 

At AMD ikke ønsker å assosieres med et nettsted som omtaler dem i så negative ordelag er mildt sagt forståelig. Som jeg viste så ble et ord som betyr "svindel" brukt, det er et sterkt og negativt ord. Men mer enn det, det ble brukt i en video som var stort sett kun negativ omtale for AMD. Ikke en av aksjonærene kommer til å ha problemer med avgjørelsen om å prøve å distansere seg fra denne websiden. Og det burde ikke vi heller ha problemer med. Vi ønsker selvfølgelig ikke at AMD skal sende kortene sine til testing hos "www.amdfanboysforever.com", men vi burde ikke ha problemer med at "www.amdsucks.com" også utelates...

 

Men skal vi kåre en vinner? OK, da er vi alle enige om at det må være 980 over 390X, når vi ser på alt under ett. Men er det en stor seier? Nei, ikke ytelsesmessig uten overklokking. Og finnes det omstendigheter der 390X er bedre? Ja, det gjør det jo absolutt. Skal det bare skyves under en stol fordi det er en rebadge/refresh? Er det noen her som har tenkt på at produsentene faktisk skal tjene penger på å lage disse kortene, og at AMD da ikke har noe valg når det kommer til navngivning? Hvis Asus sier; "Sorry, men om det ikke kommer noen 300 serie, så slutter vi å lage 200 serien, vi tjener ikke nok på den lenger." hva skal liksom AMD gjøre da?

 

@TKongen - Sitat: "HC konkluderer med noe annet enn testene deres viser".

 

Nei, det gjør de ikke!!! De har presentert resultatene på en ryddig måte. Og NÅR ingen klar vinner har kunnet kåres på "average", så har de åpenbart gjort det på "minimum" i stedet. Det er den eneste logiske tingen å gjøre dersom man på død og liv må kåre en vinner. Deretter har de konkludert, og korrekt sådan, med at i deres tester har 390X ytt hårfint bedre enn 980. HELT I TRÅD MED RESULTATENE DE NETTOPP PRESENTERTE!!!

 

Hvis du på død og liv må kverulere på dette så kunne du heller hengt deg opp i at de ikke testet i 1080p, og spurt hva grunnen til det kan være? Da er jeg med. Men sånn det står, gjør du deg selv skyldig i å lyve like ille som det du beskylder HC for å gjøre. Du tegner kun ditt eget bilde..

 

AMD would be foolish to manipulate these benchmarks or straight up lie about them so close to the card’s release, so it’s safe to say that, at least on paper and where pure performance is concerned, the Fury X is going to live up to its promise.

 

Forresten så fikk man både Witcher og nye Batman sammen med ihvertfall 980 en periode...

Lenke til kommentar

R9 390X kan vinne i enkelte spill ja, men jeg kan absolutt ikke gå med på at R9 390X har en egde i forhold til GTX 980. Det blir bare helt feil. Jeg kan ikke gå med på et det er jeg som tegner mitt eget bilde når jeg går utifra en sides egne rangeringer. Er det ikke du som tegner et eget bilde når du påstår hva de åpenbart må ha gjort? Det eneste jeg ser er noen grafer som rangerer GPUer, der er GTX 980 over R9 390X i veldig mange. Dermed ser jeg en konklusjon som sier at R9 390X vinner de fleste testene. Så hører jeg en forklaring fra deg på at siden avg er så likt og AMD har lavere min fps så er det jo selvfølgelig slikt de tenkte uten å skrive det. Når måtte man drive å tolke konklusjonen for å finne ut hva de har tenkt på når de skriver den? Jeg går ikke med på at en må tolke seg frem og analysere grafene for å forsvare en slik konklusjon.

 

Techspot skriver enkelt og greit, GTX 980 er gjennomsnittlig 6% raskere i spillene de testet. Enkelt, og greit. Testen du viser til er fordelaktig til AMD, det er krystallklart. 390 kommer likt som 980. Slike spill viser ingenting, og er verdiløse i seg selv. Derfor tester du mange spill. Du kan jo f. eks prøve Witcher 3 med hairworks, Metro Last Light er vel og NVIDIA tittel. 

 

Du misforstår åpenbart. Når du kjøper et GTX 980 er det overklokket som standard, men tester pleier vanligvis å skille mellom stock frekvens og overkokk. Et GTX 980 kort du plukker opp i butikken kan dermed yte 10% bedre enn tester, mens et R9 390X har nesten ingenting å gå på og du får 2% gjerne.

 

Artikkelen du nevner begynner med å skrive at AMD har lavere score for GTX 980 Ti enn det AMD har med samme oppsett. Er det egentlig noe nytt her? Resultatene er svært manipulerte. Du kan komme med andres meninger så mye du vil, men jeg har sett tall for både APU og Mantle den siste måneden som ikke bare er direkte feil, men helt utrolig langt unna virkeligheten. AMD påsto f. eks 25% bedre fps for i3 i BF4, når du egentlig får 7%. En APU skal være raskere enn en i3, når FX-8350 blir slått av en i3, og APUen blir slått av en pentium. Jeg ser ikke helt grunnlaget for å tro på AMD? Jeg sier ikke at NVIDIA og Intel er noe bedre. De har like feil resultater som AMD har. Jeg er bare skeptisk til resultater fra alle selskapene, det inkluderer AMD. Stemmer de er det bra. Et steg i riktig retning. Stemmer de ikke blir jeg ikke overrasket. Jeg har aldri heller påstått at de ikke stemmer, jeg ser bare ingen grunn til å tro på det. Det er akkurat det samme som med spill, og E3 trailere osv. Det stemmer sjeldent. Det er sunt å være skeptisk og ikke bare bite på all slags. Derfor biter jeg ikke på disse heller. Om de stemmer eller ikke er egentlig irrelevant for meg, jeg stoler ikke på slike tall uansett.

Lenke til kommentar

Tenker jeg melder meg ut her. Du innrømmer at minimum framerate kan være vel så viktig som average. Likevel er HC "løgnere" når de sier at 390X er på håret bedre enn 980 i deres tester. Alle med øyne ser jo dette svart på hvitt. Men ikke du. Du sier du ikke vil måtte "tolke" hverken resultat eller konklusjon...

 

Nei, da finner du heller en test der 1080p er med, slik at du kan kåre 980 som vinner. Eller argumenterer med at ingen kjøper 980 med stock bios og kjøler likevel. Bedre eksempel på "no true scotsman" argumentering skal man lete lenge etter. Vel, ikke lenge lenge, vi er jo på et forum..

 

Men som sagt; jeg melder meg ut av denne diskusjonen nå. Det blir bare sjeldent mindre givende enn dette...

Lenke til kommentar

Det blir litt søkt å vurdere spillbundler for å avgjøre hvilke skjermkort som er det beste kjøpet. Det er nok et mindretall som får stort utbytte av det, og de aller fleste hadde aldri kjøpt spillene ellers.

 

R9 390X er bare et svakt overklokket R9 290X. De som vurderer GTX 970 eller GTX 980 vurderer nok gode custom-versjoner, som f.eks. ASUS GeForce STRIX GTX 970 eller EVGA GeForce GTX 970 som er klokket så det slår R9 390X. For ~800 kr mindre enn R9 390X kan dere altså få et kort som er bedre på stort sett alle vis.

Lenke til kommentar

Det blir litt søkt å vurdere spillbundler for å avgjøre hvilke skjermkort som er det beste kjøpet. Det er nok et mindretall som får stort utbytte av det, og de aller fleste hadde aldri kjøpt spillene ellers.

 

R9 390X er bare et svakt overklokket R9 290X. De som vurderer GTX 970 eller GTX 980 vurderer nok gode custom-versjoner, som f.eks. ASUS GeForce STRIX GTX 970 eller EVGA GeForce GTX 970 som er klokket så det slår R9 390X. For ~800 kr mindre enn R9 390X kan dere altså få et kort som er bedre på stort sett alle vis.

 

Jeg er i utgangspunktet enig i at spillbundler ikke kan benyttes til å kåre en vinner ene veien eller andre. Men i enkelt tilfeller, så kan det jo være at det slår ut positivt i egen favør. Har du problemer med å velge, så kan en god bundle tippe det over i dens favør.

 

Men at du trekker inn GTX970 som et bedre kjøp en 390X sliter jeg litt med å være enig i. Det er mange forbehold som må taes da, og jeg synes det blir litt lite givende å stemple 970 som vinner grunnet performance per watt eller krone, hvis ytelsen ikke kan brukes til noe fornuftig. All den ekstra RAM'en til 390X gjør den bedre egnet til høyere oppløsninger. At du kan overklokke 970 til å vinne det meste i 1080p hjelper ikke meg når jeg skal logge 3000 timer i "Beyond Earth" i 1440p eller 4K. Eller i dette, riktignok også cherry plukkede eksempelet. Der en Asus GTX970 Strix ikke klarer mer enn ~40% av ytelsen til et stock GTX980! Og vi videre ser at til og med "blodtrimmede" både "Matrix Platinum" og "Gaming 4G" i GTX980 versjon må gi tapt for 390X i stock utførelse.

 

Poenget mitt har i grunnen hele tiden vært at det finnes tilfeller der 390X kan være et godt kjøp. Til tross for gammel arkitektur, og høyt strømforbruk så tukter den innimellom til og med disse overklokkede "bedre"skjermkortene. Og det til tross for en lavere pris, der billigste 390X for øyeblikket koster deg 4200Kr, så må du ut med minst 4800Kr for et GTX980.

 

Men også videre, når man så vil ha en skjerm med ARR så ser man at man kan få en 1440p eller 4K skjerm med freesync for 4000Kr. Skal du ha samme med G-sync må du ut med nesten 1400Kr til. Hvordan ser ytelse per krone forholdet ut da?

Lenke til kommentar

Sjekket prisen for det R9 390X. Det er tilgjengelig i en butikk til den prisen, og altså 400-500 kr billigere enn noe annet R9 390X du kan få tak i. Jeg ville derfor sagt at det kommer innenfor kategorien godt kjøp, og ikke standardpris. Spesielt her i Norge der vi ikke har glovarme somre, og lave strømpriser ville hvertfall jeg sagt at R9 390X er et bedre kjøp til 4200 kr, enn et GTX 980 til 4800 kr. Hvis det koster 4600 kr derimot, så har du 200 kr i forskjell.

 

Ellers så bare aviser du argumentet om 3. part kort. Selv om du linker utelukkende til 3. part kort, og til et Gigabyte kort som jeg brukte som eksempel tom. Grunnen er jo enkel. Det er det som selges. Jeg ser ikke hvordan du ikke kan ta dette med i beregningen, når det er så relevant?

 

Jeg synes det er helt greit å analysere resultater, og si at basert på HC sine resultater så har R9 390X en liten egde over GTX 980, pga likheten i avg fps, og at AMD er bedre på min fps. Likevel ser jeg ikke hvorfor en konklusjon skal analyseres. Konklusjonen er jo basert på en analyse. Den skal ikke analyseres igjen. Jeg synes det virker veldig som forsvar av siden å begynne å analysere resultatene og gjette seg frem til hva de sikkert egentlig mente. Hvis de mente det, da bør de skrive det. Jeg leser det utifra det de skriver, jeg prøver ikke å finne en forklaring på hvorfor de skrev det slik, når det ikke stemmer med grafene deres. De har listet opp at GTX 980 vinner de fleste testene. Hvis de ikke mener det, får de skrive hvorfor, og gjøre om listene sine.

 

Ellers er jo dette uansett innenfor feilmarginer, og det er lett å finne tester som sier at GTX 980 har en egde. Det er jo selvfølgelig irrelevant. Når du sammenligner det du kjøper, et Gigabyte R9 390X mot et Gigayte GTX 980 vil jo 980 ha en liten egde uansett. Uansett om ytelsen er lik kan ikke de 200 kronene forsvare det økte strømforbruket til R9 390X fremfor GTX 980. Jeg tror og du overdriver VRAM. NVIDIA har alltid hatt mindre VRAM enn AMD. AMD har selv 4 GB i sine toppkort, og sier det er uproblematisk. 4K vs 1440p viser heller ikke stor forskjell. 

 

Du har rett i at det kan ha noe å si for SLI/CF. Vi kan jo ta beyond earth som eksempel der du trenger SLI/CF for 60 fps avg. Der ser du tydelig at NVIDIA sine SLI profiler er langt bedre enn AMD. Til tross for at den taper mot Mantle R9 290X, så vinner den klart i SLI. Du har altså både mer VRAM og ineffektivitet med AMD. Beyond earth i 4K er altså best med 2 stk GTX 980, helt klart.

Lenke til kommentar

 

Det blir litt søkt å vurdere spillbundler for å avgjøre hvilke skjermkort som er det beste kjøpet. Det er nok et mindretall som får stort utbytte av det, og de aller fleste hadde aldri kjøpt spillene ellers.

 

R9 390X er bare et svakt overklokket R9 290X. De som vurderer GTX 970 eller GTX 980 vurderer nok gode custom-versjoner, som f.eks. ASUS GeForce STRIX GTX 970 eller EVGA GeForce GTX 970 som er klokket så det slår R9 390X. For ~800 kr mindre enn R9 390X kan dere altså få et kort som er bedre på stort sett alle vis.

Jeg er i utgangspunktet enig i at spillbundler ikke kan benyttes til å kåre en vinner ene veien eller andre. Men i enkelt tilfeller, så kan det jo være at det slår ut positivt i egen favør. Har du problemer med å velge, så kan en god bundle tippe det over i dens favør.

 

Men at du trekker inn GTX970 som et bedre kjøp en 390X sliter jeg litt med å være enig i. Det er mange forbehold som må taes da, og jeg synes det blir litt lite givende å stemple 970 som vinner grunnet performance per watt eller krone, hvis ytelsen ikke kan brukes til noe fornuftig. All den ekstra RAM'en til 390X gjør den bedre egnet til høyere oppløsninger. At du kan overklokke 970 til å vinne det meste i 1080p hjelper ikke meg når jeg skal logge 3000 timer i "Beyond Earth" i 1440p eller 4K. Eller i dette, riktignok også cherry plukkede eksempelet. Der en Asus GTX970 Strix ikke klarer mer enn ~40% av ytelsen til et stock GTX980! Og vi videre ser at til og med "blodtrimmede" både "Matrix Platinum" og "Gaming 4G" i GTX980 versjon må gi tapt for 390X i stock utførelse.

 

Du kan finplukke så mye du vil, men hvis du ser her så vil du forstå at et GTX 970 på ~1150 MHz har ingen problem mot R9 390X opp til og med 1440p. Først ved 4K drar R9 390X litt i fra, men ingen av disse skjermkortene er gode nok til tunge spill i 4K uansett så det er lite relevant. Endret av efikkan
Lenke til kommentar

Så på linken du sendte. R9 390X bruker nesten 90W med multi-monitor. Altså bare det å ha flere skjermer koblet til. GTX 980 bruker 9 W på det samme. Det er den samme historien for blue-ray. Idle forbruk til R9 390X ligger jo høyere enn multi-monitor forbruket til GTX 980 (!). R9 290X bruker "kun" 54W her.

 

Ellers så måler techpowerup ganske lave tall for NVIDIA. Techspot har relativt like verdier når det kommer til AMD, litt høyere. (dette er i Metro Last Light, altså samme spill). Likevel har techspot plasser R9 390X til omtrent det samme som R9 290X, mens techpowerup har det en del over. Forskjellen på NVIDIA mellom de to er jo rett og slett enorm.... 290W for techspot og 184W for techpowerup. 100 W er en ganske stor forskjell, spesielt når forskjellen på AMD er 38W for R9 290X.

 

Ellers viser jo både tek, og Gabri3L sin kilde at GTX 980 bruker betraktelig mindre strøm, i den størrelsesordenen techpowerup måler. Likevel er det kun de og tek som måler at R9 390X bruker mer strøm enn R9 290X. Tek målet jo åpenbart totalt strømforbruk når de klarer å få til over 500W for en R9 390X. Selv techpowerup klarte ikke å få høyere målinger enn 424W. De bruker jo alle forksjellige versjoner av R9 390X. Du får jo mindre ytelse per watt når du overklokker, så er jo mulig at MSI sin ekstra høye klokkefrekvens gir veldig økning i forbruk. Samtidig blir det jo en del varmere så kjøleren trenger jo mer strøm og.

 

Ellers er denne modellen:

http://www.techspot.com/review/892-his-r9-290x-hybrid-iceq/page8.html

Et godt eksempel for å vise hvorfor R9 390X nødvendigvis ikke er så bra som det ser ut i tester. Dette R9 290X kortet er raskere enn de fleste R9 390X kort. Det er raskere enn et GTX 980. Likevel faller det 4% bak G1 versjonen av et GTX 980. Selv ekstra høyt klokkede R9 390X slår altså ikke et helt standard fabrikkoverklokket GTX 980.

Lenke til kommentar

Uansett hva som blir skrevet og linket til her, så suger 290/290x i forhold til maxwellkorta 970/980/980ti.

 

At noen tenker på å vurdere 290/290x i stedenfor f.eks 970 er for meg en gåte :p

 

Min mening og mine erfaringer ✌

 

Kjenner det kribler etter å få testa Fury X skikkelig selv, så slipper jeg å lese om synsing. Harde fakta er det eneste som teller.

Endret av Nizzen
Lenke til kommentar

Irriterer meg litt at jeg må ha Win10 for å få DX12, men det tar vel votter og vinter får man får skikkelige DX12 spill på skikkelig DX12 hardware uansett :p

Jeg ser ingen ulemper med å oppgradere til windows 10? DX12 er bare en av mange oppgraderinger i windows 10. Ser ikke helt hvordan det fungerer å plukke ut oppdateringer som du vil ha og ikke. Det er ingen OS som er slik. Et OS er en pakke.

 

Det vil nok ta litt tid før vi får DX12 spill ja. 

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...