Gå til innhold

Vi ga testbenken noen 4K-spill å tygge på...


Anbefalte innlegg

Hvorfor snakker dere om at dere testet Nvidias kraftigste skjermkort på 4k....? Altså det kraftigste er Titan X. Med gjerne over 40%

 

Titan er ikke beregnet på dette segmentet! Det er beregnet for et helt annet marked, enn for oss forbrukere!

Lenke til kommentar
Videoannonse
Annonse

 

 

Blir ikke det litt flaut for nvidia, når en flere år gammel teknologi fra AMD ikke har noe problem med ytelsen til nvidia sin nye arkitektur?

Det er da ingen tvil om at GCN sliter mot Maxwell, og AMD sliter mot Nvidias mid-range-kort. Jeg kan ikke fatte hvordan du bygger et resonnement hvor dette skal være flaut for Nvidia, det er da en kjempeflause for AMD.

 

Så du vet hva 300 serien til AMD vil yte? Som ifølge deg er basert på en 3 års gammel teknologi! Du kan gjerne dele oss hva disse 300 kortene til AMD vil yte :) Om du ikke vil, så vente jeg gjerne til hva offentlige tester viser :) Som i følge deg vil være en stor flopp i ytelse, sammenligne med 900 serien til Nvidia!

 

Vi kjenner arkitekturen ganske godt, og vet hvordan effektforbruket begrenser skaleringen. R9 290X har bare 60% av ytelsen per watt som GTX 980Ti har.

Lenke til kommentar

 

 

 

Blir ikke det litt flaut for nvidia, når en flere år gammel teknologi fra AMD ikke har noe problem med ytelsen til nvidia sin nye arkitektur?

Det er da ingen tvil om at GCN sliter mot Maxwell, og AMD sliter mot Nvidias mid-range-kort. Jeg kan ikke fatte hvordan du bygger et resonnement hvor dette skal være flaut for Nvidia, det er da en kjempeflause for AMD.

 

Så du vet hva 300 serien til AMD vil yte? Som ifølge deg er basert på en 3 års gammel teknologi! Du kan gjerne dele oss hva disse 300 kortene til AMD vil yte :) Om du ikke vil, så vente jeg gjerne til hva offentlige tester viser :) Som i følge deg vil være en stor flopp i ytelse, sammenligne med 900 serien til Nvidia!

 

Vi kjenner arkitekturen ganske godt, og vet hvordan effektforbruket begrenser skaleringen. R9 290X har bare 60% av ytelsen per watt som GTX 980Ti har.

 

Våkn opp! Det er 300 serien vi snakker om her! 980Ti vil sikkert bli et knallkort :) Ikke sammenlign det med 200 serien^^ Det er ment til å kontre 300 serien til AMD :) Ta av deg nvidia brillene dine du^^

  • Liker 3
Lenke til kommentar

Informasjonen som foreligger tyder på at neste "generasjon" fra AMD kommer til å være rebrands/re-bins av eksisterende GCN-brikker helt opp til den varme toppmodellen som skal være samme arkitektur med HBM. Jeg skulle ønske at AMD hadde en ny arkitektur de kunne rulle ut, for det trenger de sårt. Men hvis det er bare mer GCN som har ~60% av ytelsen per watt som Maxwell så sier det seg selv at AMD er i en vanskelig konkurransesituasjon. Det hadde vært noe annet om det var noen få prosenter til eller fra, men her er det derimot snakk om en klasseforskjell. Når R9 290X(som blir kanskje "R9 380X"?) yter på nivå med GTX 970 men har et betydelig høyere energiforbruk enn GTX Titan X er det ille.

Lenke til kommentar

Informasjonen som foreligger tyder på at neste "generasjon" fra AMD kommer til å være rebrands/re-bins av eksisterende GCN-brikker helt opp til den varme toppmodellen som skal være samme arkitektur med HBM. Jeg skulle ønske at AMD hadde en ny arkitektur de kunne rulle ut, for det trenger de sårt. Men hvis det er bare mer GCN som har ~60% av ytelsen per watt som Maxwell så sier det seg selv at AMD er i en vanskelig konkurransesituasjon. Det hadde vært noe annet om det var noen få prosenter til eller fra, men her er det derimot snakk om en klasseforskjell. Når R9 290X(som blir kanskje "R9 380X"?) yter på nivå med GTX 970 men har et betydelig høyere energiforbruk enn GTX Titan X er det ille.

Det er ikke mye som skiller i watt når det gjelder 200 serien til AMD, og 900 serien til Nvidia, i følge masse tester! Nvidia sine kort trekker bare litt mindre strøm når vi ser på den totale strømforbruket i en PC! Men 900 serien skal ha honør for at dem produserer mindre varme :) Men hva 300 serien vil bringe, det kan ikke du fortelle oss nå! Det vil bli et åpent spørsmål frem til 300 serien til AMD vil bli lansert! De fleste som kjøper et grafikkort, har som regel et miditower^^ Hva er problemet om det skiller noen watt av den totale watten som blir produsert? De fleste har som regel en del å gå på! Jeg er sikker på at 300 serien ikke vil bli en flopp, ang hva nvidia har i disse dager! Så lenge viften er stille, så gir nok folken blaffen om den ene produseneten har et produkt som trekker litt mindre strøm! Det synes uansett ikke på strømregningen! Er vel de mest ivrige overklokkerne som er mest opptatt av varme!

Lenke til kommentar

 

Informasjonen som foreligger tyder på at neste "generasjon" fra AMD kommer til å være rebrands/re-bins av eksisterende GCN-brikker helt opp til den varme toppmodellen som skal være samme arkitektur med HBM. Jeg skulle ønske at AMD hadde en ny arkitektur de kunne rulle ut, for det trenger de sårt. Men hvis det er bare mer GCN som har ~60% av ytelsen per watt som Maxwell så sier det seg selv at AMD er i en vanskelig konkurransesituasjon. Det hadde vært noe annet om det var noen få prosenter til eller fra, men her er det derimot snakk om en klasseforskjell. Når R9 290X(som blir kanskje "R9 380X"?) yter på nivå med GTX 970 men har et betydelig høyere energiforbruk enn GTX Titan X er det ille.

Det er ikke mye som skiller i watt når det gjelder 200 serien til AMD, og 900 serien til Nvidia, i følge masse tester! Nvidia sine kort trekker bare litt mindre strøm når vi ser på den totale strømforbruket i en PC! Men 900 serien skal ha honør for at dem produserer mindre varme :) Men hva 300 serien vil bringe, det kan ikke du fortelle oss nå! Det vil bli et åpent spørsmål frem til 300 serien til AMD vil bli lansert! De fleste som kjøper et grafikkort, har som regel et miditower^^ Hva er problemet om det skiller noen watt av den totale watten som blir produsert? De fleste har som regel en del å gå på! Jeg er sikker på at 300 serien ikke vil bli en flopp, ang hva nvidia har i disse dager! Så lenge viften er stille, så gir nok folken blaffen om den ene produseneten har et produkt som trekker litt mindre strøm! Det synes uansett ikke på strømregningen! Er vel de mest ivrige overklokkerne som er mest opptatt av varme!

 

Nja, selv om jeg ikke er noen overklokker er jeg opptatt av varme. Jeg har datarom i loftsetasje, og på sommeren blir det ganske varmt, så jeg må tenke litt på det når jeg velger skjermkort.

Lenke til kommentar

Vet ikke hvordan dere har problemer med Metro: LL og Batman Origins, eller hvordan dere får så lave fps som i gjør, jeg testede på min egen 295x2 på et AMD FX System og jeg fik nesten det dobbelte i average. i noen av de tests i 4K Ultra.

Lenke til kommentar

Er det virkelig noen som bryr seg om ytelse pr. watt? Virker som en tåpelig unnskyldning for å se sin favoritt vinne.

Nå er jeg ingen fanboy, da jeg kjøper det jeg tjener mest på. Dersom jeg får mer ytelse pr. krone på bekostning av større strømforbruk, så velger jeg det. Strøm er ikke dyrt i Norge.

De som kjører 100x skjermkort bør tenke strømeffektivitet. For den vanlige mannen i gata som har nok med ett skjermkort, så kan man velge akkurat det man vil.

Endret av Unlikely
Lenke til kommentar

Er det virkelig noen som bryr seg om ytelse pr. watt? Virker som en tåpelig unnskyldning for å se sin favoritt vinne.

 

Nå er jeg ingen fanboy, da jeg kjøper det jeg tjener mest på. Dersom jeg får mer ytelse pr. krone på bekostning av større strømforbruk, så velger jeg det. Strøm er ikke dyrt i Norge.

 

De som kjører 100x skjermkort bør tenke strømeffektivitet. For den vanlige mannen i gata som har nok med ett skjermkort, så kan man velge akkurat det man vil.

Jeg bryr meg om det, men jeg er ikke noen fanboy av hverken nVidia eller AMD. Jeg har faktisk aldri hatt skjermkort fra nVidia. Det har seg sånn at når jeg har kjøpt meg skjermkort, har AMD/ATI hatt det beste skjermkortet etter mine kriterier i min prisklasse. De har gitt mest ytelse for pengene, og de har brukt minst strøm.

 

Som sagt over her, tenker jeg ikke på strømregninga, men jeg vil ikke ha unødig oppvarming av datarommet(tre stykk PC-er) på sommeren. På vinteren er det ikke noe problem. Mindre støy er en bonus også.

 

Ytelse/krone er selvfølgelig første tiebreaker, men hvis det ikke er en betydelig forskjell her, velger jeg alltid det som er mest stille og har lavest watt/effekt.

  • Liker 1
Lenke til kommentar

Strømforbruk er viktig, men ikke pga strømprisen - lavere forbruk gir kaldere kort og lavere støy, og gjør det mye enklere å evt. bruke SLI/crossfire. Kaldere kort har også lengre levetid og mindre slitasje, så det er mindre sannsynlighet for at kortet ryker. Det gir også lavere belastning på strømforsyningen, som gjør at den også holder lenger. Og dette er før man begynner å tenke på overklokking, som kan ha andre begrensninger enn bare temperatur og watt.

  • Liker 1
Lenke til kommentar

Skal jeg være ærlig skjønner jeg ikke at folk er obsessed med 4k gaming. Jeg kan skjønne det viss du spiller på en 50" skjerm, men en vanlig 24"+ er jo max overkill.

F.eks Gedosato, kan brukes til å downsample 3000x1600 til hva nå enn du har som skjermoppløsning.

Og det har i noen tilfeller mye høyere ytelse enn å kjøre AA tilsvarende.

Lenke til kommentar
Gjest Slettet-aNZFa3

 

Hvorfor snakker dere om at dere testet Nvidias kraftigste skjermkort på 4k....? Altså det kraftigste er Titan X. Med gjerne over 40%

Titan er ikke beregnet på dette segmentet! Det er beregnet for et helt annet marked, enn for oss forbrukere!

Nå er Titan korta lagd med samme kvalitet som Quadro og Tesla korta. Men som bruk til spillytelse og ikke CAD/clustering ytelse. Så det stemmer nok som du sier at dem ikke er for oss forbrukere. Men passer perfekt til spillutviklingsselskaper.
Lenke til kommentar

 

Informasjonen som foreligger tyder på at neste "generasjon" fra AMD kommer til å være rebrands/re-bins av eksisterende GCN-brikker helt opp til den varme toppmodellen som skal være samme arkitektur med HBM. Jeg skulle ønske at AMD hadde en ny arkitektur de kunne rulle ut, for det trenger de sårt. Men hvis det er bare mer GCN som har ~60% av ytelsen per watt som Maxwell så sier det seg selv at AMD er i en vanskelig konkurransesituasjon. Det hadde vært noe annet om det var noen få prosenter til eller fra, men her er det derimot snakk om en klasseforskjell. Når R9 290X(som blir kanskje "R9 380X"?) yter på nivå med GTX 970 men har et betydelig høyere energiforbruk enn GTX Titan X er det ille.

Det er ikke mye som skiller i watt når det gjelder 200 serien til AMD, og 900 serien til Nvidia, i følge masse tester! Nvidia sine kort trekker bare litt mindre strøm når vi ser på den totale strømforbruket i en PC! Men 900 serien skal ha honør for at dem produserer mindre varme :) Men hva 300 serien vil bringe, det kan ikke du fortelle oss nå! Det vil bli et åpent spørsmål frem til 300 serien til AMD vil bli lansert! De fleste som kjøper et grafikkort, har som regel et miditower^^ Hva er problemet om det skiller noen watt av den totale watten som blir produsert? De fleste har som regel en del å gå på! Jeg er sikker på at 300 serien ikke vil bli en flopp, ang hva nvidia har i disse dager! Så lenge viften er stille, så gir nok folken blaffen om den ene produseneten har et produkt som trekker litt mindre strøm! Det synes uansett ikke på strømregningen! Er vel de mest ivrige overklokkerne som er mest opptatt av varme!

 

Nei, det er stor forskjell i ytelse per watt, som du selv kan se her. Det er ikke bare energiforbruket eller strømregningen som er problemet, men snarere at AMD har langt mindre fleksibilitet. Når et GTX 970 yter bedre enn et R9 290X og bruker også betydelig mindre energi, så må AMD kompensere med lavere pris. R9 290X bruker også en større brikke som koster mer, som betyr at AMD vil operere med betydelig mindre marginer og vil mangle evne til å presse Nvidia.
Lenke til kommentar

så 2 stk 290x for prisen av en 980 vil gjøre susen.

 

eller hva med 4 stk 290x til prisen av en titan x. så lenge det første kortet er av 8GB modellen så vil jo dette gi ganske bra fart på sakene.

 

980ti har 97% av ytelsen til en Titan X og skal koste 35 % mindre, så egentlig poengløst å bruke til slike sammenligninger lenger. I tillegg hjelper det lite å ha ett kort med 8 GB RAM og resten med 4 GB, siden maks 4 GB da vil brukes i SLI/crossfire. Forresten koster 2x 290x fortsatt mer enn 1x GTX 980 (ikke-ti)

 

Beste kombinasjon for pris/ytelse/watt er flere stk. GTX 970, for mer stillegående og kaldere drift. Det vil også kreve mindre av strømforsyningen og kjøling av kabinettet generelt.

 

Eneste grunn til at jeg har 2x R9 290 nå er at jeg kjøpte dem før Maxwell kom ut, og jeg må bruke vannkjøling for at jeg skal få fornuftige temperaturer og bruk ut av dem. Jeg vil påstå at AMDs toppkort i dag ikke er konstruert for luftkjøling hvis du har mer enn ett kort i maskinen. Det krever enormt bra kjøling av kabinettet, du får veldig mye viftstøy og GPU-ene kommer til å "throttle" ned i hastighet fordi det blir for varmt.

Lenke til kommentar

Er det virkelig noen som bryr seg om ytelse pr. watt? Virker som en tåpelig unnskyldning for å se sin favoritt vinne.

 

Nå er jeg ingen fanboy, da jeg kjøper det jeg tjener mest på. Dersom jeg får mer ytelse pr. krone på bekostning av større strømforbruk, så velger jeg det. Strøm er ikke dyrt i Norge.

 

De som kjører 100x skjermkort bør tenke strømeffektivitet. For den vanlige mannen i gata som har nok med ett skjermkort, så kan man velge akkurat det man vil.

 

Jeg har mer enn nok penger å bruke på PC-utstyr, jeg misliker støy. Du kan prøve å gjette hva som er viktig for meg.

 

AtW

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...