Gå til innhold

Her holder han AMDs nye stjerne


Anbefalte innlegg

Energieffektiviteten virker ikke noe særlig bedre enn nvidias forrige genrasjon om dette er på gtx980-nivå i ytelse. Men det er fint at det i det minste er bedre. Håper AMD klarer å få litt flere andeler, nvidia har ikke godt av å ha for mye av markedet, de finner på for mye tull med teknologier, AMD er mye flinkere med åpne varianter.

 

AtW

  • Liker 2
Lenke til kommentar
Videoannonse
Annonse

 

Er det noe poeng å ha 8 GB ram? Da jeg vil tro man drar kun nytte av 4k oppløsning ved Crossfire x.

Hvis man ikke vil ligge på 30-16 bilder i sekundet.

 

Er det forventet AMDs Mantle og Vulcan gi bedre ytelse en DX 12?

Da prisen muligens blir $250 i norge for 8 GB versjonen før skatt.

Kanskje rundt 2500 kr men det er egentlig ganske billig, sammenlignet mot GTX 980 som koster rundt 5000 kr ny.

I beste tilfellet kan man få GTX 980 til 3000 kr brukt.

 

Blir det feil å sammenligne mot XFX R9-390X 8GB eller AMD Fury x?

Eller blir de bedre på overklokking, men AMD RX 480 er best på ytelse\effektforbruk?

 

Lurer også om man bør ha skylake cpu, så har man FX8350\Sandybridge vil nye kortene gi dårligere ytelse i spill?

Mest grunnet 14-16 nm og arkitekturen trenger mere cpu kraft.

 

 

8 GB ram : VR ? En annen ting er at skjermkortene til Amd har lenge vist behov for mer minne enn Nvidia , noe av dette ligger trolig i driverne og optimaliseringer mens andre forbedringer kan trolig gjøre at man slipper fps drops som vi har sett i 4Gb kortene Fury / x i noen situasjoner.

 

I optimale settings vil disse kortene trolig greie 60 fps på de fleste spill i 1080p , kanskje til og med 1440p , vanskelig å si. For hvermansen som trolig ikke har 1440p vil det holde i massevis og det finnes også nå en del billige 1080p freesync skjermer.

 

Amd sin utvikling av Mantle ble adoptert i Micrososft sin DX12 sammen med en haug med andre forbedringer , (akkurat den biten er omdiskutert, men jeg personlig heller mot at det denne gangen var Amd sin implementasjon som inspirerte MS til å gjøre noe lignende ) Vulkan er en videreutvikling av dette og andre konsepter som gjør at man kan utnytte maskinvaren langt bedre.

 

Usikker på om du mener om kortene kan sammenlignes på arkitektur nivå? 

 

Når det gjelder cpu er det alltids lurt å sørge for at denne ikke blir en flaskehals. Trolig vil en god klokket i7 5xxx kunne gi den ytelsen man behøver avhengig av budsjett , men man vil trolig også greie seg fint uten HT med i5 cpu'ene så lenge de har grei hastighet og 4 kjerner.

 

Det ser derimot ut som vi nå kanskje kommer til å se langt mer utnyttelse av antall kjerner så det kan være at det er litt mer fremtidsrettet å investere i 4-6 kjerners minst nå om man skal kjøpe noe.

 

Amd sine cpu'er er ikke bra nok til å utnytte skjermkortene maximalt , Zen kan kanskje endre på dette men inntil den kommer i 8 kjerners utgave til slutten av året / Q1 2017 så er det Intel som gjelder. Personlig vil jeg trolig oppgradere selv til en Zen 12 eller 16 kjerners avhengig av pris og tilgjengelighet , uansett så er dette sent i 2017 for min del.

  • Liker 1
Lenke til kommentar

Men vet du hva som gjør stock R9 280x\FX 8350 gir mye tregere oppstart i bildekvaliteten?

Da bildene blir litt grovkornet i første minuttene før det blir bedre. F.eks i ark survival evolved eller Thef, deus ex human revolution. Vil anta enten GPU\Cpu er problemet.

 

Vil 8 GB minne gjøre f.eks skyrim kan laste flere mods. til GPU og ungå detalj problemene?

Da jeg vet en del spill fjerner detaljer, antakelig på grunn av ram, detaljene er mere des nærmere man er et objekt.

Men mangler funksjoner f.eks å få en stein å bli mindre på avstand trær blir ikke synlig på lang avstand etc, f.eks blir den borte på avstand ikke mindre. Du kan vel se et tre på 100-500 meter avstand hvis det er fri sikt, men det kan man ofte ikke se i et spill.

En del spill har grafiske feil som gjør det mulig i starten av spillet  å gå gjennom steiner, og bli låst fast i steinene f.eks ark.

 

Sammenlingnet mot i7 970 @ 3.5 Ghz og Titan.

Eller i7 2600k @ 3.7 Ghz.

 

Da AMD cpuer overklokkes dårlig vertfall med mitt hovedkort.

Endret av LMH1
Lenke til kommentar

Du får nok bedre nytte av GTX 1080 i så fall.

Crossfire er muligens ikke optimalt på lga 1151.

 

Tror du bør ha hypertreading eller overklokke cpuen en del før du vurder \SLI\Crossfire i så fall.

Fant lite tester på det, men sies sokkel 2011-3 har bedre pci-e lans som gjør SLI\Crossfire bedre egnet.

Cpuene har fler kjerner\tråder som muligens hjelper litt i SLI (DX12\Vulcan) som blir fremtiden.

Lenke til kommentar

*snip*

Har egentlig aldri helt skjønt hva som er så spennende med CPUer og grafikkort som krever enormt med strøm for at de skal yte maksimalt. Er langt mer interessant når fokuset er å få mest mulig datakraft ut av minst mulig, synes jeg.

Bare fordi du bryr deg om antall w som trekkes fra veggen, så betyr det da ikke at alle andre bryr seg?

 

Hadde gjerne tatt ett kort til samme pris som hadde 3x ytelsen og dro 450W :)

 

Han mistet den også i bakken da LTT fikk se kortet før alle andre.

Gulvet, kanskje? :p

De var tross alt innendørs

  • Liker 1
Lenke til kommentar

AMD RX 480 er fint kort om sommeren da varmen kan være 25-30 grader innendørs.

Dette kortet er fint som mellomkort der man skal se på film\spille men ikke trenger særlig god ytelse.

Selv tror jeg ikke kommer å bruke kortet lenge til jeg kjøper noe nytt, hadde vært gøy med R9 490x.

 

Fint hvis man har hytte, eller ikke trenger høy ytelse.

Lenke til kommentar

Men vet du hva som gjør stock R9 280x\FX 8350 gir mye tregere oppstart i bildekvaliteten?

Da bildene blir litt grovkornet i første minuttene før det blir bedre. F.eks i ark survival evolved eller Thef, deus ex human revolution. Vil anta enten GPU\Cpu er problemet.

 

Vil 8 GB minne gjøre f.eks skyrim kan laste flere mods. til GPU og ungå detalj problemene?

Da jeg vet en del spill fjerner detaljer, antakelig på grunn av ram, detaljene er mere des nærmere man er et objekt.

Men mangler funksjoner f.eks å få en stein å bli mindre på avstand trær blir ikke synlig på lang avstand etc, f.eks blir den borte på avstand ikke mindre. Du kan vel se et tre på 100-500 meter avstand hvis det er fri sikt, men det kan man ofte ikke se i et spill.

En del spill har grafiske feil som gjør det mulig i starten av spillet  å gå gjennom steiner, og bli låst fast i steinene f.eks ark.

 

Sammenlingnet mot i7 970 @ 3.5 Ghz og Titan.

Eller i7 2600k @ 3.7 Ghz.

 

Da AMD cpuer overklokkes dårlig vertfall med mitt hovedkort.

 

Du sier altså at du opplever dårlig bildekvalitet ved starten av et spill men dette blir så bedre senere?

Har aldri opplevd noe sånt selv og sitter jo på 280 / FX 8350 selv her. Har du renset driverne i det siste? DDU fjern og legg inn på nytt.

 

8GB i skyrim vil hjelpe, mer systemminne vil også hjelpe (litt usikker på skyrim da det er lenge siden jeg spilte ) og om jeg ikke husker helt feil så favoriserer Skyrim Nvidia fremfor Amd så noen finpuss i de grafiske justeringene må til for å få utnyttet Amd kortet helt ut.

 

De grafiske feilene du nevner skjer også på andre spill uavhengig av skjermkort. Dårlig programmering / physic antar jeg.

  • Liker 1
Lenke til kommentar

 

Har aldri opplevd noe sånt selv og sitter jo på 280 / FX 8350 selv her. Har du renset driverne i det siste? DU fjern og legg inn på nytt.

Prøvde det men hjelper dårlig.

 

Vet ikke  om det kan ha noe med hotfixen?

Crimson Edition 16.5.3 Hotfix

 

Da den installere man først:

Crimson Edition 16.3.2

Lenke til kommentar

Kult at de viser til CF oppsett som (angivelig) kan yte bedre enn singel nvidia kort og koste mindre.

Single GPU er for noobs  :ph34r: Og etter de siste årene med strømsultne og varme skjermkort har vi alle godt med effekt i PSU og god kjøling. 

Vil si single GPU er for de som er fornuftig, late eller hater driverproblemer.

Selv om det kanskje er for nybegynnere også.

  • Liker 1
Lenke til kommentar

Hvordan yter dette kortet sammenlignet med HD7950? Vil det f.eks kunne dra kommende Battlefield på høy kvalitet eller andre krevende spill?

Sammenlignet HD 7950?

Det er kort som burde være utgått for flere år siden.

Dette kortet er nok nærme GTX 980, kanskje 980 TI hvis man er heldig.

Eller R9 390 i bestefall 390x eller noe slik.

 

Det burde klare battlefield ja usikker på hvilken FPS\oppløsninger.

Regn ut ca hva 390x\GTX 980 klarer så er nok det ganske nærme.

Lenke til kommentar

Ingen andre som reagerer på at dette kortet har samme TDP som 1070?

 

Det betyr jo i praksis at de egentlig ikke har gjort noe særlig for å senke strømforbruket fra R9 290/X/390/X. De har bare gått fra 28nm til 14nm og dermed fått en halvering slik jeg ser det. 

 

Forøvrig en fin pris på disse kortene da. Det vil i det minste skape konkurranse i mellomsegmentet med GTX 1060.

  • Liker 1
Lenke til kommentar

ENDELIG krymping fra steingamle 28nm. Hvor mange år har vi ventet på det nå? 28nm var i hvert fall på irriterende overtid når jeg kjøpte grafikkort sist, i 2013. Alle disse årene har de påstått at neida det er ingen vits å vente. Nå ser vi sikkert at det var vits likevel med 1,7x mer ytelse/watt på bare krympingen og mer vil det komme når de lanserer modeller med HBM og 250+ Watt. Forøvrig imponerende lav pris til å være en toppmodell. Kanskje dette blir min aller første toppmodell? Jeg satser jo normalt på mye ytelse for pengene og skyr unna 200+ watt-kortene. Vel, jeg skal i hvert fall lese tester før jeg bestemmer meg.

 

Edit: "Kjerne- og ytelsefrekvens er ikke kjent ennå" hehe - gikk det litt fort i svingene? :p

Endret av Simen1
  • Liker 1
Lenke til kommentar

 

Gjør litt research før dere skriver noe.

 

I følge arstechnia som postet informasjon om dette kort for 4 timer siden, så vil kortet koste 160$ for 4GB versjonen og 200$ for 8GB versjonen. Dette er jo US sine priser, og de norske prisene kommer til å ligge på rundt 200$ for 4GB versjonen hvis jeg ikke tar feil.

 

Dette kortet skal ha samme/bedre ytelse enn 980, Hvis du kjøper 2 så skal det ligge på rundt samme ytelse som 1070, på grunn av ny teknologi som forbedrer ytelsen ved å ta i bruk 2 kort på en nyttig måte. Som for eksempel VR, der 1 kort kan ha ansvar for 1 øye, og det andre kortet for det andre øyet. Dette gjør at ytelsen for VR blir mye bedre. Dette er mye dyrere med Nvidia fordi korta dems koster såpass mye, og derfor mister de ytelse innen VR.

 

Her er det nok du som har bommet litt.

Ars oppgir sine priser i pund, mens vi oppgir prisen i dollar.

 

(Gjør litt research før du kritiserer noen ;)

 

Ah, jeg som så litt feil der ;)

Lenke til kommentar

Rundt 2000 kr for et kort med ytelse mellom 970 og 980 må jo være et røverkjøp. Ser frem til bekreftelse av både pris og ytelse.

Frykter problemet blir det blir umulig å få tak i AMD RX 480 før høsten.

 

Man ser på GTX 1080 founder edition vanskelig å finne en butikk som har den på lager.

Lenke til kommentar

Du får nok bedre nytte av GTX 1080 i så fall.

Crossfire er muligens ikke optimalt på lga 1151.

 

Tror du bør ha hypertreading eller overklokke cpuen en del før du vurder \SLI\Crossfire i så fall.

Fant lite tester på det, men sies sokkel 2011-3 har bedre pci-e lans som gjør SLI\Crossfire bedre egnet.

Cpuene har fler kjerner\tråder som muligens hjelper litt i SLI (DX12\Vulcan) som blir fremtiden.

Man vil ikke ha noe problem med CF på lga 1151. Triple CF går nok greit det og, men da vil man kunne ha noen prosent tap i ytelse.

http://www.techpowerup.com/reviews/Intel/Ivy_Bridge_PCI-Express_Scaling/23.html

Riktignok ikke like raske kort, men er i alle fall ikke noe problem med 8x pcie 3.0. 

Lenke til kommentar

ENDELIG krymping fra steingamle 28nm. Hvor mange år har vi ventet på det nå? 28nm var i hvert fall på irriterende overtid når jeg kjøpte grafikkort sist, i 2013. Alle disse årene har de påstått at neida det er ingen vits å vente. Nå ser vi sikkert at det var vits likevel med 1,7x mer ytelse/watt på bare krympingen og mer vil det komme når de lanserer modeller med HBM og 250+ Watt. Forøvrig imponerende lav pris til å være en toppmodell. Kanskje dette blir min aller første toppmodell? Jeg satser jo normalt på mye ytelse for pengene og skyr unna 200+ watt-kortene. Vel, jeg skal i hvert fall lese tester før jeg bestemmer meg.

Syns AMD burde prioritere laptop cpu, lenge siden ATI Radeon HD 5450 MXM så dagens lys.

Der får man mere nytte av lav nm. Stasjonær er ikke strømbruken særlig problem.

Ikke det er dumt AMD RX 480 kommer, men laptopen vil ha mere glede av bedre ytelse.

 

Laptop gpu er så dyre, så klarer de å lage skjermkort f.eks AMD RX 480M

$_1.JPG

Skal jeg med glede kjøpe det til under 3000 kr.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...