Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

Hvilket grafikkort burde jeg velge ?


Anbefalte innlegg

Videoannonse
Annonse
Gjest Slettet-jDflNq

Han mente 7970 fordi det ikke har noen andre funksjoner og da finnes det ikke noen gode argumenter for å kjøpe det framfor 670 som koster omtrent det samme.

Lenke til kommentar

3GB VRAM er ikke noe mere nødvendig enn 2GB på 1 skjerm. Skal du kjøre 3 skjermer så kjøper du et av 4GB kortene til Nvidia da du burde ha minimum 1,25GB VRAM per 1920x1080 skjerm.

Det er ikke slik regnestykket fungerer i det hele tatt, en må utvide VRAM-kapasiteten med 200 - 400 MB per 1920x1080-skjerm (avhengig av spillet.)

BF3 krever omlag 1.5GB VRAM på Ultra settings i 1920x1080, i 5760x1080 er kravet rett over 2GB.

Det ga lite mening det du skreiv arni90, går ut i fra du mente det andre veien. Altså hva har 680 som ikke 7970 har? Isåfall

 

Physx

 

http://en.wikipedia...._in_video_games

 

Physx er elsk i de spillene som støtter det.

PhysX er bare søppel:

  • Det bidrar til å splitte markedet mellom AMD, Intel og Nvidia.
  • Det bidrar på ingen måte til gameplay, ingenting er merkeligere enn å se Batman gå gjennom 5 tonn murstein eller kaste en Batarang gjennom den samme haugen med murstein uten problemer.
  • Altfor mange implementeringer har blitt satt opp med en så fin nøyaktighet så CPU ikke skal kunne kjøre det så man "må" kjøpe et PhysX-kort.
  • Havok kan gjøre samme jobben og mer, og kjører på ren CPU-kraft. En kjerne på en nyere AMD-prosessor skal visstnok klare bortimot 200 000 partikler også, altså er det ingen god begrunnelse for å bruke PhysX.

Jeg kunne jo også pekt på at et 7970 strengt tatt har lettere for å aktivere SSAA enn 680, eller at 680 ikke har AAA ;)

Lenke til kommentar

Han mente 7970 fordi det ikke har noen andre funksjoner og da finnes det ikke noen gode argumenter for å kjøpe det framfor 670 som koster omtrent det samme.

Ikke?

Har det slått deg at et 7970 slår GTX 680 i 5760x1080?

Har det slått deg at et 660 Ti/670/680/690 ikke klarer å kjøre compute-shaderne brukt i Sniper Elite V2 eller Dirt Showdown på høyere innstillinger med akseptabel ytelse?

Har det slått deg at 50% mer minnebåndbredde kan hjelpe mye med MSAA og tunge compute-shadere i spill som Metro 2033 eller Crysis?

  • Liker 2
Lenke til kommentar

Helt uenige at physx er søppel, til AMD kommer med noe som faktisk blir implementert i spill så har de et handicap. Nvidia kjører FXAA & TXAA, TXAA er bedre en noe AMD har per dags dato.

Hva med å komme med argumenter som motbeviser påstanden min? Helst motargumenter som påpeker hva jeg har oversett eller tar feil på angående PhysX vs Havok. AMD (OpenCL, Havok) utvikler ikke lukkede løsninger som Nvidia (PhysX, CUDA) gjør, derfor kommer det heller ikke noe fra AMD som ikke kan kjøre på Nvidia-kort.

 

TXAA i The Secret World er mer uskarpt enn FXAA i samme spill, du kan få samme effekt ved å slenge på MLAA + FXAA + SMAA uten ytelsestapet. Ærlig talt er det fortsatt bare MSAA + TRSSAA som fungerer bra på Nvidia-kort, mens AMD kan kjøre 4xAdaptive AA + MLAA som ser bedre ut, eller 4x SGSSAA som ser enda bedre ut og ikke koster noe i skarphet. En annen svakhet med TXAA er at det krever dx11 + Nvidia-kort (uansett om AMDs kort er istand til å kjøre TXAA,) og at spillet må spesielt være kodet for å kjøre TXAA fra bunnen (altså vil aldri BF3 få TXAA.)

Lenke til kommentar

Poenget var vel at det er framtidsrettet med tanke på TXAA, trur ikke du tok det. Om det er åpen eller lukket løsning har lite å si for praktisk bruk og hvordan det er i dag. Jeg argumentere ikke for hva så er bedre eller dårligere, jeg sier hva status er i dag.

TXAA fremtidsrettet?

Vil påstå det er mer fremtidsrettet å kunne kjøre tunge compute-shadere som er tatt i bruk i Sniper Elite V2, Sleeping Dogs, og Dirt Showdown enn TXAA som hittil har vist seg å være en ekstremt dyr og utvasket utgave av FXAA.

 

Dessuten, innen TXAA blir aktuelt i 2013 vil 660 Ti være for svakt for å kjøre det takket være 24 ROPs og 144GB/s med minnebåndbredde.

Lenke til kommentar

3GB VRAM er ikke noe mere nødvendig enn 2GB på 1 skjerm. Skal du kjøre 3 skjermer så kjøper du et av 4GB kortene til Nvidia da du burde ha minimum 1,25GB VRAM per 1920x1080 skjerm.

 

Radeon HD 7850 koster en tusenlapp mindre. Har den ikke omrent samme ytelse som 660 Ti?

7850 ligger et godt stykke bak og kan ikke sammenlignes mtp pris. 7850 er et godt valg om du skal bruke en tusenlapp mindre.

 

Bare så det er sagt: Ett enkelt GTX 680, uansett minnestørrelse, holder ikke til kvalitetsgaming i 5760x1080. Faktisk langt i fra. Til det er GPUen for svak. Snakker vi om 2 x GTX 680 blir det fort mye dyrere enn 2 x HD 7970 selv om ytelsesforskjellen mellom disse er liten, litt her og der avhengig av spill.

 

Den lille forskjellen i FPS på 5-10 vil ikke legges merke til av vanlige folk dersom man kun bruker 60Hz-skjermer og kortene i gjennomsnitt leverer over 60 FPS. Se for eksempel her. Det skal sies at disse testene ble utført i en tid da AMD-driverne fortsatt ikke var modne, ytelsen har tatt seg opp betraktelig med de nyeste driverne. BF3 har alltid vært et nVIDIA-spill, men på 5760x1080 ser man at forskjellen mellom kortene minker når MSAA aktiveres. Dette kommer av at HD 7970 har større minnebåndbredde enn GTX 680. Minnebåndbredde øker ikke av større minnemengde, den forblir den samme. Kepler-kortene hemmes av den relativt lave minnebåndbredden (256-bit vs 384-bit på HD 7970), og effekten av denne svakheten styrkes ved høyere oppløsninger slik vi ser i eksempelet med BF3. I Skyrim ser vi at dette kommer til fordel for HD 7970 i 5760x1080 med Ultra settings og FXAA. Det samme ser man i Dirt3 og Metro 2033, Jeg ville helt klart ha valgt HD 7970 i denne situasjonen (noe jeg alt har gjort, XFX HD 7970 GHz Ed venter i posten :p ).

 

Uansett så er begge kortene i SLI/CF kraftige nok til å spille de fleste spill med grei FPS i 5760x1080. Prismessig kommer HD 7970 best ut, mye mer for penga enn GTX 680.

 

On-topic:

Trådstarter bør ta seg tid til å vurdere om han/hun virkelig trenger et så kraftig kort. Vi vet jok ikke en gang om han/hun skal spille med tre skjermer eller ikke. Videre bør det vurderes om PhysX, TXAA, compute power, SLI/CF osv. er nødvendig. Komplett har tilbud på ASUS GTX 670 DCII (non-TOP), som er så god som TOP-versjonen hvis du overklokker selv. Sapphire Radeon HD 7970 GHz er også et veldig bra kort med godt overklokkingspotensiale og lite støy.

Endret av Genius-Boy
Lenke til kommentar

GTX 680 2GB = bedre ytelse og dyrere og klarer bra til fremtid.

 

GIGABYTE 7970 3GB = du får 3GB bedre grafikk men den kan ikke slå gtx 680

Vennligst fortell hvilke grafikkfunksjoner et 7970 har som et 680 ikke har.

Kan du ikke slutte å poste piss?

 

kan du si om gtx 680 og 7970 hvilke grafikkfunskjoner ikke jeg vet???

 

du gir lite mening om physx, phsyx er ikke søppel. Gi andre god forklaring physx, vis de spør om det er nødvendig ha physx?

 

HER ER FORKLARING:

Nvidia:::::

AGEIA PhysX gi mer smooth grafikk slik disse, FOG, EXPLOSIONS, SMOKE, OOZING, FLUD

 

Det har ikke ATI skjermkort PhysX

 

 

jeg svarer på arni90 dette her:

 

Har det slått deg at et 7970 slår GTX 680 i 5760x1080? Har du testet det. 4k og 8k den er ikke utviklet ferdig. Geforce GTX 680 ligger mask oppløsning 2560 x 1600. GIGABYTE RADEON 7970 ligger mask oppløsning 2560 x 1600. vis det kommer 8k, jeg må vite hva som er forskjell? da må du ha 100 tommer tv, men ikke liten 30, 40 tommer den har 4k og 8k da ser ut som vanlig full hd. nye skjermkorte tar lang tid å lage for å støtter 4k og 8k. Det er ikke vits å ha 4k eller 8k gaming. kan du slutte å prate for mye tull og mye piss???????????????? :) :) :)

Endret av gandi89
Lenke til kommentar

kan du si om gtx 680 og 7970 hvilke grafikkfunskjoner ikke jeg vet???

Jeg har ikke teknisk innsikt i dette, men det skulle ikke overraske meg om det finnes enkelte OpenGL-utvidelser som ikke vil kjøre på et 680 (eller motsatt.)

du gir lite mening om physx, phsyx er ikke søppel. Gi andre god forklaring physx, vis de spør om det er nødvendig ha physx?

  1. PhysX bidrar til å splitte markedet mellom AMD, Intel og Nvidia.
  2. PhysX bidrar på ingen måte til gameplay, ingenting er merkeligere enn å se Batman gå gjennom 5 tonn murstein eller kaste en Batarang gjennom den samme haugen med murstein uten problemer, og så videre, det gir ingen innlevelse siden de elementene som behandles av PHysX har ingen innvirkning på verden.
  3. Altfor mange implementeringer har blitt satt opp med en så fin nøyaktighet så CPU ikke skal kunne kjøre det så man "må" kjøpe et PhysX-kort. PhysX er jo forøvrig elendig optimalisert sammenlignet mot Havok.
  4. Havok kan gjøre samme jobben, Havok kjører også på ren CPU-kraft, Havok har ikke et problem med å samarbeide med spillmotoren så elementene det regnes fysikk på faktisk har noe å si for gameplay (f. eks. i Red Guerrilla.) En kjerne på en nyere AMD-prosessor skal visstnok klare bortimot 200 000 partikler, altså er det ingen god begrunnelse for å bruke PhysX.

HER ER FORKLARING:

Nvidia:::::

AGEIA PhysX gi mer smooth grafikk slik disse, FOG, EXPLOSIONS, SMOKE, OOZING, FLUD

PhysX er et sett med ferdigkompilerte elementer (programmert i CUDA) som kan settes inn i spill. PhysX-elementene kan være flytende former (tåke, røyk, væsker,) eller faste former som stein. Det gir ingen påvirkning på gameplay i det hele tatt, og jeg har enda til gode å se et spill som kjører bedre når PhysX er aktivert (vanligvis krever PhysX enormt mye ressurser faktisk.)

Det har ikke ATI skjermkort PhysX

Nei, dette fordi CUDA kun fungerer på Nvidia-kort.

jeg svarer på arni90 dette her:

 

Har det slått deg at et 7970 slår GTX 680 i 5760x1080? Har du testet det. 4k og 8k den er ikke utviklet ferdig.

5760x1080 er ikke 4K, det er tre skjermer på 1920x1080.

4K og 8K er nok ferdigstilt jo.

Geforce GTX 680 ligger mask oppløsning 2560 x 1600. GIGABYTE RADEON 7970 ligger mask oppløsning 2560 x 1600.

Alle skjermkort med en displayport 1.2-port støtter 4K, dette burde du vite!

HD 7970 støtter maks 6x skjermer på 2560x1600 oppløsning forresten, det er totalt 7680x3200 eller ca 50% flere piksler enn 8K vil havne på. wops, en liten feil her, 6x skjermer på 2560x1600 vil gi litt mindre enn 75% av antall piksler en 8K-skjerm vil ha.

vis det kommer 8k, jeg må vite hva som er forskjell?

8K er dobbelt så høy oppløsning og fire ganger så mange piksler mot 4K.

4K er dobbelt så høy oppløsning og fire ganger så mange piksler som 1080p

da må du ha 100 tommer tv, men ikke liten 30, 40 tommer den har 4k og 8k da ser ut som vanlig full hd.

 

Nei, det må man ikke. Det er derimot meget sannsynlig at LCD-teknologi ikke vil klare dette og man må over på bedre varianter (les: OLED eller CRT.)

nye skjermkorte tar lang tid å lage for å støtter 4k og 8k. Det er ikke vits å ha 4k eller 8k gaming. kan du slutte å prate for mye tull og mye piss???????????????? :) :) :)

Dagens skjermkort fra AMD støtter 4K, Nvidia har jeg ingen anelse om for øyeblikket. 4K vil ikke være nok for å eliminere aliasing på en 24"-skjerm, og jeg tviler også på at 8K vil klare det, altså er det absolutt vits med 4K og 8K på en PC-skjerm.

 

Det er du som prater tull og piss når du ikke har den fjerneste anelse om hva du skriver om!

For fjerde gang: du skriver verre enn den typiske fjerdeklassingen, mange browsere har grammatikkkontroll og om dette blir for avansert vil jeg foreslå å sjekke postene dine med Word.

Endret av arni90
  • Liker 4
Lenke til kommentar

Mitt råd er å kjøpe ett 670 kort. Helst ett asus kort da den har en fabelaktig kjøler.

 

Det som er fremtidsrettet er å kjøpe ett nytt kort igjen om 3 år eller lignende ;)

Som det er nevt i tråden her, masse vram er ikke nødvendigvis en grunn til at det skal yte noe bedre.

Det eneste spillet jeg kan komme på hvor du vil kunne klare å bruke 2gb med ram på en vanlig skjerm (1920x1980) er skyrim, da med MASSE teksturmods. Og det er nok kanskje noe annet på kortet som drar det ned da enn vram.

 

Det jeg ville ha gjort var å ha kjøpt asus 670 og heller oppgradert når jeg følte at jeg trengte det. Du kan ikke forvente at det som kan yte på toppen idag vil gjøre det om 6 år. Det som er på top idag er midt på treet om 2 år =)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...