Gå til innhold

Geforce GTX 9xx Tråden


Anbefalte innlegg

Videoannonse
Annonse

Det ville i så fall vært "11 GB". :) (1 GB - minnebrikker) Med mindre de har gått helt over styr med 24 minnebrikker på ett kort.

 

Det er ikke umulig de gjør det, for det første Titan-kortet var også en noe nedskalert versjon. Og med 11 GB med raskt minne og 384-bit minnebuss så har man mye å gå på, så det påvirker nok ikke entusiaster flest. Et naturlig valg for å holde en liten distanse til server-versjonene/"super-high-end" som kommer på et senere tidspunkt.

 

Ja, for å være ærlig så håper jeg de gjør det. Potensielt "billigere" kort, og mulighet for at de faller raskere i pris. Heller det enn at de kutter for dypt i CUDA-cores, som vel passer spillere og foldere best. :)

Endret av Andrull
Lenke til kommentar

Det ville i så fall vært "11 GB". :) (1 GB - minnebrikker) Med mindre de har gått helt over styr med 24 minnebrikker på ett kort.

Man vet vel ikke helt med Nvidia om dagen hva de putter i kortene sine :p

Kan jo være at vi ender opp med 6GB rask VRAM og 6GB av den trege typen.

Lenke til kommentar

 

Det ville i så fall vært "11 GB". :) (1 GB - minnebrikker) Med mindre de har gått helt over styr med 24 minnebrikker på ett kort.

Man vet vel ikke helt med Nvidia om dagen hva de putter i kortene sine :p

Kan jo være at vi ender opp med 6GB rask VRAM og 6GB av den trege typen.

 

Det er interessant nok (selv om det sikker er spøk) at jeg nevner det.

Det ville som DuraN også var inne på, gjort at du i praksis nært kuttet bort halve kjernen.

 

Noe som på økonomisk standpunkt ville vært idiotisk, ettersom du får minimal utnyttelse av Waferen, dårlig effektivitet og vanvittig ubalansert kort.

 

Kort sagt: Ikke mulig. GTX 970 var et sjakktrekk, og et eksempel på maxwell sine styrker. Og da snakker jeg ikke om at Nvidia holdt det under lokk, men at de fant måter på å øke balansere og potensielt utnytte waferen bedre.

 

Hadde de vært åpne om det så ville det også vært til kundens beste. Men etter prisen å dømme, og hvor lite forståelsefulle de fleste spillere er, så er det nok mange som egentlig har vært tjent på å ikke vite det.

Endret av Andrull
Lenke til kommentar

For mainstream spilere som spiller i 1080P så har det jo absolutt ingenting å si om det er 3,5GB eller 4GB. Tok en test på BF4 for å se om klokken på skjermkortet var stabil å cranka absolutt alt på maks Ultra setting og 200% resolution scale å skjermkortet mitt brukte kun 3,3GB Vram.

 

Edit: Hvilken oppløsning blir det egentlig på 200% resolution scale når man har 1080P monitor?

100% er jo 1080P å øker du det med 100% så blir det 4K? Eller er jeg helt på bærtur her nå?

Endret av KimWhinesAlot
Lenke til kommentar

tester 5k på 4 x 980 om ikke lenge. spent på om det "holder" i FC4 og Unity f.eks..

 

Battlefield 4 har jo blitt rene pusespillet i forhold til disse titlene.

Hardline, still beta men enkelt och gratis att testa med är en bra test.

 

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Battlefield_Hardline_Beta_2-test-vram.jpg

Edit: Beta closed.

Endret av mackanz
Lenke til kommentar

 

Så irriterende som det er, så har jeg ikke merket stort av dette minnemengde problemet til 970, men det kan jo ha noe med at jeg spiller bare på 1080p. Yter godt i spillene jeg spiller utenom CS GO av en eller annen grunn. Noen som vet om en god driver for CS GO? Har litt stuttering i det spillet.

 

Ellers overklokker skjermkortet kjempebra. Har hittil bare testet 200+ på GPU og 350+ på minnet og det går så det griner.

 

har du på v sync i cs go ?

 

Er det noen som V-syncer i CS? :p Neida, jeg vsyncer aldri, spesielt ikke cs. Ellers funker kortet fett! Er nok bare en dårlig driver for cs. Yter som det skal i andre spill som BF4/arma etc. Har også helt ok 3dmark score for min maskinvare.

Lenke til kommentar

 

 

Så irriterende som det er, så har jeg ikke merket stort av dette minnemengde problemet til 970, men det kan jo ha noe med at jeg spiller bare på 1080p. Yter godt i spillene jeg spiller utenom CS GO av en eller annen grunn. Noen som vet om en god driver for CS GO? Har litt stuttering i det spillet.

 

Ellers overklokker skjermkortet kjempebra. Har hittil bare testet 200+ på GPU og 350+ på minnet og det går så det griner.

 

har du på v sync i cs go ?

 

Er det noen som V-syncer i CS? :p Neida, jeg vsyncer aldri, spesielt ikke cs. Ellers funker kortet fett! Er nok bare en dårlig driver for cs. Yter som det skal i andre spill som BF4/arma etc. Har også helt ok 3dmark score for min maskinvare.

 

 

var nettopp derfor jeg spurte. for setter jeg på v sync i cs for jeg stutter og tearing. så kjører uten v sync der. men jeg bruker dog v sync med hell i fleste andre spill

Lenke til kommentar

 

 

 

980 G1 synker i spenning over tid, samme gjør klokk, temp er ca 70¤C.

 

Plagsomt, noen fiks? Kanskje like greit og hive stock bios vekk :p

Throttler.

 

 

Som sagt: Få dritten på vann :D

 

Fakka kort jo^^

 

Får vel flashe da og se om det hjelper :wee:

 

`Vil bli dyrt om begge korta skal på vann :ph34r:

 

 

Hvis kortet throttler, så kunne du jo like greitt hatt gtx 970 :tease:

Lenke til kommentar

Det ene G1 kortet tar helt av på F@H: 384127 Points per day. Dette kjører på 1558mhz, og har gjort det i natt og i dag. Enn så lenge er det stabilt.

 

Cpu er jo elendig å folde med. 4 cores gir jo nesten ingen poeng :p

Cpu er elendig ja, bruker mer strøm for den lille ekstra PPD`en, er ikke verdt det :p

 

Men kan brukes som stabilitets test!

 

Når du klokker minnet til 2000Mhz, kjører det på 2Ghz under Fah? Hos meg klokker det ned til 1500Mhz :p

 

Hvis kortet throttler, så kunne du jo like greitt hatt gtx 970 :tease:

 

970.... Næh. Får si meg greit fornøyd til 1500/2000Mhz som 24/7 Oc, skal til og flashe og se om det hjelper.

 

Om jeg er ``Gal`` nok til og legge de på vann? Hvor mange ekstra mhz ser vi på? 100?

Endret av Snusmumr1kk1
Lenke til kommentar

For mainstream spilere som spiller i 1080P så har det jo absolutt ingenting å si om det er 3,5GB eller 4GB. Tok en test på BF4 for å se om klokken på skjermkortet var stabil å cranka absolutt alt på maks Ultra setting og 200% resolution scale å skjermkortet mitt brukte kun 3,3GB Vram.

 

Edit: Hvilken oppløsning blir det egentlig på 200% resolution scale når man har 1080P monitor?

100% er jo 1080P å øker du det med 100% så blir det 4K? Eller er jeg helt på bærtur her nå?

Helt rett. 200% på 1080p er 4K ja (UHF

UHD). Men man skal man passe seg for hva spillet krever og hva det dynamisk skalerer opp mot. Dog 3.3 GB er nok ikke langt fra sannheten. Med 3GB så klarer jeg meg så vidt på BF4 ved 4K Renderoppløsning. Ligger på rundt 2,9-3GB og høyere så blir det store FPS fall.

Lenke til kommentar

Klarar Nvidia av 5k nu? Det gör/gjorde det inte med 970 eller 980.

GM204 støtter opptil 5120x3200 i 60 Hz (s. 12)

 

Den er ikke på "bare" 11,5GB VRAM da? :p

Nei, og GTX 970 har sine fulle 4 GB fremdeles.

 

 

12GB minne trengs for å game på 5K.

 

DELL 5K skjermen er noe av det drøyeste jeg har sett på lenge. me waaaant.

:ph34r:

Njaaaa, i dag så holder det nok i massevis med 6 GB på 5K, men det er nå mitt estimat.

Ja, 3x 1440p (75% av 5K) holder det akkurat ikke med 3GB, og 4GB går til nød innenfor.

 

Meeen, historisk sett så holder jo Titan et par år, og om man går tom for 6 GB ved 5K før den tid kan jo hende. :) Da kjører man selvsagt MINST 3-4 Titan II vel og merke.

 

Slik spill er implementert i dag skulle 6 GB være mer enn tilstrekkelig for GM200.

 

GPU-minneforbruk fordeles på følgende måte:

1) Slutt-framebuffer - konstant størrelse avhengig av oppløsning og AA. Hele bufferen blir brukt til skriving for hvert bilde. For f.eks. 5k 4xMSAA blir 384 MB

2) Midlertidige bufre - brukt til refleksjoner, bølger på vannoverflater, skygger, og teksturer for søle og blodsprut. Kan variere under bruk, men veldig flittig brukt.

3) Objekter og landskap - I de fleste spill* konstant med en gitt innstilling, men bruken er direkte avhengig av hva som tegnes på skjermen. F.eks. i landskap eller komplette brett blir bare små utsnitt brukt om gangen.

(* Noen få spill bytter ut data underveis, f.eks. Rage, men dette er ennå unntaket.)

 

Vi antar vel at GM200 får 336 GB/s i minnebåndbredde, men det betyr ikke at vi kommer til å bruke 12 GB i hvert bilde. Under tegning av bilde er det "fragment shader"/"pixel shader" som er mest minneintenst, og det er vel rimelig å annta at dette utgjør under 80% av tegningen av ett enkelt bilde. Selv i fragment-steget brukes ikke minnet 100% effektivt, så total utnyttelse av båndbredden blir nok langt under 70%, (rundt 50% eller lavere mener jeg er normalt). Men la oss være optimistiske for et øyeblikk og anta 70% effektivitet, dvs. ved 6 GB som skal leses vil det aldri tillate mer enn ~39 FPS per GPU. Poenget mitt er at ved en så smal minnebuss har ikke et enormt minne nytteverdi per bilde, men snarere til å lagre et større landskap.

 

Jeg vil derfor argumentere for at et delt minne-pool som GTX 970 er slettes ingen dårlig idé, med 3-4 GB raskt minne og en større buffer med tregere minne. Med godt tilpassede drivere kan dette bli helt transparent for brukeren, og bli helt perfekt med API-funksjonalitet hvor spill kan angi når data trengs. En enkel LRU-algoritme vil gjøre susen.

 

Det ville i så fall vært "11 GB". :) (1 GB - minnebrikker) Med mindre de har gått helt over styr med 24 minnebrikker på ett kort.

 

Det er ikke umulig de gjør det, for det første Titan-kortet var også en noe nedskalert versjon. Og med 11 GB med raskt minne og 384-bit minnebuss så har man mye å gå på, så det påvirker nok ikke entusiaster flest. Et naturlig valg for å holde en liten distanse til server-versjonene/"super-high-end" som kommer på et senere tidspunkt.

 

Ja, for å være ærlig så håper jeg de gjør det. Potensielt "billigere" kort, og mulighet for at de faller raskere i pris. Heller det enn at de kutter for dypt i CUDA-cores, som vel passer spillere og foldere best. :)

Rent teoretisk kan de få til det de vil. F.eks. GTX Titan Black hadde 24 minnebrikker.

 

Jeg har forøvrig laget en liten oversikt over et knippe GPUer og minnekonfigurasjoner som du kan ta en titt på: (si ifra om dere finner feil)

post-63307-0-24258600-1423597112_thumb.png

Legg merke til GTX 780Ti mot GTX Titan Black som har samme brikke men med dobbelt så mange minnebrikker. Det betyr altså at to minnebrikker deler båndbredden som 780Ti har på én brikke. Det betyr også at GPUen kan være uheldig med plassering av data som gjør at Titan i verste fall må vente mer enn 780Ti dersom data er plassert på samme kontroller. Dette er nok grunnen til at Nvidia valgte å dele minnet i to pools på GTX 970 og heller legge til logikk i driveren for å utnytte dette optimalt. Hadde Nvidia valgt den gamle løsningen ville altså GTX 970 hatt jevnt lavere minneytelse og minneytelse kunne blitt et større problem for alle. I stedet valgte de å prioritere full ytelse på så mye av minnet som mulig, men tabbet seg ut på algoritmen som skal flytte om på data. Når det er fikset er det ingen grunn til å kritisere GTX 970 for spillbruk lenger.

 

 

 

Det ville i så fall vært "11 GB". :) (1 GB - minnebrikker) Med mindre de har gått helt over styr med 24 minnebrikker på ett kort.

Man vet vel ikke helt med Nvidia om dagen hva de putter i kortene sine :p

Kan jo være at vi ender opp med 6GB rask VRAM og 6GB av den trege typen.

 

Det er interessant nok (selv om det sikker er spøk) at jeg nevner det.

Det ville som DuraN også var inne på, gjort at du i praksis nært kuttet bort halve kjernen.

 

Noe som på økonomisk standpunkt ville vært idiotisk, ettersom du får minimal utnyttelse av Waferen, dårlig effektivitet og vanvittig ubalansert kort.

 

Kort sagt: Ikke mulig. GTX 970 var et sjakktrekk, og et eksempel på maxwell sine styrker. Og da snakker jeg ikke om at Nvidia holdt det under lokk, men at de fant måter på å øke balansere og potensielt utnytte waferen bedre.

 

Hadde de vært åpne om det så ville det også vært til kundens beste. Men etter prisen å dømme, og hvor lite forståelsefulle de fleste spillere er, så er det nok mange som egentlig har vært tjent på å ikke vite det.

 

(i fortsettelse på det over)

Jeg forstår ikke hvorfor noe måtte kuttes bort?

For spillbruk hadde kanskje 6 GB raskt + 6 GB tregt minne med god driver vært en god idé.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...