Evil-Duck Skrevet 26. september 2014 Del Skrevet 26. september 2014 (endret) Jeg får rundt 12 000 poeng med 980 x2 på stock clock (SLI er aktivert i Nvidia kontroll panelet).... Noe som ikke stemmer. Får helder ikke overclocket CPUen da Asus hovedkorte sende meg rett til "overclock failed" skjermen ved bootup, uansett hvor lite jeg har clocket. Vært en problemfylt build hele denne PCen... Det er noe merkelig med vanlig FireStrike. Laster ikke kortene skikkelig i SLI. Sliter med det samme med 780Ti Classy på faseriggen. Kjør Extreme istedet Fikk ordnet det, var Asus Swift monitoren som skapte problemer av en eller annen grunn. Når jeg kjørte testen på en 1080P standard LG monitor ble scoren en helt annen http://www.3dmark.com/3dm/4160499? Sliter dog med at jeg ikke får vertifisert scoren når jeg kjører extreme testen av en eller annen grunn, etter hva jeg har lest så tyder det på at clocken min er ustabil, noe som en halltime i Prime95 for CPUen sin del motbeviser, samt en god stund i furmark for GPU klokken. Så jeg vet ikke helt... Her er vertfall scoren i Extreme http://www.3dmark.com/fs/2828339 Edit : Og 3dmark insisterer og på at jeg har en 5960X CPU, når jeg "bare" har en 5930K. Endret 26. september 2014 av Evil-Duck Lenke til kommentar
DuraN Skrevet 26. september 2014 Del Skrevet 26. september 2014 Jeg får rundt 12 000 poeng med 980 x2 på stock clock (SLI er aktivert i Nvidia kontroll panelet).... Noe som ikke stemmer. Får helder ikke overclocket CPUen da Asus hovedkorte sende meg rett til "overclock failed" skjermen ved bootup, uansett hvor lite jeg har clocket. Vært en problemfylt build hele denne PCen... Det er noe merkelig med vanlig FireStrike. Laster ikke kortene skikkelig i SLI. Sliter med det samme med 780Ti Classy på faseriggen. Kjør Extreme istedet Fikk ordnet det, var Asus Swift monitoren som skapte problemer av en eller annen grunn. Når jeg kjørte testen på en 1080P standard LG monitor ble scoren en helt annen http://www.3dmark.com/3dm/4160499? Sliter dog med at jeg ikke får vertifisert scoren når jeg kjører extreme testen av en eller annen grunn, etter hva jeg har lest så tyder det på at clocken min er ustabil, noe som en halltime i Prime95 for CPUen sin del motbeviser, samt en god stund i furmark for GPU klokken. Så jeg vet ikke helt... Her er vertfall scoren i Extreme http://www.3dmark.com/fs/2828339 Edit : Og 3dmark insisterer og på at jeg har en 5960X CPU, når jeg "bare" har en 5930K. Hah da så. Hadde aldri i verden tenkt på at det kunne være Swift-skjermen. Lenke til kommentar
SWAT dude... Skrevet 26. september 2014 Del Skrevet 26. september 2014 Lurer på om jeg kan ha samme problemet på min 1440 skjerm. Jeg får betydelig høyere last på kortene i 3dmark 11 enn i FireStrike, uavhengie av hvorvidt jeg kjører extreme eller ikke. Sliter også med at usage dropper under extreme og hakking i det kameravinkelen endres. Lenke til kommentar
DuraN Skrevet 26. september 2014 Del Skrevet 26. september 2014 Har bencha mye på 1440p-skjermen min (QNIX) og hadde aldri problemer. Loada begge GPU'ene fint i FireStrike. Tror nok det er de nye driverne som kom med GTX900-serien. Lenke til kommentar
Crawler123 Skrevet 26. september 2014 Del Skrevet 26. september 2014 Hvor stor forskjell er det på 2 stk Gtx 980 i sli på 2 x PCIe 3.0 x16 (dual x8) vs dual x16 ? Lenke til kommentar
Andrull Skrevet 26. september 2014 Del Skrevet 26. september 2014 Jeg blir overrasket om det er noen målbar forskjell. Lenke til kommentar
SWAT dude... Skrevet 26. september 2014 Del Skrevet 26. september 2014 Hvor stor forskjell er det på 2 stk Gtx 980 i sli på 2 x PCIe 3.0 x16 (dual x8) vs dual x16 ? Tror ikke det er mye forskjell. Jeg har nå god usage i alt utenom FireStrike og vil regne med at det som nevnt over er barnesykdommer e.l. Har bencha mye på 1440p-skjermen min (QNIX) og hadde aldri problemer. Loada begge GPU'ene fint i FireStrike. Tror nok det er de nye driverne som kom med GTX900-serien. Gjorde en kjapp test nå, Grafikk score skalerer 45% i Firestrike og 75% i 3dmark11 P og 98% i 3dmark11 X så det stemmer nok. Lenke til kommentar
**dp** Skrevet 26. september 2014 Del Skrevet 26. september 2014 til dere med Swift som bencher: skru av g sync når dere kjører! gsync kapper til 60fps.. lite kult 1 Lenke til kommentar
Crawler123 Skrevet 26. september 2014 Del Skrevet 26. september 2014 ...bare i benchmark regner jeg mwd? Lenke til kommentar
**dp** Skrevet 26. september 2014 Del Skrevet 26. september 2014 virker som 3dmark kjører 60hz. da er 60fps taket.. i BF4 er jo 144fps taket med G sync på. Lenke til kommentar
Christian Thork Skrevet 26. september 2014 Del Skrevet 26. september 2014 Bf4 på ultra preset med 200% res scale fløyt fint med rund 40-60Fps (Ikke intenst spilling, Kun sprenge måting på Test map Kortet var stabilt på 155+/405+, Så tar jeg core til 1489Mhz og boost er på 1539Mhz Lenke til kommentar
Evil-Duck Skrevet 26. september 2014 Del Skrevet 26. september 2014 til dere med Swift som bencher: skru av g sync når dere kjører! gsync kapper til 60fps.. lite kult Se der ja! da vart det plutselig andre boller. Takker ! Lenke til kommentar
**dp** Skrevet 26. september 2014 Del Skrevet 26. september 2014 Bf4 på ultra preset med 200% res scale fløyt fint med rund 40-60Fps (Ikke intenst spilling, Kun sprenge måting på Test map Kortet var stabilt på 155+/405+, Så tar jeg core til 1489Mhz og boost er på 1539Mhz 40fps er så langt fra flytende i mine øyne at hjelp! Lenke til kommentar
Christian Thork Skrevet 26. september 2014 Del Skrevet 26. september 2014 Bf4 på ultra preset med 200% res scale fløyt fint med rund 40-60Fps (Ikke intenst spilling, Kun sprenge måting på Test map Kortet var stabilt på 155+/405+, Så tar jeg core til 1489Mhz og boost er på 1539Mhz 40fps er så langt fra flytende i mine øyne at hjelp! Hehe, Så sitter jeg med en 60Hz monitor da, Lurer litt på om Aoc G-Sunch skjermen er noe Lenke til kommentar
Christian Thork Skrevet 26. september 2014 Del Skrevet 26. september 2014 EVGA selv gir 5Års garanti på 980 Så da var jo det supert Lenke til kommentar
wampster Skrevet 26. september 2014 Del Skrevet 26. september 2014 Hvorfor ikke fire litt på innstillingene og heller ha høyere fps? o.O 40 er jo... lavt. Lenke til kommentar
Christian Thork Skrevet 26. september 2014 Del Skrevet 26. september 2014 (endret) Hvorfor ikke fire litt på innstillingene og heller ha høyere fps? o.O 40 er jo... lavt. Var bare for å teste ``4K```Altså 200% res scale, Ligger godt over 100Fps, Max jeg har sett er 200Fps, Dog ultra preset 1080P på Test Range EDIT: Bf4 frys! Endret 26. september 2014 av Snusmumr1kk1 Lenke til kommentar
efikkan Skrevet 26. september 2014 Del Skrevet 26. september 2014 (endret) For Kepler vet jeg bufferbegrensningen i GPU-minnet var 16384² (med 32-bit rgba), så 4xSS er naturligvis det meste disse GPUene kan klare.Kjenner ikke umiddelbart igjen hvor 16384^2 kommer fra eller hva , eller hvordan sammenheng det har med 32-bit RGBA. Jeg lytter gjerne. Snakker vi om hele framebufferen (RAM på 3GB her) inklusive teksturer ? Var 4xSSAA teoretisk maks ved 2560x1440, og dermed ikke mulig på høyere skjermoppløsninger? Keplers minnekontroller kan allokere bufre i dimensjoner opptil 2^14x2^14x4 byte (=1GB). Som du vet lagres bufre gjerne i RGB- eller RGBA-format, hvilket opptar henholdsvis 3 eller 4 byte per piksel. Det største bildet du da kan allokere er 16384x16384, som også er kjent som maksimal tekstur-/bufferstørrelse. Hvis vi skal bruke en (frame-)buffer til rendering med AA gjelder naturligvis bufferbegrensningene nevnt ovenfor. Med 4xSS bruker som kjent hver piksel 4x4 samples som betyr at maksimal oppløsning med 4xSS er teoretisk 4096x4096. Hvis du har lyst til å kjøre 8xSS må du altså ha en GPU som kan adressere større bufre, eller kjøre med lavere oppløsning. Begrepet framebuffer kan ofte være misledende. Jeg sikter her til en spesifikk allokert buffer i GPU-minne. Noen bruker derimot "framebuffer" som synonym med GPU-minne, men dette gir ikke lenger mening siden det lagrer mye mer enn en enkel "frame". Dette er nok noe som henger igjen fra gamle dager da skjermkortets minne bare var en buffer for nåværende bilde. Gav det mening? Endret 26. september 2014 av efikkan Lenke til kommentar
Christian Thork Skrevet 26. september 2014 Del Skrevet 26. september 2014 Når en Gpu Oc feiler så blir det an Brun aktig farge på skjermen, Og bf4 får sorte articfacts, Er det da core eller mem? Lenke til kommentar
tobler0ne Skrevet 26. september 2014 Del Skrevet 26. september 2014 Da skal jeg få testa MSI GTX 970 etterhvert! Spørsmål: skaffer jeg drivere fra Nvidia eller MSI sine nettsider? Er det noe forskjell? Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå