VargAamo Skrevet 18. januar 2013 Del Skrevet 18. januar 2013 Vi har funnet den nye kongen av stillegående skjermkort. Test: Asus GeForce GTX 680 DirectCU II 4 GB Lenke til kommentar
Akrapovic Skrevet 18. januar 2013 Del Skrevet 18. januar 2013 Lav støy, bra! Men 7970 GHz var jo overlegen.. nVidia Geforce GTX680, originalen, var jo bedre i mange av spillene.. Rart Lenke til kommentar
N o r e n g Skrevet 18. januar 2013 Del Skrevet 18. januar 2013 (endret) Lav støy, bra! Men 7970 GHz var jo overlegen.. nVidia Geforce GTX680, originalen, var jo bedre i mange av spillene.. Rart Mer VRAM betyr ofte at latencier må kuttes ned på, og at strømforbruk går opp. Ettersom Kepler Boost baserer seg på fysiske målinger av strømforbruk vil de to ekstra gigabytene med VRAM spise litt mer av effektbudsjettet enn 2GB-variantene, som betyr mindre Boost og mindre ytelse. EDIT: Ser også at dette kortet trekker mindre strøm enn stock 680, som også betyr mindre Kepler Boost. Det er flott å se at dere har fått på plass en ny testbenk og fått gjennomkjørt nye tester, selv om testutvalget muligens er noe AMD-favoriserende. Endret 18. januar 2013 av arni90 1 Lenke til kommentar
steinarsen44 Skrevet 18. januar 2013 Del Skrevet 18. januar 2013 Har disse kjølerne på mine 670er og de kjøler noe enormt samtidig som de er stille, fantastiske kort. Om du først kjøper ett 680, er det trolig bare fordi du har penger til overs, siden ytelsen over 670 er minimal. Hvis du faktisk har penger å sløse på 680, ville jeg heller lagt inn enda litt mer å skaffet 2 670er. Utrolig fornøyd jeg! Lenke til kommentar
cannibalguppy Skrevet 18. januar 2013 Del Skrevet 18. januar 2013 Har disse kjølerne på mine 670er og de kjøler noe enormt samtidig som de er stille, fantastiske kort. Om du først kjøper ett 680, er det trolig bare fordi du har penger til overs, siden ytelsen over 670 er minimal. Hvis du faktisk har penger å sløse på 680, ville jeg heller lagt inn enda litt mer å skaffet 2 670er. Utrolig fornøyd jeg! eller kjøpe 2 680 for det aller beste ^^ men er enig i at det er ren sløsing Lenke til kommentar
sinnaelgen Skrevet 18. januar 2013 Del Skrevet 18. januar 2013 En ting dere har fått testet nå er at det for kan bli for lite å bare test et eksemplar Lenke til kommentar
SVD Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 Dette kortet virker for meg litt ubrukelig, Matrix kortet er jo 600,- kr billigere og definitift kraftigere, og hvis man må ha nVidia og eller kjøleløsningen så kan man jo gå for 670 versjonen, det har jo 2GB minne så det yter sikkert bedre enn 680 4GB ironisk nokk... 1 Lenke til kommentar
N o r e n g Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 Noe småpirk: Når man masseproduserer grafikkprosessorer er det nemlig alltid forskjeller i kvaliteten på kjernene. Slike forskjeller kan slå ut med opp mot 1 – 2 prosent i spill, mens syntetiske tester ikke påvirkes like mye. Etter alle solemerker har vi hatt uflaks med kortet vi fikk fra Asus, og prosessoren på dette har trolig ligget i den nedre delen av skalaen. Referansekortet, derimot, har vært ett av de desidert beste. Dette gjelder kun Kepler-serien til Nvidia, det gir et utslag i Boost-nivåene ettersom Boost baserer seg på fysiske målinger på kretskortet og varianser i brikkenes strømforbruk/klokkefrekvens/spenningskrav gir da utslag på "Kepler Boost." AMDs Turbo-modus bruker Powertune-teknologien (som baserer seg kalkulering av strømforbruk basert på spenning/klokkefrekvens og målere for hvor stor andel av GPUen som er belastet) for å øke klokkefrekvensen når strømforbruket er under et visst nivå, dette fører til et skille der alle AMD-kort med Boost yter identisk mens ingen Nvidia-kort med Boost yter identisk i dag. Selv om 4 GB dedikert minne på grafikkortet kanskje kan fremstå som litt overdrevent, og neppe vil gjøre all verden på lavere oppløsninger, har vi forventninger om at på de aller høyeste nivåene vil dette kunne sparke skikkelig fra. Litt rask matte: 192GB/s delt på 60fps = 3.2 GB / frame Båndbreddeforbruket per frame er 2-3 ganger så mye som mengden data i bruk, og det er ingen minnekontroller som klarer å oppnå maksimal teoretisk båndbredde. Altså kan et GTX 680 bruke et sted rundt 1 til 1.5 GB med data per frame om det skal levere 60 fps. Oppløsning har ingenting å si her, GTX 680 har rett og slett ikke båndbredden til å bruke mer data per frame ved 60 fps. Det kan derimot ha nytteverdi om man kjører tre eller fire kort i SLI (ettersom hvert kort bare må levere 60/antall GPUer frames per sekund,) eller har mål om å nå 20-30 fps (det er rimelig søkt.) Det er absolutt noen som vil kunne dra nytte av dette, men det er på ingen måte de som kjøper et eller to kort. Kjøleren fremstår på sin side som forventet – stor og solid, med kraftige kjølerør tytende ut til alle kanter. Varmerør mener dere vel? Vi benytter dog «boost»-modusen i våre tester, som hever denne til 1058 MHz når det er mulig. Det er vel mer riktig å si at kortet har 1006MHz som minstefrekvens og har en turbo-modus som gjennomsnittlig skal ligge på 1058MHz? Ifølge ASUS selv har dette kortet et strømforbruk på opp til 225W. Hvorfor tester dere Metro 2033 med PhysX aktivert? Poenget med slike tester som dette er å belaste skjermkortene identisk for å se hvilket som er best, det gir lite mening å gi forskjellig arbeidsbelastning til AMD- og Nvidia-kort bare fordi PhysX er inkludert i spillet. Dere burde i det minste teste med PhysX både av og på da. Lenke til kommentar
steinarsen44 Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 Noen som vet hvorfor ASUS sine 4GB 680er bare tar 2 PCI slots, men 2GB versjonen tar 3? Lenke til kommentar
G Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 (endret) Øh. Kepler-boost. Wtf, er det? En av de gode grunnene til at jeg aldri gadd interessere meg ordentlig for skjermkort-terminologien, når den så smått tok av på nittitallet. Er nesten grønn om skjermkort. Bortsett fra litt ting som slot, minnebåndbredde, produsentnavn, directx og litt. Vet at Kepler var en av de store innen utviklingen av astronomi med mere. Endret 19. januar 2013 av G Lenke til kommentar
AndersT2 Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 Noen som vet hvorfor ASUS sine 4GB 680er bare tar 2 PCI slots, men 2GB versjonen tar 3? Selve kortene bygger vel like mye, så forskjellene er vel kun kjølerene? Lenke til kommentar
efikkan Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 Mer VRAM betyr ofte at latencier må kuttes ned på, og at strømforbruk går opp. Ettersom Kepler Boost baserer seg på fysiske målinger av strømforbruk vil de to ekstra gigabytene med VRAM spise litt mer av effektbudsjettet enn 2GB-variantene, som betyr mindre Boost og mindre ytelse. EDIT: Ser også at dette kortet trekker mindre strøm enn stock 680, som også betyr mindre Kepler Boost. Du er nok inne på noe her, Asus burde nok kompensert med 5-15W mer i power target. Litt rask matte: 192GB/s delt på 60fps = 3.2 GB / frame Båndbreddeforbruket per frame er 2-3 ganger så mye som mengden data i bruk, og det er ingen minnekontroller som klarer å oppnå maksimal teoretisk båndbredde. Altså kan et GTX 680 bruke et sted rundt 1 til 1.5 GB med data per frame om det skal levere 60 fps. Oppløsning har ingenting å si her, GTX 680 har rett og slett ikke båndbredden til å bruke mer data per frame ved 60 fps. Det kan derimot ha nytteverdi om man kjører tre eller fire kort i SLI (ettersom hvert kort bare må levere 60/antall GPUer frames per sekund,) eller har mål om å nå 20-30 fps (det er rimelig søkt.) Hvilken oppløsning og innstillinger tenker du på nå?F.eks. 2560x1600 med 16x MSAA skulle vel bruke ~250MB og dataen er vel inn og ut typisk 2-3 ganger avhengig av render passes (typisk for deffered shading), så jeg tror du overdriver litt. Selv om minnebåndbredden ikke er imponerende for GK104 så er likevel raster-ytelsen en større flaskehals i de fleste situasjoner. Øh. Kepler-boost. Wtf, er det? Kepler-boost er boost-funksjonaliteten som kom med den nye Kepler-generasjonen av grafikkbrikker fra Nvidia. Når GPUen er under et satt power target og temperatur vil den kunne klokke opp GPUen opptil rundt 10%. Hvis GPUen skulle bli for varm kan den også klokkes ned. Dette gjør at ytelsen til GPUen varierer under bruk, og at ytelsen faller sakte under bruk. Ustabil bilderate gjør at spillopplevelsen oppleves mye mer hakkete. 1 Lenke til kommentar
H_Bozz Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 Er det ikke fortsatt sånn att vis en kjorer SLI så får en kun bruker hvert grafikkort fortsatt like mye ram hver? Så 2gb versionen i SLI vil ganske sikkert bli en flaskehals. Lenke til kommentar
N o r e n g Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 Du er nok inne på noe her, Asus burde nok kompensert med 5-15W mer i power target. Hvilken oppløsning og innstillinger tenker du på nå? F.eks. 2560x1600 med 16x MSAA skulle vel bruke ~250MB og dataen er vel inn og ut typisk 2-3 ganger avhengig av render passes (typisk for deffered shading), så jeg tror du overdriver litt. Selv om minnebåndbredden ikke er imponerende for GK104 så er likevel raster-ytelsen en større flaskehals i de fleste situasjoner. Jeg tviler sterkt på at minnekontrolleren til Kepler oppnår 100% utnyttelse av teoretisk båndbredde, og med anisotropisk filtrering vil båndbreddebruken mangedobles. Lenke til kommentar
efikkan Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 Jeg tviler sterkt på at minnekontrolleren til Kepler oppnår 100% utnyttelse av teoretisk båndbredde, og med anisotropisk filtrering vil båndbreddebruken mangedobles. Sant nok, det er peak load som er kritisk. Fragment-prosessering er langt mer minnekrevende enn vertex-prosessering i løpet av et bilde. Jeg var mer interessert i tallene bak resonnementet Lenke til kommentar
N o r e n g Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 Sant nok, det er peak load som er kritisk. Fragment-prosessering er langt mer minnekrevende enn vertex-prosessering i løpet av et bilde. Jeg var mer interessert i tallene bak resonnementet Jeg tenker som så at det er teksturer som spiser mesteparten av båndbredden, og dette da betyr at minnebåndbredden blir spist opp ganske fort om man skal gjøre noen form for teksturfiltrering. Lenke til kommentar
efikkan Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 Jeg tenker som så at det er teksturer som spiser mesteparten av båndbredden, og dette da betyr at minnebåndbredden blir spist opp ganske fort om man skal gjøre noen form for teksturfiltrering. Både ja og nei. Anisotropic filtering medfører selvsagt mye mer trafikk, men bilinear/trilinear filtering trenger ikke øke trafikken så veldig mye innenfor hver teksturblokk. Men hvilken oppløsning og innstilling var det du tenkte ville trenge 1-1.5 GB/frame i trafikk? Lenke til kommentar
Phyltre Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 Vel personlig forbinder jeg kulderekord med minus grader, tydelig at gutta boys i redaksjonen er av en annen oppfatning 1 Lenke til kommentar
MistaPi Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 (endret) Litt rask matte: 192GB/s delt på 60fps = 3.2 GB / frame Båndbreddeforbruket per frame er 2-3 ganger så mye som mengden data i bruk, og det er ingen minnekontroller som klarer å oppnå maksimal teoretisk båndbredde. Altså kan et GTX 680 bruke et sted rundt 1 til 1.5 GB med data per frame om det skal levere 60 fps. Oppløsning har ingenting å si her, GTX 680 har rett og slett ikke båndbredden til å bruke mer data per frame ved 60 fps. Det kan derimot ha nytteverdi om man kjører tre eller fire kort i SLI (ettersom hvert kort bare må levere 60/antall GPUer frames per sekund,) eller har mål om å nå 20-30 fps (det er rimelig søkt. 1 til 1.5GB med data per frame? Det er heller ikke slik at all data som ligger i vram må brukes i hver eneste frame for at det skal å noe fordel i å ligge der. La oss si vi har to skjermkort med lik begrenset minnebåndredde, minnekontroller og 2GB vram. Begge bruker all av minnet, men skjermkort 1 har ingen minnebåndbredde besparene funksjonalitet og har fullt en stor del av minnet med framebuffer data; høy oppløsning, høy grad MSAA. Skjermkort 2 er pakket med minnebåndbredde besparene funksjonalitet (z komprimering, farge komprimering, texture komprimering, early-z osv) og istedet for veldig høy framebuffer oppløsning og MSAA er en stor del av minnet blitt fylt med teksturer. Hvilket av skjermkortene tror du har mest minnetrafikk? Forholdet mellom minnebåndbredde og minnemengde er høyst relativt og det hadde blitt vanskelig komme med en regel som samtidig hadde tatt med Xbox360 sin 10MB eDRAM med 256GB/s båndbredde. Med dagens spill har mer enn 2GB vram dog lite for seg for single GPU, da man må øke data mengden med svært båndbredde krevende framebuffer data for å få nytte av det. Endret 19. januar 2013 av MistaPi Lenke til kommentar
N o r e n g Skrevet 19. januar 2013 Del Skrevet 19. januar 2013 Både ja og nei. Anisotropic filtering medfører selvsagt mye mer trafikk, men bilinear/trilinear filtering trenger ikke øke trafikken så veldig mye innenfor hver teksturblokk. Men hvilken oppløsning og innstilling var det du tenkte ville trenge 1-1.5 GB/frame i trafikk? Jeg tenkte ikke på en gitt oppløsning eller innstilling, jeg tenkte på hvor mye VRAM som var praktisk mulig å bruke for et GTX 680 i spill, for dette er 1 til 1.5GB med data per frame? Det er heller ikke slik at all data som ligger i vram må brukes i hver eneste frame for at det skal å noe fordel i å ligge der. Forholdet mellom minnebåndbredde og minnemengde er høyst relativt og det hadde blitt vanskelig komme med en regel som samtidig hadde tatt med Xbox360 sin 10MB eDRAM med 256GB/s båndbredde. Med dagens spill har mer enn 2GB vram dog lite for seg for single GPU, da man må øke minnemengden med svært båndbredde krevende framebuffer data for å få nytte av det. Poenget er at om et skjermkort med 192GB/s med båndbredde skal levere 60 bilder i sekundet holder det med 2GB med VRAM, om kompresjon er i bruk eller ikke har ingenting å si på hvor mye VRAM som kan brukes (jeg antar at data fortsatt er komprimert når det ligger i VRAM.) Ellers kan det brukes til caching for å redusere lastetider, men med minst 4GB/s mot CPU burde ikke behovet for å lagre ekstra data i VRAM for caching være så voldsomt stort. For å kunne nyttegjøre seg mer VRAM må man derfor øke tidsbudsjettet for skjermkortet, eneste måte å gjøre dette på er å senke framerate-målet (enten ved å akseptere lavere framerate eller bruke alternate frame rendering og flere GPUer.) Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå