**dp** Skrevet 24. mai 2012 Del Skrevet 24. mai 2012 dette med PSU og dimensjonering er KRAFTIG overddrevet som noen meddeler her.. min maskin med 3820 og GTX680SLI drar ikke mer enn rundt 550w under BF3 spilling. da er cpuen klokket til 5Ghz med 1.42v. til sammenligning dro GTX480SLI med 920 på 4.3Ghz oppimot og noen ganger over 1000w under BF2 BC med gpuene blodklokket... hihi... (950) 2 Lenke til kommentar
lurerpaating Skrevet 24. mai 2012 Del Skrevet 24. mai 2012 (endret) z Endret 25. mai 2012 av lurerpaating 1 Lenke til kommentar
Symmetrical Skrevet 24. mai 2012 Del Skrevet 24. mai 2012 dette med PSU og dimensjonering er KRAFTIG overddrevet som noen meddeler her.. min maskin med 3820 og GTX680SLI drar ikke mer enn rundt 550w under BF3 spilling. da er cpuen klokket til 5Ghz med 1.42v. til sammenligning dro GTX480SLI med 920 på 4.3Ghz oppimot og noen ganger over 1000w under BF2 BC med gpuene blodklokket... hihi... (950) Ja, jeg vet hvordan det er å ha GTX 480 i SLI noe som er grunnen til at jeg har en Corsair 1200W. Dette føles litt overdrevet når jeg nå sitter med bare en GTX 580 - og det blir enda mer overdrevent når jeg har installert i5-3570K og en GTX 680. Men jeg trenger ikke å bekymre meg for at jeg har for lite.. Lenke til kommentar
LMH1 Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 (endret) Lurer på GTX 790 hvordan den vil bli? http://wn.com/Nvidia_GTX_790 Er det kun antagelser her? er Maxwell GM110 noe impornerende i crysis? Altså ved alt på Entualist/ultra så burde vel den klare en rundt 120 FPS? Så jeg lurer på hvordan utviklingen der blir, at det ikke finnes spill som klarer å belaste det skjermkortet noe særlig før man har 3x quad HD skjermer. Endret 25. mai 2012 av LMH1 Lenke til kommentar
efikkan Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 Dette er bare ville antagelser, selv nVidia vet ikke hvordan produktene med Maxwell(2014) blir ennå. Lenke til kommentar
**dp** Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 vi får bare håpe at maxwell gir så mye mer ytelse per watt som nvidia sier, det vil automatisk love godt! Lenke til kommentar
Symmetrical Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 (endret) Ja, det er fint at de satser på mer ytelse per watt men jeg håper virkelig at de ikke fortsetter å holde tilbake ytelsen i favør for lavere strømbruk. Jeg hadde ikke hatt noe imot at de økte strømforbruket på GTX 780 med 50% kanskje 100% over GTX 680 dersom det hadde ført til enda bedre ytelse. Er det ikke kun ytelsen som kun skal være i fokus med tanke på toppkort fra både Nvidia og AMD? Begge sidene produserer en haug med forskjellige varianter av skjermkort så hvorfor fokusere på å redusere strømforbruket på toppkortene? Endret 25. mai 2012 av Symmetrical Lenke til kommentar
MadRos Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 Fordi tilslutt vil vi sitte med GPUer som bruker 1000W om det fortsetter. Dette er ikke fordelaktig for noen. Men enig at på et toppkort, burde heller ytelsen være i fokuset, vil man ha et strømgjerrig skjermkort, fins det uendelig mange alternativer.. Lenke til kommentar
Symmetrical Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 Fordi tilslutt vil vi sitte med GPUer som bruker 1000W om det fortsetter. Dette er ikke fordelaktig for noen. Men enig at på et toppkort, burde heller ytelsen være i fokuset, vil man ha et strømgjerrig skjermkort, fins det uendelig mange alternativer.. De kan blant annet separert toppkortene inn i to ulike 'klasser' hvorav den ene fokuserer på strømforbruk og den andre på ren ytelse. Se for deg et kort som kun er laget for de som har vannkjølingssystemer (ekstra mange cuda cores / streaming prosessors . .etc). Dette er selvfølgelig ønsketenking men det hadde vært fantastisk. Lenke til kommentar
Lunalotic Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 Bare en antagelse, men flytting av varme fra 1000 watt fra en så liten overflate høres ekstremt ut. 1 Lenke til kommentar
Symmetrical Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 Bare en antagelse, men flytting av varme fra 1000 watt fra en så liten overflate høres ekstremt ut. Hva hvis man splitter GPU-overflaten utover PCBen? .. En meter lang PCB? Lenke til kommentar
tommytoa Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 Eller lager en slangeformet GPU som åler seg nedover og bruker alle GPU inngangene? Lenke til kommentar
N o r e n g Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 Bare en antagelse, men flytting av varme fra 1000 watt fra en så liten overflate høres ekstremt ut. Hva hvis man splitter GPU-overflaten utover PCBen? .. En meter lang PCB? Går ikke an å splitte overflaten på en GPU. Techreport har lagt ut en kort artikkel om GK110: http://techreport.com/articles.x/22989/3 The Nvidia executives we talked with raised the possibility of a GK110-based GeForce being released this year only if necessary to counter some move by rival AMD. That almost certainly means that any GK110-based GeForce to hit the market in 2012 would come in extremely limited quantities. Det store spørsmålet blir vel om AMD har planer om å lansere en stor brikke selv. Lenke til kommentar
Symmetrical Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 Går ikke an å splitte overflaten på en GPU. Det er jo mulig å plassere to GPUer på en PCB så hvorfor kan man ikke splitte GPUen inn i mindre deler utover PCBen? Burde ikke dette øke ytelsen dramatisk slik som å implementere mange mindre GPUer på en PCB? Det er mye som kanskje er umulig nå men om noen år så er det nok mulig. Lenke til kommentar
N o r e n g Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 Går ikke an å splitte overflaten på en GPU. Det er jo mulig å plassere to GPUer på en PCB så hvorfor kan man ikke splitte GPUen inn i mindre deler utover PCBen? Burde ikke dette øke ytelsen dramatisk slik som å implementere mange mindre GPUer på en PCB? Det er mye som kanskje er umulig nå men om noen år så er det nok mulig. Latency Lenke til kommentar
Symmetrical Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 (endret) Techreport har lagt ut en kort artikkel om GK110: http://techreport.co...icles.x/22989/3 The Nvidia executives we talked with raised the possibility of a GK110-based GeForce being released this year only if necessary to counter some move by rival AMD. That almost certainly means that any GK110-based GeForce to hit the market in 2012 would come in extremely limited quantities. Det store spørsmålet blir vel om AMD har planer om å lansere en stor brikke selv. Dersom dette stemmer så er jeg veldig glad for at jeg ikke har kjøpt GTX 680 eller HD 7970. Latency Ja, det er logisk og gir mening. Endret 25. mai 2012 av Symmetrical Lenke til kommentar
N o r e n g Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 Dersom dette stemmer så er jeg veldig glad for at jeg ikke har kjøpt GTX 680 eller HD 7970. Ja, det er logisk og gir mening. Å kjøpe et High-end skjermkort har aldri vært en god idé for "fremtidssikring" Forresten, å splitte en stor GPU opp i flere små GPUer har allerede vært forsøkt av 3DFX i form av Voodoo 5, det gikk rimelig dårlig for 3DFX. Så det er nok også en grunn til at Nvidia/AMD ikke prøver på det samme. 1 Lenke til kommentar
Lunalotic Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 Hvis man kjøper skjermkort for "fremtidssikring" kan man likesågodt kjøpe seg playstation 3. 1 Lenke til kommentar
Symmetrical Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 Dersom dette stemmer så er jeg veldig glad for at jeg ikke har kjøpt GTX 680 eller HD 7970. Ja, det er logisk og gir mening. Å kjøpe et High-end skjermkort har aldri vært en god idé for "fremtidssikring" Forresten, å splitte en stor GPU opp i flere små GPUer har allerede vært forsøkt av 3DFX i form av Voodoo 5, det gikk rimelig dårlig for 3DFX. Så det er nok også en grunn til at Nvidia/AMD ikke prøver på det samme. Hehe, du har helt rett i det. Men jeg har fått inntrykket av at både AMD og Nvidia har en lignende tick-tock utvikling etter GTX 4xx og HD 4xxx slik som Intel. For eksempel GTX 480 -> GTX 580, HD 5870 -> HD 6870. Jeg ser for meg noe lignende nå. GTX 680 -> GTX 780, HD 7970 -> HD 8970. Med tanke på dette så venter jeg på alltid på 'tock' - selv om jeg har kjøpt i5-3570K (eneste unntaket). Med tanke på dette tror du ikke at for eksempel GTX 780 er 'litt' mer fremtidssikret enn GTX 680? Hvis det fortsetter slik så kan et oppgraderingsmønster se slik ut: GTX 780 -> (Hopp over GTX 880) -> GTX 980, HD 8970 -> (hopp over HD 9970) -> HD 10970. Lenke til kommentar
Mumriken Skrevet 25. mai 2012 Del Skrevet 25. mai 2012 Hvis man kjøper skjermkort for "fremtidssikring" kan man likesågodt kjøpe seg playstation 3. Det er jo fremtidssikring å kjøpe et high-end kort, så sant en fremtid er 2år Sitter for tiden og spiller max payne på ps3 og jeg vil tro du må ha steingammel hardware for å kjøre det spillet på noe dårligere settings enn det ps3 gjør! Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå