Gå til innhold

Slik kan Nvidias neste skjermkort bli


Anbefalte innlegg

Da er det bare å vente på Ivy Bridge-E og pusse støv av fasekjøleren, ta på seg arbeidshanskene og fyre løs med blodklokking! :D

Husk at utnyttelsen ikke er så lett å klare på de siste 10 prosentene mot 100.

Uansett, om man slenger på en skjerm eller to til så bør det ordne seg vett.

 

Med min i7 3930k på 4.7 ghz så får jeg drops ned til 50%ish usage i farcry 3 :( Det spillet hater meg, min cpu og det å ligge på over 100 fps..

 

I spill som fint utnytter flere kjerner (bf3) har jeg null ytelsesproblemer, men i andre spill så må jeg innrømme at jeg sliter innimellom :p

 

Så med mindre IB-E dytter klokkehastighetene lengre (noe jeg tviler på) så vil jeg tippe at neste generasjons konsoler vil være min reddning!

Lenke til kommentar
Videoannonse
Annonse

Har aldri hørt at Nvidia har sagt det , derimot har nok en del ivrige forum medlemmer påstått det. Om det stemmer så hadde det vært fint med en link.

 

nVidia sa helt i begynnelsen av 2012 at de ville slippe deres råeste kepler-kort mot slutten av året. Jeg er 95% sikker på at jeg skrev et innlegg med en link ang. dette her på forumet. Det ser ut til at dette har vært planen deres hele tiden ...

Lenke til kommentar

Dobbel pris for dobbel ytelse - da er vi på stedet hvil.

Nei, på ingen som helst måte. Det er slik det ganske ofte er.

 

Prisene vil nok bli korrigert ned litt, og så får vi se mer konkurransedyktige kort rent prismessig etterhvert. Skal du ha det absolutt beste, så må du alltids ut med en premium pris. :)

 

Heldigvis så har vi AMD, og om de klarer det like bra så kan de helt utmerket presse prisen ned.

Lenke til kommentar

Med min i7 3930k på 4.7 ghz så får jeg drops ned til 50%ish usage i farcry 3 :( Det spillet hater meg, min cpu og det å ligge på over 100 fps..

 

I spill som fint utnytter flere kjerner (bf3) har jeg null ytelsesproblemer, men i andre spill så må jeg innrømme at jeg sliter innimellom :p

 

Så med mindre IB-E dytter klokkehastighetene lengre (noe jeg tviler på) så vil jeg tippe at neste generasjons konsoler vil være min reddning!

**dp** mener jeg det var som fikk 3930k'en opp i en 5,5 GHz. <3 Vel og merke etter litt finplukking, og solid utstyr, men det KAN la seg gjøre.

At mange spillutviklere ikke velger å fokusere på multitråd-ytelse er jo alltids skuffende, men det kan bli en del bedre når de nye konsollene ankommer markedet, som også vil ha X86 fler-kjernede prosessorer. :)

 

Uansett så bør og skal et slikt sykt oppsett også ha noe mer enn en vanlig skjermløsning. Gjerne 3x1080p/3x1440p eller i hvert fall 1600p.

Lenke til kommentar
Ikke GTX 680, den var vel 25,4 cm eller no slik, håper de beholder den størrelsen
Nvidia sa vel selv at 680 var et mellomklasse kort, anntar de har ,

sittet på gk110 lenge uten å følt behovet for å lansere. mini-pc må du bygge i silverstone sg05 ikke noe stress å få inn dette kortet tror jeg

 

Silverstone sg05 støtter ikke fullstørrelse ATX-strømforsyninger(uten modifisering) Personlig ville jeg ha anbefalt Cooler Master sitt Elite 120. Her trenger du ikke ta noen hensyn til lengde på skjermkortet, og du kan putte inn hvilken som helst strømforsyning. Er akkurat ferdig med mitt eget mini-itx prosjekt, bygget i nettopp dette kabinettet. Innveid til 7kg på badromsvekta. Skal aldri mer bære et midi/maxi kabinett! ;)

 

Lenke til kommentar

**dp** mener jeg det var som fikk 3930k'en opp i en 5,5 GHz. <3 Vel og merke etter litt finplukking, og solid utstyr, men det KAN la seg gjøre.

At mange spillutviklere ikke velger å fokusere på multitråd-ytelse er jo alltids skuffende, men det kan bli en del bedre når de nye konsollene ankommer markedet, som også vil ha X86 fler-kjernede prosessorer. :)

 

Uansett så bør og skal et slikt sykt oppsett også ha noe mer enn en vanlig skjermløsning. Gjerne 3x1080p/3x1440p eller i hvert fall 1600p.

 

Har en 120hz skjerm vel og merke, så er jo det jeg sikter meg inn på :p

 

Etter at jeg skaffet meg 120hz skjerm så ballet det på seg ny cpu, vannkjøling og skjermkort nr 2. Jaggu den dyreste skjermen jeg har kjøpt =D

  • Liker 1
Lenke til kommentar

Fordi det er ingen måte at en 384-bit minnebuss med GDDR5 gir nok minnebåndbredde for å fore 64 ROPs. Dessuten hadde det blåst transistortallet opp til himmels.

 

okey, men da kan dem jo bare bruke 512 bit minnebuss da :p på tide nesten nå :)

 

dessuten så bruker vel ikke noen ekstra rops så mange transistorer..er vel shaderene som bruker mesteparten av brikka.

Endret av Blazer
Lenke til kommentar

Med en 384-bit minnebuss er det rimelig usannsynlig, AMD koblet ROPene sine vekk fra L2 cachen for å spare transistorer og gi Tahiti XT mer båndbredde uten å kaste bort transistorer på 48 ROPs. Det er liten grunn til at Nvidia skal koble L2-cachen vekk fra ROPene for å gi GK110 enda flere ROPs det ikke klarer å utnytte.

 

Hvis en kjerne har nesten dobbel ytelse av 680, vil det ikke være mest logisk at de har 512 bit minnebuss?

Lenke til kommentar

Har en 120hz skjerm vel og merke, så er jo det jeg sikter meg inn på :p

 

Etter at jeg skaffet meg 120hz skjerm så ballet det på seg ny cpu, vannkjøling og skjermkort nr 2. Jaggu den dyreste skjermen jeg har kjøpt =D

Vel, der har du nok problemet ditt. 120 Hz-skjermer, og ellers andre "nyere skjermer" med 1920x1080 har rimelig lav oppløsning. Ja, faktisk lavere oppløsning enn det vi så på større CRT-skjermer og vanlige 24" for over 6-7år siden som gjerne var 2048x1536 og 1920x1200.

For det ironiske er at du raskere vil støte på CPU-flaskehals enn du gjorde før. Ja med mindre man går for noe mer modne 2560x1440 eller 2560x1600.

 

Men om du hadde smelt på plass to til slike 120 Hz skjermer, så begynner vi nok å snakke om full utnyttelse av de skjermkortene dine. ;)

 

 

Hvis en kjerne har nesten dobbel ytelse av 680, vil det ikke være mest logisk at de har 512 bit minnebuss?

Det har virket som om 512bit-kort har blitt relativt store, komplekse og dyre kort. Så det har vel ikke vært noe veldig godt alternativ denne gangen heller.

Endret av Andrull
Lenke til kommentar

Vel, der har du nok problemet ditt. 120 Hz-skjermer, og ellers andre "nyere skjermer" med 1920x1080 har rimelig lav oppløsning. Ja, faktisk lavere oppløsning enn det vi så på større CRT-skjermer og vanlige 24" for over 6-7år siden som gjerne var 2048x1536 og 1920x1200.

For det ironiske er at du raskere vil støte på CPU-flaskehals enn du gjorde før. Ja med mindre man går for noe mer modne 2560x1440 eller 2560x1600.

 

Men om du hadde smelt på plass to til slike 120 Hz skjermer, så begynner vi nok å snakke om full utnyttelse av de skjermkortene dine. ;)

 

Jeg vet, verden hater 120 hz :( Men om jeg skaffer meg 2 slike skjermer til og kjører de i portrett samtidig som jeg trimmer ned kantene (sett det gjort, er fuckings awesome) så blir jo det best. Men, da trenger jeg MINST ett skjermkort til! Og enda så blir det vanskelig å få 120 fps, som er hovedmålet mitt!

Lenke til kommentar

okey, men da kan dem jo bare bruke 512 bit minnebuss da :p på tide nesten nå :)

 

dessuten så bruker vel ikke noen ekstra rops så mange transistorer..er vel shaderene som bruker mesteparten av brikka.

En 50% økning i minnebussbredde og L2 cache kan fort bety at kompleksiteten og transistorforbruket øker med det dobbelte, det er ikke "bare å bruke 512 bit minnebuss." Det kan til og med hende at en 512-bit minnebuss ikke vil klare å levere mer båndbredde enn en 384-bit minnebuss på grunn av økt kompleksitet.

 

384-bit minnebuss, Cache, ECC og 48 ROPs spiser sikkert opp en 1500-2000 millioner transistorer, å øke dette forbruket med 33% (hvis vi antar at Kepler ikke kaster bort noen ekstra transistorer når den skaleres opp/ned) for 33% mer båndbredde er mest sannsynlig ikke økonomisk når designet er beregnet primært for Tesla og brikka allerede ligger på grensen til å være uhåndterlig stor.

Hvis en kjerne har nesten dobbel ytelse av 680, vil det ikke være mest logisk at de har 512 bit minnebuss?

Kjernen har 15/8 flere CUDA-kjerner og TMUer, 6/4 flere ROPs og 384/256 bredere minnebuss, gitt at Kepler skalerer perfekt (noe som er ren ønsketenkning) vil det fortsatt kreve at GK110 er klokket et sted mellom 1069MHz (for 100% mer shading/tekstur-ytelse) og 1339MHz (for 100% mer ROP-ytelse) med minnet kjørende på 2250 MHz (for 100% mer minnebåndbredde.)

 

Hvis vi antar at GDDR5 kan fås tak i kjørende på 2250 MHz og GK110 faktisk kan kjøre på en klokkefrekvens rundt/over 1100MHz uten en ekstrem kjøleløsning vil strømforbruket fortsatt være et enormt problem, 7100 millioner transistorer er mer enn dobbelt så mange som GK104s 3400 milioner, og yielden på en så stor brikke vil kreve at Nvidia tar til takke med mindre perfekte brikker som igjen krever høyere spenning. Tenk 450W TDP med 400W i bruk, og bare spesielt interesserte ville kjøpt et kort som bruker mer strøm enn et GTX 690 med samme ytelse.

 

Kan også peke på at alle grafikkort med 512-bit minnebuss solgt til forbrukere har hatt store problemer, GTX 285 var siste kort og det kortet klarte såvidt 15% mer ytelse enn et HD 4890 med en 256-bit minnebuss.

  • Liker 2
Lenke til kommentar

Jeg vet, verden hater 120 hz :( Men om jeg skaffer meg 2 slike skjermer til og kjører de i portrett samtidig som jeg trimmer ned kantene (sett det gjort, er fuckings awesome) så blir jo det best. Men, da trenger jeg MINST ett skjermkort til! Og enda så blir det vanskelig å få 120 fps, som er hovedmålet mitt!

Ja, det blir ikke noe lettere å nå 120 FPS, men det blir superrått oppsett. :)

Og så får du jo alltids 120 FPS i litt mindre tunge spill da. ;)

 

Har tatt av ramma på en del skjermer (siste var for noen uker siden med laptop-skjermen min), og det er egentlig ikke noe særlig stress.

 

 

En 50% økning i minnebussbredde og L2 cache kan fort bety at kompleksiteten og transistorforbruket øker med det dobbelte, det er ikke "bare å bruke 512 bit minnebuss." Det kan til og med hende at en 512-bit minnebuss ikke vil klare å levere mer båndbredde enn en 384-bit minnebuss på grunn av økt kompleksitet.

 

384-bit minnebuss, Cache, ECC og 48 ROPs spiser sikkert opp en 1500-2000 millioner transistorer, å øke dette forbruket med 33% (hvis vi antar at Kepler ikke kaster bort noen ekstra transistorer når den skaleres opp/ned) for 33% mer båndbredde er mest sannsynlig ikke økonomisk når designet er beregnet primært for Tesla og brikka allerede ligger på grensen til å være uhåndterlig stor.

 

Kjernen har 15/8 flere CUDA-kjerner og TMUer, 6/4 flere ROPs og 384/256 bredere minnebuss, gitt at Kepler skalerer perfekt (noe som er ren ønsketenkning) vil det fortsatt kreve at GK110 er klokket et sted mellom 1069MHz (for 100% mer shading/tekstur-ytelse) og 1339MHz (for 100% mer ROP-ytelse) med minnet kjørende på 2250 MHz (for 100% mer minnebåndbredde.)

 

Hvis vi antar at GDDR5 kan fås tak i kjørende på 2250 MHz og GK110 faktisk kan kjøre på en klokkefrekvens rundt/over 1100MHz uten en ekstrem kjøleløsning vil strømforbruket fortsatt være et enormt problem, 7100 millioner transistorer er mer enn dobbelt så mange som GK104s 3400 milioner, og yielden på en så stor brikke vil kreve at Nvidia tar til takke med mindre perfekte brikker som igjen krever høyere spenning. Tenk 450W TDP med 400W i bruk, og bare spesielt interesserte ville kjøpt et kort som bruker mer strøm enn et GTX 690 med samme ytelse.

 

Kan også peke på at alle grafikkort med 512-bit minnebuss solgt til forbrukere har hatt store problemer, GTX 285 var siste kort og det kortet klarte såvidt 15% mer ytelse enn et HD 4890 med en 256-bit minnebuss.

Nå roter du deg bort i kalkulasjonene. Du kalkulerer med en gitt frekvens og størrelse for å matche GTX 690. Nå vil et dobbelt GPU-oppsett miste litt ytelse per watt pga skaleringen, og tross dette så beregner du med 50 % høyere strømforbruk over GTX 690 for å oppnå lik ytelse?

Vi er ikke bare litt vell negative i dag arni90? :p

Lenke til kommentar

Nå roter du deg bort i kalkulasjonene. Du kalkulerer med en gitt frekvens og størrelse for å matche GTX 690. Nå vil et dobbelt GPU-oppsett miste litt ytelse per watt pga skaleringen, og tross dette så beregner du med 50 % høyere strømforbruk over GTX 690 for å oppnå lik ytelse?

Vi er ikke bare litt vell negative i dag arni90? :p

Hvor høyt blir effektforbruket når 7100 millioner transistorer opererer på 1100MHz? Jeg baserer meg på effektforbruket til GTX 680 ettersom de beste GK110-brikkene brukes til Tesla-kort, og legger så på 20% ettersom den må kjøre høyere spenning (større brikke = dårligere yield) og høyere klokkefrekvenser. Slik jeg ser det er dette rimelig optimistisk for et GK110 klokket til himmels, men så har jeg også for lengst forstått at Titan i beste fall vil legge seg 60-70% foran 680 og oftest ligge rundt 35-40% foran og kjøre på en klokkefrekvens rundt 900MHz.

Lenke til kommentar

Hvor høyt blir effektforbruket når 7100 millioner transistorer opererer på 1100MHz? Jeg baserer meg på effektforbruket til GTX 680 ettersom de beste GK110-brikkene brukes til Tesla-kort, og legger så på 20% ettersom den må kjøre høyere spenning (større brikke = dårligere yield) og høyere klokkefrekvenser. Slik jeg ser det er dette rimelig optimistisk for et GK110 klokket til himmels, men så har jeg også for lengst forstått at Titan i beste fall vil legge seg 60-70% foran 680 og oftest ligge rundt 35-40% foran og kjøre på en klokkefrekvens rundt 900MHz.

Godt å høre at du ser litt mindre pessimistisk som i starten da. ;) Tipper vi får cirka se de tallene der jeg også. :)

 

Vel, med 7,1 Mrd transistorer og 1100 MHz gir rundt 450W, ja så yter den også tilsvarende. Enten så er 450W skivebom, eller så er beregnet ytelse det.

Endret av Andrull
  • Liker 1
Lenke til kommentar

Ja, det blir ikke noe lettere å nå 120 FPS, men det blir superrått oppsett. :)

Og så får du jo alltids 120 FPS i litt mindre tunge spill da. ;)

 

Har tatt av ramma på en del skjermer (siste var for noen uker siden med laptop-skjermen min), og det er egentlig ikke noe særlig stress.

 

Når jeg snakker om å ta av ramma, så mener jeg å gjøre bezel til ca 2 mm :p Det er og skjære vekk kanter osv.

 

Se den der, så ser du hva min våteste drøm er <3
  • Liker 1
Lenke til kommentar

Antar det vil variere ganske mye fra skjerm til skjerm hvor stort potensiale du har.

Ved å fjerne ramma så sitter du gjerne igjen med ca 8-12mm (selv så er det 10mm). Skulle jeg fjernet selve metallrammen rundt, så ville jeg tro at jeg ble nødt til å finne en måte å feste bakgrunnsbelysningen. Usikker på om dette er lettere ved en LED skjerm.

Mulig noen kun har i sidene, eller omvendt slik at det blir minst mulig midt i den nye "skjermflaten".

 

Ellers så ser jeg jo også at det er noen mm hvor det rett og slett er død-område, som du ikke får gjort noe med.

 

Har selv kun gjort det letteste, men vurderer å ofre noen skjermer for å teste ut videre. :)

Lenke til kommentar

Hvor høyt blir effektforbruket når 7100 millioner transistorer opererer på 1100MHz? Jeg baserer meg på effektforbruket til GTX 680 ettersom de beste GK110-brikkene brukes til Tesla-kort, og legger så på 20% ettersom den må kjøre høyere spenning (større brikke = dårligere yield) og høyere klokkefrekvenser.

Nei, tradisjonelt er Tesla-kortene klokket veldig konservativt. TPD er også satt mer konservativt. Det viktigeste med Tesla-kortene er en meget høy MTBF.

 

Merk også at flere av de 7,1 millioner transistorene ikke kommer til å bli brukt i et GeForce-kort, det vil si at energitettheten kommer til å bli mindre.

 

Slik jeg ser det er dette rimelig optimistisk for et GK110 klokket til himmels, men så har jeg også for lengst forstått at Titan i beste fall vil legge seg 60-70% foran 680 og oftest ligge rundt 35-40% foran og kjøre på en klokkefrekvens rundt 900MHz.

Vi får se! :)

Lenke til kommentar

Sweeat.. da kan jeg endelig hive mine 2 geforce 580gtx på dør.. har venta på dette lenge nå,, så ikke vitsen med å hoppe til 6 serien, Kansje jeg endelig kan kjøre farcry 3 maksa ut på mine 3 skjermer i 5760x1080 oppløsning med disse korta.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...