Nizzen Skrevet 28. september 2012 Rapporter Del Skrevet 28. september 2012 Noobvannkjøling til 6 serien som funker meget bra! http://www.kitguru.net/components/graphic-cards/zardon/arctic-accelero-hybrid-review-with-nvidia-gtx680/5/ Perfekt for oss noobs som ikkje liker å dille med "køstom" vannkjøling. Lenke til kommentar
**dp** Skrevet 29. september 2012 Rapporter Del Skrevet 29. september 2012 Noobvannkjøling til 6 serien som funker meget bra! http://www.kitguru.n...vidia-gtx680/5/ Perfekt for oss noobs som ikkje liker å dille med "køstom" vannkjøling. mao perfekt for deg? Lenke til kommentar
Malvado Skrevet 1. oktober 2012 Rapporter Del Skrevet 1. oktober 2012 Kan være greit å påpeke her at MSI har trikset litt og blitt tatt på fersken av Tomshardware , hovedsakelig så blir en av PWM kontrolleren overvoltet opp mot 88% noe som ikke er bra for stabilitet eller levetiden på komponentene som er brukt , det gjør også at en del brukere har fått problemer med å bruke skjermkortet i det hele tatt. Lenke til kommentar
N o r e n g Skrevet 3. oktober 2012 Rapporter Del Skrevet 3. oktober 2012 http://www.brightsideofnews.com/news/2012/10/3/nvidias-green-light-program--improving-quality-or-strangling-innovation.aspx In the world of graphics cards, there is always something quiet brewing underneath the surface. Over the past few months we've been clued into a program that Nvidia has been running since the Fermi days. This program is called Green Light and as you can imagine, it has to do with Nvidia giving a 'green light' to add-in-board partners. Today, we got confirmation that this program is still active in the form of the unfortunate announcement that EVGA would no longer be attaching their EVBot voltage tool to their GTX 680 Classified cards. These cards, for those unfamiliar with EVGA's products, are designed to be the best overclocking graphics cards on Earth with custom cooling and voltage regulation in addition to having additional power and manual voltage control. Les resten av artikkelen for litt interessant info angående overvolting og Nvidia-kort, en veldig interessant bit: Regarding overvoltaging above our max spec, we offer AICs two choices: · Ensure the GPU stays within our operating specs and have a full warranty from NVIDIA. · Allow the GPU to be manually operated outside specs in which case NVIDIA provides no warranty. 1 Lenke til kommentar
Nizzen Skrevet 10. oktober 2012 Rapporter Del Skrevet 10. oktober 2012 (endret) 306.97 whql http://www.guru3d.com/files_details/geforce_306_97_whql_3264_bit.html Endret 10. oktober 2012 av Nizzen 1 Lenke til kommentar
Blazer Skrevet 11. oktober 2012 Rapporter Del Skrevet 11. oktober 2012 litt lavere boost clock med den lavere driveren, men ytelsen ser ut til å være lik. hmz. Lenke til kommentar
Gigahertz Skrevet 14. oktober 2012 Rapporter Del Skrevet 14. oktober 2012 (Bruker den nyeste driveren) Er det bare meg eller er det noen nyere spill som har mye 'stuttering'? Darksiders II Sleeping Dogs Er noen eksempler. Lenke til kommentar
N o r e n g Skrevet 16. oktober 2012 Rapporter Del Skrevet 16. oktober 2012 (endret) Spesifikasjonene til K20 er avslørt: http://www.cadnetwor...z_g13/system=88 2496 aluer, 320-bit minnekontroller @705MHz For meg virker det dessverre som GF100 er reinkarnert, når Nvidia må deaktivere 2 SMXer og 1 minnekontroller/ROP-partisjon sammen med en kjernefrekvens på 705MHz for Tesla-linjen der de har høyest marginer for å plukke de beste brikkene bør det gå noen varsellys for hvordan GK110-baserte Geforce-kort kommer til å bli. Endret 16. oktober 2012 av arni90 1 Lenke til kommentar
Gigahertz Skrevet 16. oktober 2012 Rapporter Del Skrevet 16. oktober 2012 Spesifikasjonene til K20 er avslørt: http://www.cadnetwor...z_g13/system=88 2496 aluer, 320-bit minnekontroller @705MHz For meg virker det dessverre som GF100 er reinkarnert, når Nvidia må deaktivere 2 SMXer og 1 minnekontroller/ROP-partisjon sammen med en kjernefrekvens på 705MHz for Tesla-linjen der de har høyest marginer for å plukke de beste brikkene bør det gå noen varsellys for hvordan GK110-baserte Geforce-kort kommer til å bli. Hva mener du med varsellys? Er du sikkert på at den kilden er troverdig? Lenke til kommentar
N o r e n g Skrevet 16. oktober 2012 Rapporter Del Skrevet 16. oktober 2012 (endret) Spesifikasjonene til K20 er avslørt: http://www.cadnetwor...z_g13/system=88 2496 aluer, 320-bit minnekontroller @705MHz For meg virker det dessverre som GF100 er reinkarnert, når Nvidia må deaktivere 2 SMXer og 1 minnekontroller/ROP-partisjon sammen med en kjernefrekvens på 705MHz for Tesla-linjen der de har høyest marginer for å plukke de beste brikkene bør det gå noen varsellys for hvordan GK110-baserte Geforce-kort kommer til å bli. Hva mener du med varsellys? Er du sikkert på at den kilden er troverdig? Yield er helt klart ikke god om Nvidia må kutte så mye maskinvare og samtidig ender opp med en klokkefrekvens mindre enn 10% høyere enn M2090. Selv GF100 (som var en katastrofe) ble kuttet mindre ned for Tesla-produktene enn dette. Om Nvidia kutter like mye på Geforce-varianten ser vi på noe sånt som: 2496 - 2688 CUDA cores 208 - 224 TMUer 40 ROPs 320-bit minnekontroller 850MHz core Jeg har svært vanskelig for å tro at et slikt kort vil overgå GTX 680 med mer enn 15% Kilden er en tysk e-tailer av CAD workstations som har vært i drift i over 3 år, jeg tipper de la inn K20 i databasen og glemte å skjule den inntil lansering. Endret 16. oktober 2012 av arni90 Lenke til kommentar
efikkan Skrevet 16. oktober 2012 Rapporter Del Skrevet 16. oktober 2012 (endret) GF100 var ingen katastrofe, men Nvidia hadde problemer siden de måtte endre på produksjonsporsessen sent i utviklingssyklen (AMD hadde samme problem, men taklet justeringene bedre). Likevel var GF100 en god brikke. Hvis vi går ut ifra at estimatet ditt om spesifikasjoner for GeForce basert på GK110 er riktig: GFlop: 3090 mot 4243 - 4570 (+37% - 48%) GP/s: 32.2 mot 34.0 (+6%) GT/s: 128.8 mot 177.0 - 190.4 (+37% - 48%) GTX 680 er allerede holdt tilbake av ROP-ytelse, så hvis dette er riktig vil et slikt kort bli tragisk til spillytelse :S Jeg håper virkelig det er blitt gjort endringer i rasterizeren. Endret 16. oktober 2012 av efikkan Lenke til kommentar
N o r e n g Skrevet 16. oktober 2012 Rapporter Del Skrevet 16. oktober 2012 GF100 var ingen katastrofe, men Nvidia hadde problemer siden de måtte endre på produksjonsporsessen sent i utviklingssyklen (AMD hadde samme problem, men taklet justeringene bedre). Likevel var GF100 en god brikke. GF100 var da såvisst en katastrofe for Nvidia? 6 måneder forsinket, strømforbruk i skyene, bortimot 20% lavere ytelse enn forutsagt, elendig yield. Om det ikke er en katastrofe, vet ikke jeg hva som er det. Lenke til kommentar
efikkan Skrevet 16. oktober 2012 Rapporter Del Skrevet 16. oktober 2012 (endret) GF100 var ingen katastrofe, men Nvidia hadde problemer siden de måtte endre på produksjonsporsessen sent i utviklingssyklen (AMD hadde samme problem, men taklet justeringene bedre). Likevel var GF100 en god brikke. GF100 var da såvisst en katastrofe for Nvidia? 6 måneder forsinket, strømforbruk i skyene, bortimot 20% lavere ytelse enn forutsagt, elendig yield. Om det ikke er en katastrofe, vet ikke jeg hva som er det. Ytelsen var ikke lavere enn Nvidia hadde lovet, og ytelsen slo konkurrenten.Under normalt bruk var ikke effektforbruket ekstremt, men det var høyere enn konkurrenten. Kepler er mer "mislykket" sammenlignet med Fermi, her har ikke Nvidia klart å levere toppbrikken GK100 en gang. Endret 16. oktober 2012 av efikkan Lenke til kommentar
Gigahertz Skrevet 16. oktober 2012 Rapporter Del Skrevet 16. oktober 2012 GTX 480 var da et fantastisk skjermkort (det raskeste single GPU...) som kun slet med litt for høy strømforbruk og temperatur. Jeg stoler ikke på tilfeldige kilder eller forventninger basere på disse kildene. 1 Lenke til kommentar
FrihetensRegn Skrevet 16. oktober 2012 Rapporter Del Skrevet 16. oktober 2012 Hva blir kodenavnet for nvidias 7xxx serie? GK100? Når kommer de ut? Lenke til kommentar
N o r e n g Skrevet 16. oktober 2012 Rapporter Del Skrevet 16. oktober 2012 GF100 var ingen katastrofe, men Nvidia hadde problemer siden de måtte endre på produksjonsporsessen sent i utviklingssyklen (AMD hadde samme problem, men taklet justeringene bedre). Likevel var GF100 en god brikke. GF100 var da såvisst en katastrofe for Nvidia? 6 måneder forsinket, strømforbruk i skyene, bortimot 20% lavere ytelse enn forutsagt, elendig yield. Om det ikke er en katastrofe, vet ikke jeg hva som er det. Ytelsen var ikke lavere enn Nvidia hadde lovet, og ytelsen slo konkurrenten.Under normalt bruk var ikke effektforbruket ekstremt, men det var høyere enn konkurrenten. Kepler er mer "mislykket" sammenlignet med Fermi, her har ikke Nvidia klart å levere toppbrikken GK100 en gang. Jeg tror vi kan være enige om at verken Fermi og Kepler har levert alt Nvidia lovet. La oss heller diskutere GK110 og hva de nedkuttede spesifikasjonene (13 SMX + 5x 64-bit minnekontroll) tyder på. GTX 480 var da et fantastisk skjermkort (det raskeste single GPU...) som kun slet med litt for høy strømforbruk og temperatur. Jeg stoler ikke på tilfeldige kilder eller forventninger basere på disse kildene. GTX 480 var like "fantastisk" som FX-8150. Det var ikke "litt for høyt strømforbruk," det var mer typen "vanvittig høyt strømforbruk." http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/30.html Lenke til kommentar
Gigahertz Skrevet 16. oktober 2012 Rapporter Del Skrevet 16. oktober 2012 GTX 480 var like "fantastisk" som FX-8150. Det var ikke "litt for høyt strømforbruk," det var mer typen "vanvittig høyt strømforbruk." http://www.techpower...0_Fermi/30.html GTX 480 ble definert som det raskeste skjermkortet, GTX 470/460 solgte i bøtter og spann. Med andre ord så var det ikke en fiasko. I tillegg så gjør Nvidia det ganske bra med tanke på strømforbruk nå - faktisk bedre enn AMD. Lenke til kommentar
efikkan Skrevet 16. oktober 2012 Rapporter Del Skrevet 16. oktober 2012 Jeg tror vi kan være enige om at verken Fermi og Kepler har levert alt Nvidia lovet. Fortell meg hvilke eksakte egenskaper lovde Nvidia som de ikke holdt? Det eneste åpenbare jeg kan se er lanseringsdatoen. Og GTX 460 og GTX 470 var en salgssuksess. Det er forventet at toppmodellen svir av mer effekt og ikke gir like mye for pengene. GTX 480 var like "fantastisk" som FX-8150. Det var ikke "litt for høyt strømforbruk," det var mer typen "vanvittig høyt strømforbruk." Du overdriver, og husk de fleste testet skjermkortet før det kom en stabil driver. FX-8150 er en helt annen sak, den yter middelmådig men svir av mer effekt enn Intels langt krafigere high-end. Lenke til kommentar
Andrull Skrevet 16. oktober 2012 Rapporter Del Skrevet 16. oktober 2012 (endret) Blir helt feil å sammenligne et FX-8150, som i beste fall er en middelklasse prosessor, og ikke noe i nærheten av konkurrentene i ytelse. GTX 480 derimot, var en ytelseskonge, og da kan man bruke mer strøm en konkurrenten. Den var siktet mot entusiastmarkedet, og personlig så gir jeg blaffen i om den bruker hvor mye effekt. Og jeg var/er nok også langt fra den eneste. Det var ikke bare en ytelseskonge, men faktisk dobbelt så kraftig som forgjengeren, samt DX11 API. Det er ikke hvert år at vi får så høy ytelsesforbedring. I hvert fall ikke i det siste... Skal man sammenligne det mot noe, så ville det vært HD 7970, som bruker en god del mer strøm enn konkurrenten GTX 680. Jeg ville ikke kalt verken HD 7970 eller GTX 480 som noen flopp. Men uansett, det var vel kanskje ikke dette som var poenget ditt Arni. Jeg er veldig spent på hvordan GK110 blir, og det lover jo ikke nødvendigvis bra. Men det trenger heller ikke bety all verdens. For alt vi vet, så kan arkitekturen være svært effektiv, og at det ikke gjør noe om deler av kjernen ikke er aktivert. Det MÅ ikke bety at det blir som GF100, hvor vi har et varmt beist. Arkitekturen kan fortsatt ha god effektivitet og god ytelse. Endret 16. oktober 2012 av Andrull 1 Lenke til kommentar
N o r e n g Skrevet 16. oktober 2012 Rapporter Del Skrevet 16. oktober 2012 (endret) Jeg tror vi kan være enige om at verken Fermi og Kepler har levert alt Nvidia lovet. Fortell meg hvilke eksakte egenskaper lovde Nvidia som de ikke holdt? Det eneste åpenbare jeg kan se er lanseringsdatoen. Og GTX 460 og GTX 470 var en salgssuksess. Det er forventet at toppmodellen svir av mer effekt og ikke gir like mye for pengene. GTX 480 var like "fantastisk" som FX-8150. Det var ikke "litt for høyt strømforbruk," det var mer typen "vanvittig høyt strømforbruk." Du overdriver, og husk de fleste testet skjermkortet før det kom en stabil driver. FX-8150 er en helt annen sak, den yter middelmådig men svir av mer effekt enn Intels langt krafigere high-end. Denne artikkelen er fra november 2009: http://hexus.net/tec...ercomputing-09/ Introduced as part of the Tesla 20-series are the Tesla C2050 and C2070, PCIe 2.0 cards with up to 3GB and 6GB (respectively) of on-board GDDR5 memory and double precision performance in the range of 520GFlops - 630 GFlops. I dag: http://www.nvidia.co...rcomputing.html Peak double precision floating point performance 515 Gflops Det er noe flisespikking, men Nvidia klarte klart like fullt ikke å nå deres forventede ytelsesmål for Fermi-baserte Tesla-kort. GTX 460 og 470 var salgssuksesser, men det var like mye fordi folk ikke stolte på ATIs drivere og at GTX 460 plasserte seg pris- og ytelsesmessig midt imellom 5770 og 5850. GTX 480 brukte mer strøm enn GTX 295, det trakk nesten dobbelt så mye som forgjengeren GTX 285. Å sammenligne kortet med FX-8150 er egentlig ganske snilt. FX-8510 trakk i det minste ikke betydelig mer enn Phenom II X6 1100T. Ytelsesmessig var 480 ca 50% raskere enn GTX 285 ved lansering, og dette endret seg ikke voldsomt i ettertid heller. Men igjen, dette bryr meg ikke så voldsomt, det som bryr meg er at K20-spesifikasjonene er såpass nedkuttet fra hva GK110 har av maskinvare. Endret 16. oktober 2012 av arni90 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå