StigtriX Skrevet 20. mars 2012 Del Skrevet 20. mars 2012 Jeg tror det er flere som ikke følger med her... nVIDIA har sagt at de ikke kommer til å slippe high-end kortet først, og slippe et kraftigere kort med en kjerne senere, slik HKS nevner. Det var kanskje dumt av meg å inkludere et foreløpig navn: GTX 690, fordi X90 har vært synonymt med to kjerner. Det vil kanskje være mer riktig å kalle det 780, med mindre nVIDIA har skiftet fokus og kun gir ut single-kjernekort. Lenke til kommentar
N o r e n g Skrevet 20. mars 2012 Del Skrevet 20. mars 2012 Jeg tror det er flere som ikke følger med her... nVIDIA har sagt at de ikke kommer til å slippe high-end kortet først, og slippe et kraftigere kort med en kjerne senere, slik HKS nevner. Det var kanskje dumt av meg å inkludere et foreløpig navn: GTX 690, fordi X90 har vært synonymt med to kjerner. Det vil kanskje være mer riktig å kalle det 780, med mindre nVIDIA har skiftet fokus og kun gir ut single-kjernekort. GK104 er ikke den største brikken Nvidia har planlagt på 28nm, betyr det at GTX 680 ikke er cutting edge (ja, dette er i høyeste grad i "cutting edge"-sjiktet) Om du nekter å godta at en 300mm^2 er cutting edge er det ditt problem, men når du påstår "GTX 680 er ikke high end" får du reaksjoner. Nvidia har forøvrig ikke sagt noe av det du nevner, rykter har sagt dette. Det er ikke god markedsføring å komme med: "Dette produktet vi har her er bra, men om 8-12 måneder har vi et nytt et som er X% raskere." Lenke til kommentar
baguett Skrevet 20. mars 2012 Del Skrevet 20. mars 2012 Eller bare se på prisen AMD har på sitt toppkort nå. Joda, AMD er ikke billige de heller, mener hele skjermkortmarkedet er litt overpriset. Vet jo ikke selv 100% hvor mye det koster å lage et skjermkort, men skal vedde på at de legger på mange ekstra kroner som ikke hadde behøvd å være der. Er vel sånt som skjer når AMD og nvidia kjemper mot hverandre. Lenke til kommentar
BadCat Skrevet 20. mars 2012 Del Skrevet 20. mars 2012 Kortene må prises slik at aktørene tjener penger i lengden. Overskuddet det ene året er en buffer for et potensielt tap i neste. Det er mulig du ikke unner produsentene å gå i pluss men da bør du også holde munnen den dagen døren stenges for siste gang slik som er skjedd med en del aktører de siste 10 årene. Det mest kjente eksemplet var når det ble kroken på døren for 3Dfx. Du har likevel et valg, man får helt greie mellomklassekort til 1500-2000 kr. Den dagen de vil ha 4 lapper for kort på inngangsnivå kan man snakke om overprising. De fleste som har fått med seg "North American video game crash of 1983" er mer opptatt om at de ulike leverandørene leverer kvalitetsprodukter som er verd å kjøpe enn å klage på at selskapene ønsker fortjeneste. Det er mulig at entusiaster som starter opp i fars garasje først og fremst er ute etter å lage så gode produkter som mulig, men med en gang det stiftes et selskap rundt idéen må tallene gå i pluss for at selskapet skal ha livets rett. 2 Lenke til kommentar
Qweel Skrevet 20. mars 2012 Del Skrevet 20. mars 2012 herlig av Nvidia og sammenligne epler og pærer da! 6000 kr og 4000 kr GPU er jo laget for 2 veldig forskjellige markeder! Lenke til kommentar
Taake89 Skrevet 20. mars 2012 Del Skrevet 20. mars 2012 Noen som vil tippe hvordan dette klarer seg med 3 skjermoppsett kontra amd 7970. bf3 trekkee jo fort 1.5 gb mes en skjerm og med 3 er jeg redd for at det blir en flaskehals der Med mindre nvidia plutselig kan ha 3 skjermer på ett skjermkort, så vil jeg anta at det ikke er noe å sammenligne Lenke til kommentar
Olestokk Skrevet 20. mars 2012 Del Skrevet 20. mars 2012 Det er planen dems, mulighet for tre skjermer på ett kort Lenke til kommentar
HKS Skrevet 20. mars 2012 Del Skrevet 20. mars 2012 Med mindre nvidia plutselig kan ha 3 skjermer på ett skjermkort, så vil jeg anta at det ikke er noe å sammenligne Kepler kommer til å støtte flere enn 2 skjermer... 1 Lenke til kommentar
Malvado Skrevet 20. mars 2012 Del Skrevet 20. mars 2012 Kepler kommer til å støtte flere enn 2 skjermer... Godt mulig. Om det kommer til å få ytelsetap eller ikke og hvordan det kan sammenlignes med Amd ved bruk av feks 3x skjermer blir spennende å se. Med mindre Nvidia har greid å få på plass en virkelig god og propietær løsning så vil jeg anta at vi ikke kommer til å se den samme fleksibiliteten som Eyefinity gir. Lenke til kommentar
lperik Skrevet 21. mars 2012 Del Skrevet 21. mars 2012 Kun 680 som kommer ut imorgen sant, noen som vet når 670/660 er på plass? Lenke til kommentar
indahla Skrevet 21. mars 2012 Del Skrevet 21. mars 2012 (endret) Jeg liker virkelig ikke når diagrammene er så missvisende, Når de begynner på 0,8 ser det ut som 7970 er dritt i forhold.. Som jeg skrev i mitt inlegg over. Grafen "begynner" på 1,0 med 7970 som referansen. På den måten ser man veldig lett og oversiktlig hvor mye raskere eller tregere GTX680 er i prosent. Ikke enig. Hadde grafen begynt på 0 ville det sett riktigere ut: - Et kort som yter likt som 7970 vil få en søyle som er halvparten så lang som et kort som yter dobbelt så mye. Slik den er bygget opp idag vil søylen til et kort som yter dobbelt så mye bli 6 ganger så lang (0,8 - 1,0 mot 0,8 - 2,0) Endret 21. mars 2012 av indahla 1 Lenke til kommentar
xRun Skrevet 21. mars 2012 Del Skrevet 21. mars 2012 (endret) Jeg liker virkelig ikke når diagrammene er så missvisende, Når de begynner på 0,8 ser det ut som 7970 er dritt i forhold.. Som jeg skrev i mitt inlegg over. Grafen "begynner" på 1,0 med 7970 som referansen. På den måten ser man veldig lett og oversiktlig hvor mye raskere eller tregere GTX680 er i prosent. Ikke enig. Hadde grafen begynt på 0 ville det sett riktigere ut: - Et kort som yter likt som 7970 vil få en søyle som er halvparten så lang som et kort som yter dobbelt så mye. Slik den er bygget opp idag vil søylen til et kort som yter dobbelt så mye bli 6 ganger så lang (0,8 - 1,0 mot 0,8 - 2,0) Det handler nok mest om å vise den delen av grafen som viser forskjeller mellom kortene. Hvis alle kort yter mellom 0.8 og 1.4, hvorfor da ta med alt som er under 0.6? Der er jo alle strekene dønn like og forteller ingenting. Slik lages kurver stort sett over alt, innen finans og økonomi, trafikkstatistikk, bilbransjen, stort sett over alt. Ser poenget ditt, men så lenge det er merket at kurver ikke starter i origo, eller at bunnlinjen ikke viser 0, så er det greit. Da handler det om å spare litt plass i plansjen, og vise den biten hvor endringene faktisk er synlig. Endret 21. mars 2012 av xRun Lenke til kommentar
N o r e n g Skrevet 21. mars 2012 Del Skrevet 21. mars 2012 Jeg liker virkelig ikke når diagrammene er så missvisende, Når de begynner på 0,8 ser det ut som 7970 er dritt i forhold.. Som jeg skrev i mitt inlegg over. Grafen "begynner" på 1,0 med 7970 som referansen. På den måten ser man veldig lett og oversiktlig hvor mye raskere eller tregere GTX680 er i prosent. Ikke enig. Hadde grafen begynt på 0 ville det sett riktigere ut: - Et kort som yter likt som 7970 vil få en søyle som er halvparten så lang som et kort som yter dobbelt så mye. Slik den er bygget opp idag vil søylen til et kort som yter dobbelt så mye bli 6 ganger så lang (0,8 - 1,0 mot 0,8 - 2,0) Det handler nok mest om å vise den delen av grafen som viser forskjeller mellom kortene. Hvis alle kort yter mellom 0.8 og 1.4, hvorfor da ta med alt som er under 0.6? Der er jo alle strekene dønn like og forteller ingenting. Slik lages kurver stort sett over alt, innen finans og økonomi, trafikkstatistikk, bilbransjen, stort sett over alt. Ser poenget ditt, men så lenge det er merket at kurver ikke starter i origo, eller at bunnlinjen ikke viser 0, så er det greit. Da handler det om å spare litt plass i plansjen, og vise den biten hvor endringene faktisk er synlig. Ved å ha et stolpediagram som ikke starter på 0 blir alle forbedringer overdimensjonert, hensikten er å få forbedringene til å se bedre ut enn de er. Med tanke på at det er et fåtall av mennesker som ser gjennom dette er det er en stygg markedsstrategi. Lenke til kommentar
Olestokk Skrevet 21. mars 2012 Del Skrevet 21. mars 2012 regner vel med at resultatene er med turbo clock på 1058? Lenke til kommentar
N o r e n g Skrevet 21. mars 2012 Del Skrevet 21. mars 2012 regner vel med at resultatene er med turbo clock på 1058? Hadde vi bare visst noe mer konkret om klokkene enn 1006MHz base clock og "turbo"... Lenke til kommentar
HKS Skrevet 21. mars 2012 Del Skrevet 21. mars 2012 regner vel med at resultatene er med turbo clock på 1058? Hadde vi bare visst noe mer konkret om klokkene enn 1006MHz base clock og "turbo"... Hva lurer du på da, kanskje jeg kan oppklare noe. Lenke til kommentar
N o r e n g Skrevet 21. mars 2012 Del Skrevet 21. mars 2012 (endret) regner vel med at resultatene er med turbo clock på 1058? Hadde vi bare visst noe mer konkret om klokkene enn 1006MHz base clock og "turbo"... Hva lurer du på da, kanskje jeg kan oppklare noe. Er turbo låst til maks 1058 MHz eller er den dynamisk så du kan potensielt se over 1100MHz? Jeg har ikke store håp her Endret 21. mars 2012 av arni90 Lenke til kommentar
Playron Skrevet 21. mars 2012 Del Skrevet 21. mars 2012 (endret) Er det egentlig bevist at kortet kommer ut i morgen, torsdag 22. mars, eller er bare det rykter det og? Playron Endret 21. mars 2012 av Playron Lenke til kommentar
Gabri3L Skrevet 21. mars 2012 Del Skrevet 21. mars 2012 Kun 680 som kommer ut imorgen sant, noen som vet når 670/660 er på plass? I følge en release schedule som man kunne lese i tråden på NGF forumet så kommer det 2 kort, mener det var 680 og 670. Men ikke 100% sikker. Om kilden er troverdig er jo også en annen sak... Lenke til kommentar
Gabri3L Skrevet 21. mars 2012 Del Skrevet 21. mars 2012 Jeg liker virkelig ikke når diagrammene er så missvisende, Når de begynner på 0,8 ser det ut som 7970 er dritt i forhold.. Som jeg skrev i mitt inlegg over. Grafen "begynner" på 1,0 med 7970 som referansen. På den måten ser man veldig lett og oversiktlig hvor mye raskere eller tregere GTX680 er i prosent. Ikke enig. Hadde grafen begynt på 0 ville det sett riktigere ut: - Et kort som yter likt som 7970 vil få en søyle som er halvparten så lang som et kort som yter dobbelt så mye. Slik den er bygget opp idag vil søylen til et kort som yter dobbelt så mye bli 6 ganger så lang (0,8 - 1,0 mot 0,8 - 2,0) Det handler nok mest om å vise den delen av grafen som viser forskjeller mellom kortene. Hvis alle kort yter mellom 0.8 og 1.4, hvorfor da ta med alt som er under 0.6? Der er jo alle strekene dønn like og forteller ingenting. Slik lages kurver stort sett over alt, innen finans og økonomi, trafikkstatistikk, bilbransjen, stort sett over alt. Ser poenget ditt, men så lenge det er merket at kurver ikke starter i origo, eller at bunnlinjen ikke viser 0, så er det greit. Da handler det om å spare litt plass i plansjen, og vise den biten hvor endringene faktisk er synlig. Ved å ha et stolpediagram som ikke starter på 0 blir alle forbedringer overdimensjonert, hensikten er å få forbedringene til å se bedre ut enn de er. Med tanke på at det er et fåtall av mennesker som ser gjennom dette er det er en stygg markedsstrategi. Ved første øyekast når jeg så det stolpediagrammet så tenkte jeg: "Men for pokker, holder de på med den slags idioti fremdeles? Kappe bunnen av stolpene for å pynte på resultatet... Hvor dumme tror de egentlig at vi er?!" Og da nettopp på grunn av det som alle her påpeker om lengden på stolpene og hvor de starter på en skala. Det tok meg imidlertid ikke stort mer enn 20 sekunder til før jeg så hvorfor diagrammet er satt opp slik, og da følte jeg meg faktisk litt dum som hadde reagert som jeg gjorde i utgangspunktet. Det er jo en selvfølge at nVidia ønsker å tydeligjøre at det nye toppkortet demmes er raskere en AMDs toppkort. (Man kan stille spørsmålstegn om valget av benchmarks, men det blir jo en annen diskusjon.) Men om AMD har en søyle fra 0-100 fps og nVidias søyle stopper på 110fps så vil mange se at nVidias søyle "er jo bare såvidt litt lenger". Begge deler vil jo også representere god spillbarhet med begge kort i det samme spillet. Jeg skjønner godt at nVidia ikke velger den tilnærmingen, men heller fokuserer på forskjellen i %, eller angitt som 1,1 eller 1,4 osv. Er dette "feil", eller gir det et "skjevt" bilde av ytelsesforskjellene? Nei, vil jeg si. Det er en meget korrekt og oversiktlig måte å vise det på. Når man ikke liker dette så misstenker jeg det å være på grunn av at man ØNSKER at det skal fremkomme at forskjellen i bruk vil være marginal i nVidias favør. Og hvorfor noen skulle ønske det... Ja det tror jeg vi alle vet hvorfor. Men bare for å ha sagt det før jeg selv blir beskyldt for å være fanboy; Jeg har og har hatt flere ATI kort enn nVidia kort. Og neste oppgradering er helt åpen for min del, mitt GTX470 fungerer fremdeles kjempebra til alle spill jeg spiller på datarommet, og i stuen bruker jeg en maskin med HD4870x2. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå