Imsochobo Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Eksempel!! Ja tenk vi får XFX GTX 295 1792MB 650M PhysX CUDA XXX Ultra Limited Edition" Og jada så har vi kansje også XFX GTX 295 1792MB 630M PhysX CUDA XXX Ultra Limited Edition" Hva F er forskjellen på 630 M og 650 M ? jaja også får man kansje også XFX GTX 295 1792MB 650M PhysX CUDA XXX Superclocked Ultra Limited Edition" det ser jeg på som typisk nvidia. bare de klarer å få varmen UT hjelper det vs GX2 designet:p Lenke til kommentar
Unforgotten Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 enig med "Malvado" her. Lenke til kommentar
War Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Vannkjøling på OC 280 ligger på 45C med 3 kort i 3way sli.Skulle ikke det bety kanskje 40-44C med 2 kort = 1x XFX GTX 295 1792MB 650M PhysX CUDA XXX Ultra Limited Edition Vanne bryr vel seg ikke om det er 2 kjerner vedsiden av hverandre eller gjennom en tomme rør først. I tillegg er det 260 kjerner og ikke 280. Lenke til kommentar
mofopop Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Det spørs om de klarer å konkurrere på pris da. Når 280 er såpass dyrt som det er så tør jeg ikke tenke på hva x2 kortet kommer til å koste. Lenke til kommentar
Dudeson Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Skriv din kommentar.... Lenke til kommentar
Vod kaNockers Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Nvidia prøver å stjele oppmerksomheten like før jul ja. Tror det blir som med ATI's 2900 kortet, little to late. Ale sitter med 4870 2 kortene allerede. Lenke til kommentar
War Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Alle sitter med 4870 2 kortene allerede. Alle som vil ha et sånt kort ja, smart tenkt. Skal de kapre kundene må de selge for spottpris Lenke til kommentar
leifeinar Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 sa ikke ati at de hadde noe på lur i den brikken/broen som er i mellom gpuene, noe som kunne aktiveres viav driver og som ga ekstra ytele?? Lenke til kommentar
WheelMan Skrevet 4. desember 2008 Forfatter Del Skrevet 4. desember 2008 Jo, og det skal også i teorien fjerne mikrostuttering. Lenke til kommentar
LockBreaker Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Ingen tester enda da? Lenke til kommentar
henbruas Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Det må jeg si. Nvidia kan virkelig dette med forvirrende produktnavn. Lenke til kommentar
Chris93 Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Dette blir nok dyrt ja. Kanskje det kommer over 4000. Jeg tør ikke å tenke på hva det hadde kostet før Nvidia hadde senket prisene på GTX 200 serien. Lenke til kommentar
Betroz Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Det at nVidia skal komme med 55nm GPU'er er bekreftet. Men dette kortet dere snakker om her er vel ikke det enda. GTX 260 Core 216 yter vel litt bedre enn AMD 4870 1GB etter det jeg har lest (var med 180.43 drivere). Så et dual GPU kort burde da slå AMD 4870 X2. Når det gjelder varmen, så vet vi ikke hva nVidia får til med 55nm prosessen. Ikke noe dårligere enn AMD vil jeg tro. Lenke til kommentar
Betroz Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Hmmm på 40nm burde nVidia klare å presse 2 stk GTX 280 på samme kort...og ha høyere frekvenser enn i dag. Noe slikt jeg venter på skal overta etter 9800GTX kortet mitt. Lenke til kommentar
Stig Jøran Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Kanskje jeg må ha et slikt et for å kjøre GTA IV rent Lenke til kommentar
WheelMan Skrevet 4. desember 2008 Forfatter Del Skrevet 4. desember 2008 GTA minner meg om crysis, enormt dårlig kode Hmmm på 40nm burde nVidia klare å presse 2 stk GTX 280 på samme kort...og ha høyere frekvenser enn i dag. Noe slikt jeg venter på skal overta etter 9800GTX kortet mitt. Her snakker vi ja, skal ikke se bort ifra at vi vil se noe slikt på nyåret - rundt CeBIT kanskje. Lenke til kommentar
Ironmann Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Må si som en forfrossen nordlenning at overskriften appelerte Nvidia tar over ytelsestronen antageligvis lett med denne og så er det bare å håpe at AMD\ATi svarer enda hardere tilbake Pirke: "Som (nevnt tidligere) flytter Nvidia sine GT200-brikker over til 55 nm-teknikk." Fjerne parantes siden "som flytter Nvidia sine osv" ikke helt mye mening? Er nok ikke skriveleifguru selv men stusset litt på den setningen Lenke til kommentar
aGal Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 Er vel ikke lenge før man får skjermkort med kokeplate så man kan mekke nudler mens man gamer... Lenke til kommentar
Stigma Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 (endret) Både tittelen og de fleste kommentarene her i tråden er totalt urimelige. Dere gir 260 flak for at den er en varmeovn?? LOL! Om noe så er det jo 4870 som er en varmeovn i og med at den er varmere på alle måter. Fakta om 260 effektforbruk: - På load bruker den litt mindre enn 4870 (men er også litt raskere likevel) - På idle bruker den MYE mindre enn 4870 pga. Nvidias powerplay som har blirr veldig bra i senere tid. - 260 er bruker mindre effekt på idle enn noe annet kort på Nvidias side (og de fleste på ATIs også) så langt bak som jeg gadd å sjekke - 8800GTX/GT, og sansynligvis enda lengre bak også. Og dette er en "varmeovn"? På hvilken måte liksom? Vi er tydeligvis inne i en trendy liten "det er kult å hate Nvidia" bølge siden folk velger å ignorere fakta fullstendig. Så latterlig... Kilder: http://www.anandtech.com/video/showdoc.aspx?i=3408&p=9 http://www.anandtech.com/video/showdoc.aspx?i=3334&p=9 (og dette er ikke en gang med 55nm kjerner, noe som ytterligere vil redusere effektforbruk). PS: Jeg har ingenting mot ATI. Jeg kjøper de som selger det beste produktet uavhengig av merke, men rett skal være rett. Varme er IKKE en svakhet på 260, eller 280 for den saks skyld, i forhold til historikken og konkurransen. -Stigma Endret 4. desember 2008 av Stigma Lenke til kommentar
Professional Skrevet 4. desember 2008 Del Skrevet 4. desember 2008 YAY endelig noe eg kan tenke meg å kjøpe, ikke pokker om eg tar et 4870x2 typisk ATI med elendige drivere og masse svada piss om ting som "kommer", høres ut som linux miljø. Patetisk. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå