WheelMan Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 (endret) Mye har vært sagt om Geforce GTX 280 og GTX 260, nå avklarer Nvidia en rekke spørsmål. Les mer Endret 28. mai 2008 av WheelMan Lenke til kommentar
Foley Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 Mye har vært sagt om Geforce GTX 280 GTX og 260, nå avklarer Nvidia en rekke spørsmål. Jeg var visst ikke den første til å se den nei. Lenke til kommentar
Uglegutt Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 ...men for designere vil nok dette sette en liten stopper "Designere", antar det menes grafikere etc, de bruker vel gjerne profesjonelle løsninger, med mer minne etc.. Lenke til kommentar
moscito Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 8+6-pins kontakter Vil det da funke med 6+6pin som jeg har på PSUen min??? 600$ er jo bare 3000kr, men med avgifter kan vi vel regne med 4-5000kr? Lenke til kommentar
WheelMan Skrevet 28. mai 2008 Forfatter Del Skrevet 28. mai 2008 Mye har vært sagt om Geforce GTX 280 GTX og 260, nå avklarer Nvidia en rekke spørsmål. Jeg var visst ikke den første til å se den nei. Redaktøren som retta ingressen, skyld på han 8+6-pins kontakter Vil det da funke med 6+6pin som jeg har på PSUen min??? 600$ er jo bare 3000kr, men med avgifter kan vi vel regne med 4-5000kr? Det vil vel fungere, men med redusert funksjonalitet på samme måte som ATI sine kort. Det kan stemme godt ja. Lenke til kommentar
pxK Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 Bleh Vil helst ha en super skjermkort uten at den er gigantisk og varm som en ovn.. Lenke til kommentar
WheelMan Skrevet 28. mai 2008 Forfatter Del Skrevet 28. mai 2008 Varme er for mange enthusiaster synonymt med kraft. Det vil si, mer varme, mer kraft Lenke til kommentar
pxK Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 Jo, men hadde vært mye bedre med noe som ikke kanskje like stor som en 880gts. Akkurat passe stor imo, det jeg ikke liker er at jo større og kraftigere så må du ha større kabinett og det suger max når du skal ha en 700w strømforsyning, 5 disker og en bra cpu kjøler som kjøler bra. Ender som oftest med en STOR kabinett vis alt skal ha plass da :/ stor kabinett imo er styggt.. Lenke til kommentar
JFM Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 Kan man ut fra dette si hvordan Geforce GTX 280 yter i forhold til 9800GX2? Lenke til kommentar
s13 Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 Blir dette 2900XT all over again? Lenke til kommentar
kjeLL// Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 200w er så sykt mye for ett kort det. når mitt system med [email protected] 2gb ram og hd3850 bruker det når jeg får pressa den maks. får håpe for nvidia sin del at det bruker VELDIG lite under idle. hva er den chippen nærmest sli brua fornoe? Lenke til kommentar
Sokkalf™ Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 Teksture fill-rate: 48,2 Billioner/sek Mener dere egentlig milliarder, eller går det virkelig så fort for tiden? Lenke til kommentar
Atypic Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 Hehe, 48 _trillioner_ er vel å ta i litt :-) Regner med det er snakk om milliarder her, ikke billioner (1 amerikansk billion = 1 norsk milliard). Lenke til kommentar
Bentus Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 Begynner å tviholde meg mer og mer til ATI igjen=) Ser nok ut som nvidia vil bare tjene penger, litt rip off for folket. Lenke til kommentar
fflex Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 (endret) Begynner å tviholde meg mer og mer til ATI igjen=) Ser nok ut som nvidia vil bare tjene penger, litt rip off for folket. Hvilken verden lever du i? Alle bedrifter er avhengig av å tjene penger. Ontopic: Ser ut som disse kortene vil yte veldig veldig bra... too bad jeg ikke er interessert i å bruke mer penger på nytt kabbis + PSU Endret 28. mai 2008 av fflex Lenke til kommentar
web76 Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 En annen ting er optimalisering for Ageia physx i hardware på gpu, skal vel også være implementert her... Lenke til kommentar
evgeny Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 Kan man ut fra dette si hvordan GTX 280 yter i forhold til 8800GTX? Lenke til kommentar
RamGuy Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 Syntes egentlig ikke dette så så imponerende ut jeg, men er mulig at arkitekturen til GPU-en er såpass bra at det booster det hele, samt det er vell noe PhysX hardware å spore på disse kortene? Lenke til kommentar
Simen1 Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 Litt flisespikking på artikkelen fra min side: Det vil si at ved under optimale forhold og maks load genererer 236 Watt med varme På norsk kalles det for full belastning Nvidia har også prestert å fylle opp alle mulige minneplasser på dette kortet. Det betyr at de står fast på 1 GB minne, og kan dermed ikke levere kort med 2 GB. Det gjør de faktisk enklere enn ATI siden det er relativt enkelt å kjøpe inn brikker med mer kapasitet. Altså 16*128 MByte i stedet for 16*64 MByte. Det er vankeligere for ATI siden de hadde trengt 8*256 MByte for å få 2 GByte. 256 MB-brikker er vel ikke mulig å få tak i ennå så vidt jeg vet og når de blir det så vil de neppe klare like høy klokkehastighet som de mindre brikkene. Når du tenker deg om litt, konkluderer du nok med at 1 GB på 512-bit er mer enn nok, men for designere vil dette muligens sette en liten stopper. Jeg tenker meg om men klarer ikke å finne noen gode grunner til at 1GB på 512-bit er for lite. Lenke til kommentar
Bentus Skrevet 28. mai 2008 Del Skrevet 28. mai 2008 Begynner å tviholde meg mer og mer til ATI igjen=) Ser nok ut som nvidia vil bare tjene penger, litt rip off for folket. Hvilken verden lever du i? Alle bedrifter er avhengig av å tjene penger. Tjene penger ja, det er no vel rip off for folket alikevell. Er ofte borti produksjon, ser at de alltid bare legger til noe litt ekstra for hver gang. Som skal bli et "nytt produkt" Som IKEA alltid gjør hvertfall:P (Vri litt på dinna du, så har vi et nytt produkt) De kunne no ha gjort mye mer ut av de nye produkta viss de villet, vær litt mer ambisiøs og se litt lengre frem enn skolisene sine. Må jo kjøpe nytt skjermkort hvert år for å få spilt noe særlig. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå