O.J Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 (endret) Hvorfor bruker ikke kortet GDDR4? X1950 er jo allerede utstyrt med det, og R600 vil få det. Endret 6. oktober 2006 av O.J Lenke til kommentar
Capo Crimini Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 Ville absolutt vært en fordel om Nvidia ville fokusert mer på drivere for linux, slik ATI har gjort. Alvorlig talt? Er jo heller omvendt. 7015120[/snapback] Er nok jeg som surrer ja. Blandet mine erfaringer med X800XL og 6600GT. Jeg liker ikke at ATi krever MS FrameWork. Tungvint løsning ... Lenke til kommentar
efikkan Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 Burde det ikke være mulig med produksjon på 65nm for TSMC (eller hvem det er som står for produksjonen)? Men det hadde kanskje endet med at nVidia hadde klokket grafikkbrikkene ennå høyere. Lenke til kommentar
SiRious Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 Hvorfor bruker ikke kortet GDDR4? X1950 er jo allerede utstyrt med det, og R600 vil få det. 7016300[/snapback] du må ikke glemme at disse specs er ikke bekreftet, er godt mulig vi får se GDDR4, tror ikke Nvidia slipper ut GDDR3 mens ATI får steget framfor med GDDR4, og jeg skal ikke si noe sikkert, men kan nesten vedde på at de kanskje kommer med 80NM også.. Enten det eller så slipper de vel ut 8900GTX el 8850GTX med GDDR4 og 80 NM.. Lenke til kommentar
Simen1 Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 Hvorfor bruker ikke kortet GDDR4? X1950 er jo allerede utstyrt med det, og R600 vil få det.7016300[/snapback] Det er mange i tråden som har spurt om det. Jeg har ikke noe svar, men noen spekulasjoner. Jeg tipper GDDR4 er en god del dyrere for produsentene nå som det er ganske nytt. I tillegg har ikke GDDR4 blitt optimalisert skikkelig ennå. Det gjør at hastigheten ikke er noe spesielt mye bedre enn på GDDR3. (1800MHz vs. 2000MHz). I tillegg så blir behovet for GDDR4 kraftig redusert ved at de bruker en bredere minnebuss. Radeon X1950XTX har GDDR4 på 2000MHz og 256bit minnebuss. Det gjør at den totale minnebåndbredden blir: 2,0GHz*256bit/8 = 64 GB/s. geforce 8800GTX har "bare" 1800MHz GDDR3 men til gjengjeld 384bit minnebuss. Båndbredden på denne er 1,8GHz * 384bit/8 = 86,4 GB/s. Altså vesentlig raskere enn konkurrenten til tross for "bare" GDDR3 og "bare" 1,8GHz klokkefrekvens på minnet. Resultatet er at nvidia får dyrere og større PCB (kretskort) men slipper unna med billigere minne. Resultatet av denne prioriteringen synes jeg er veldig bra. 35% bedre minnebåndbredde er ganske mye. Økningen fra 4 til 6 individuelle 64bit minnebusser er også positivt for ytelsen. Lenke til kommentar
MistaPi Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 Det kan også ha en god del å gjøre med tilgjenglighet. Lenke til kommentar
C₈H₁₀N₄O₂ Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 Hallo? Hva er det som skjer her? NV har jo sendt den forbanna pislekjøleren med 7900GT og nå kommer de med vannkjøling som stock? Hvor mye varme uvikler egentlig dette kortet? Og hva er doble 9-pinners strømkontakter for noe jalla? Må jeg stappe kabinettet fullt av adapere igjen nå da... Jeg som trodde 580W PSU med støtte for SLI/Crossfire ville holde lenge... Jajaja, så feil kan man ta, gitt... Er det forresten noen her som har den fjerneste anelse om hvorvidt de nye ATiene vil kunne Crossfires på 975X-brikkesett? Lenke til kommentar
smy Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 (endret) tror les en plass at gddr 4 som vi har idag hadde slakke timing elns så om stemme gddr3 så er det kanskje ikke så dumt vits ikke er noen ny sak Endret 6. oktober 2006 av lordsmygen Lenke til kommentar
ATWindsor Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 Ja, man har jo mindre AA og AF på konsoll, og har ikke mulighet til å stille på det...men det generelle detaljenivået ellers er vel stort sett likt? 7015512[/snapback] Det er gjerne litt mindre detaljer også (ihvertfall i forhold til max på PC), prøv å søk etter sammenlikningsbilder på oblivion feks. Når det gjelder drivere, så mener jeg at nvidia sine er bedre enn ATI, jeg er fortsatt ikke fornøyd med hvordan ati ordner flere skjermer osv. Men jeg regner med det er litt smak og behag. AtW Lenke til kommentar
knut ivar Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 450watt peak ja...shijeeet .. her sitter jeg med hele lista på en komplett ny monstermaskin og tror at min chill 350 ville holde til det kortet... Er vel ikke lenge før vi må koble maskina til dette: Da er vi snart tilbake en maskin som krever like mye strøm som: Nei jeg venter til ATI er på banen... Lenke til kommentar
efikkan Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 Jeg hadde virkelig håpet på at toppen var nådd angående strømforbruk for skjermkort. Produsentene av cpuer har endelig forstått det, mens gpuer skal bare bli verre og verre? knut ivar berg: Og med dagens strømpriser kan det nok lønne seg å bygge eget kraftverk. Lenke til kommentar
kavorka Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 Enermax Galaxy 1000W + 2x8800GTX i SLI + Dell 2407 = Lenke til kommentar
SiRious Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 Enermax Galaxy 1000W + 2x8800GTX i SLI + Dell 2407 = 7017742[/snapback] ENORM og DYR! men, driter du penger og har et svært Lian LI kabbis, så slå deg løs! Lenke til kommentar
MrLee Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 Enermax Galaxy 1000W + 2x8800GTX i SLI + Dell 2407 = 7017742[/snapback] tydelig at du ikke betaler strømregningen hjemme iallefall Lenke til kommentar
kavorka Skrevet 6. oktober 2006 Del Skrevet 6. oktober 2006 Enermax Galaxy 1000W + 2x8800GTX i SLI + Dell 2407 = 7017742[/snapback] tydelig at du ikke betaler strømregningen hjemme iallefall 7017809[/snapback] Helt riktig, hehe. Kjekt å ha strøm inkludert i leien Lenke til kommentar
Hagr Skrevet 7. oktober 2006 Del Skrevet 7. oktober 2006 (endret) blir kanskje ikke mitt neste innkjøp, men absolutt spennende kort... 128 shadere er jo ' over i`en... jeg kommer nok til å tenke på nytt kort når andre generasjon DX10 kommer tenker jeg og så går jeg nok heller for r600 enn g80 gitt Endret 7. oktober 2006 av Hagr Lenke til kommentar
Simen1 Skrevet 7. oktober 2006 Del Skrevet 7. oktober 2006 Jeg hadde virkelig håpet på at toppen var nådd angående strømforbruk for skjermkort. Produsentene av cpuer har endelig forstått det, mens gpuer skal bare bli verre og verre? knut ivar berg: Og med dagens strømpriser kan det nok lønne seg å bygge eget kraftverk. 7017342[/snapback] Det finnes en effektiv måte å få produsentene til å forstå at taket er nådd angående hvor mye effekt/varmeutvikling vi aksepterer: Slutte å kjøpe de mest varmeproduserende kortene. Selv har jeg satset utelukkende på vifteløse løsninger de siste to årene og er fornøyd med det. Det setter jo også sine begrensninger til hvor mye varme kortene kan produsere. Lenke til kommentar
MistaPi Skrevet 7. oktober 2006 Del Skrevet 7. oktober 2006 Med refresh kortene av G80 og R600 har dem mulighet å senke strømforbruket og varmeutviklingen en del med 65nm og GDDR4. Lenke til kommentar
Simen1 Skrevet 7. oktober 2006 Del Skrevet 7. oktober 2006 GDDR3 bruker omtrent ikke noe av effekten på et skjermkort likevel så en overgang til GDDR4 vil være en dråpe i havet. Hvis effektforbruket skal reduseres merkbart så er det GPU som må forbedres. En oppfrisiking vil sikkert redusere strømforbruket noe men jeg tviler på at det monner. F.eks reduserer mer enn 10%. Lenke til kommentar
MistaPi Skrevet 7. oktober 2006 Del Skrevet 7. oktober 2006 Apparently, JEDEC and ATI did their jobs well when deciding on the features of GDDR4 and making the decision to adopt it so quickly. Not only has ATI been able to improve performance with their X1950 XTX, but they've been able to do so using significantly less power.- http://www.anandtech.com/video/showdoc.aspx?i=2821&p=13 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå