Gå til innhold

Her er GeForce 8800-detaljene


Anbefalte innlegg

Videoannonse
Annonse
Ville absolutt vært en fordel om Nvidia ville fokusert mer på drivere for linux, slik ATI har gjort.

 

Alvorlig talt? Er jo heller omvendt.

7015120[/snapback]

Er nok jeg som surrer ja. Blandet mine erfaringer med X800XL og 6600GT. Jeg liker ikke at ATi krever MS FrameWork. Tungvint løsning ...

Lenke til kommentar
Hvorfor bruker ikke kortet GDDR4? X1950 er jo allerede utstyrt med det, og R600 vil få det.

7016300[/snapback]

 

du må ikke glemme at disse specs er ikke bekreftet, er godt mulig vi får se GDDR4, tror ikke Nvidia slipper ut GDDR3 mens ATI får steget framfor med GDDR4, og jeg skal ikke si noe sikkert, men kan nesten vedde på at de kanskje kommer med 80NM også..

 

Enten det eller så slipper de vel ut 8900GTX el 8850GTX med GDDR4 og 80 NM.. :hrm:

Lenke til kommentar
Hvorfor bruker ikke kortet GDDR4? X1950 er jo allerede utstyrt med det, og R600 vil få det.

7016300[/snapback]

Det er mange i tråden som har spurt om det. Jeg har ikke noe svar, men noen spekulasjoner. Jeg tipper GDDR4 er en god del dyrere for produsentene nå som det er ganske nytt. I tillegg har ikke GDDR4 blitt optimalisert skikkelig ennå. Det gjør at hastigheten ikke er noe spesielt mye bedre enn på GDDR3. (1800MHz vs. 2000MHz).

 

I tillegg så blir behovet for GDDR4 kraftig redusert ved at de bruker en bredere minnebuss. Radeon X1950XTX har GDDR4 på 2000MHz og 256bit minnebuss. Det gjør at den totale minnebåndbredden blir: 2,0GHz*256bit/8 = 64 GB/s. geforce 8800GTX har "bare" 1800MHz GDDR3 men til gjengjeld 384bit minnebuss. Båndbredden på denne er 1,8GHz * 384bit/8 = 86,4 GB/s. Altså vesentlig raskere enn konkurrenten til tross for "bare" GDDR3 og "bare" 1,8GHz klokkefrekvens på minnet.

 

Resultatet er at nvidia får dyrere og større PCB (kretskort) men slipper unna med billigere minne. Resultatet av denne prioriteringen synes jeg er veldig bra. 35% bedre minnebåndbredde er ganske mye. Økningen fra 4 til 6 individuelle 64bit minnebusser er også positivt for ytelsen.

Lenke til kommentar

Hallo? Hva er det som skjer her? NV har jo sendt den forbanna pislekjøleren med 7900GT og nå kommer de med vannkjøling som stock? Hvor mye varme uvikler egentlig dette kortet? Og hva er doble 9-pinners strømkontakter for noe jalla? Må jeg stappe kabinettet fullt av adapere igjen nå da... Jeg som trodde 580W PSU med støtte for SLI/Crossfire ville holde lenge... Jajaja, så feil kan man ta, gitt... Er det forresten noen her som har den fjerneste anelse om hvorvidt de nye ATiene vil kunne Crossfires på 975X-brikkesett?

Lenke til kommentar
Ja, man har jo mindre AA og AF på konsoll, og har ikke mulighet til å stille på det...men det generelle detaljenivået ellers er vel stort sett likt?

7015512[/snapback]

 

Det er gjerne litt mindre detaljer også (ihvertfall i forhold til max på PC), prøv å søk etter sammenlikningsbilder på oblivion feks.

 

Når det gjelder drivere, så mener jeg at nvidia sine er bedre enn ATI, jeg er fortsatt ikke fornøyd med hvordan ati ordner flere skjermer osv. Men jeg regner med det er litt smak og behag.

 

AtW

Lenke til kommentar

:cry:

450watt peak ja...shijeeet :nei:

.. her sitter jeg med hele lista på en komplett ny monstermaskin og tror at min chill 350 ville holde til det kortet... :no:

Er vel ikke lenge før vi må koble maskina til dette:

12.jpg

 

Da er vi snart tilbake en maskin som krever like mye strøm som:

2423PH3145.jpg

 

Nei jeg venter til ATI er på banen...

Lenke til kommentar

Jeg hadde virkelig håpet på at toppen var nådd angående strømforbruk for skjermkort. Produsentene av cpuer har endelig forstått det, mens gpuer skal bare bli verre og verre?

 

knut ivar berg: Og med dagens strømpriser kan det nok lønne seg å bygge eget kraftverk. ;)

Lenke til kommentar

blir kanskje ikke mitt neste innkjøp, men absolutt spennende kort... 128 shadere er jo ' over i`en... :D jeg kommer nok til å tenke på nytt kort når andre generasjon DX10 kommer tenker jeg ;)

 

og så går jeg nok heller for r600 enn g80 gitt

Endret av Hagr
Lenke til kommentar
Jeg hadde virkelig håpet på at toppen var nådd angående strømforbruk for skjermkort. Produsentene av cpuer har endelig forstått det, mens gpuer skal bare bli verre og verre?

 

knut ivar berg: Og med dagens strømpriser kan det nok lønne seg å bygge eget kraftverk. ;)

7017342[/snapback]

Det finnes en effektiv måte å få produsentene til å forstå at taket er nådd angående hvor mye effekt/varmeutvikling vi aksepterer: Slutte å kjøpe de mest varmeproduserende kortene. Selv har jeg satset utelukkende på vifteløse løsninger de siste to årene og er fornøyd med det. Det setter jo også sine begrensninger til hvor mye varme kortene kan produsere.

Lenke til kommentar

GDDR3 bruker omtrent ikke noe av effekten på et skjermkort likevel så en overgang til GDDR4 vil være en dråpe i havet. Hvis effektforbruket skal reduseres merkbart så er det GPU som må forbedres. En oppfrisiking vil sikkert redusere strømforbruket noe men jeg tviler på at det monner. F.eks reduserer mer enn 10%.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...