Gå til innhold

G80 og R600, hva vet vi?


Anbefalte innlegg

8800GTX

575MHz Core Clock

900MHz Mem Clock

768MB GDDR3 memory

384-bit memory interface (86GB/s)

128 unified shaders clocked at 1350 MHz

38.4 billion pixels per second theoretical texture fill-rate

450W PSU Recommended

Hard launch in second week of November

 

mitt neste kort :love:

 

eller R600 da. Får se specs på det først.

7005050[/snapback]

Er det ikke mer avgjørende hvordan dem faktisk yter?

 

Jeg håper 8800GTX ikke kommer på over 5000,- men jeg tviler. Blir nok et GTS på meg.

Endret av MistaPi
Lenke til kommentar
Videoannonse
Annonse
8800GTX

575MHz Core Clock

900MHz Mem Clock

768MB GDDR3 memory

384-bit memory interface (86GB/s)

128 unified shaders clocked at 1350 MHz

38.4 billion pixels per second theoretical texture fill-rate

450W PSU Recommended

Hard launch in second week of November

 

mitt neste kort :love:

 

eller R600 da. Får se specs på det først.

7005050[/snapback]

Er det ikke mer avgjørende hvordan dem faktisk yter?

 

Jeg håper 8800GTX ikke kommer på over 5000,- men jeg tviler. Blir nok et GTS på meg.

7005085[/snapback]

 

joa.. men specs kan jo si litt om ytelse da.

Lenke til kommentar
575MHz Core Clock
de vil vel ikke senke klokkehastigheten med neste generasjon? eller vil den yte bedre klokke for klokke?

7005155[/snapback]

Hele poenget med unified shaders, flere shaders, bredere minnebuss, ny arkitektur osv er at den skal yte bedre per klokkesyklus.

 

Gjerne sammenlign det med å oppgradere fra Athlon64 enkeltkjerne 2,0GHz med enkel minnebuss til dobbeltkjerne 2,0GHz med dobbel minnebuss. MHz er fortsatt ikke verdens navle når det kommer til ytesle.

Lenke til kommentar
GeForce 8800GTX graphics cards are equipped with 128 unified shaders clocked at 1350 MHz.

 

96 unified shaders clocked at 1200 MHz are available on GeForce 8800GTS graphics cards.

Kilde: NVIDIA G80 Retail Details Unveiled

 

Mitt gamle GeForce 2 MX hadde 2 pixelpipelines, X800 Pro hadde 12, 7900 GT har 24, og 8800 legger seg rundt 96 - 128 unified shadere. Dramatisk økning må jeg si :)

Endret av skag1
Lenke til kommentar

Husk at dette fremdeles bare er rykter, men det begynner å ligne på noe nå... ;)

 

Mer kan jeg egentlig ikke si.

Vil fortsette å understreke det jeg har sagt før. Dette blir noe helt nytt, og at dette er den største forandringen i en nVidia-brikke siden den første GeForce-brikken. (GeForce 256)

 

Ting begynner å nærme seg nå.

 

 

Edit: Hvis dere lurer på det med forskjellige klokkefrekvenser internt i GPU, så er ikke dette noe nytt. nVidia har på G7x serien klokket blandt annet pixel shader, vertex shader og ROP forskjellig.

Endret av [GDI]Raptor
Lenke til kommentar

Dette var ikke spekulasjoner lengre tror jeg:

DailyTech received its first looks at a GeForce 8800 production sample today, and by the looks of it, the card is a monster: at least with regard to size and power requirements.

Språket i artiklene tyder heller ikke på at det er rykter de rapporterer.

Lenke til kommentar
Dette var ikke spekulasjoner lengre tror jeg:
DailyTech received its first looks at a GeForce 8800 production sample today, and by the looks of it, the card is a monster: at least with regard to size and power requirements.

Språket i artiklene tyder heller ikke på at det er rykter de rapporterer.

7007170[/snapback]

Dersom 'production samples' er i omløp nå, tar det forhåpentligvis ikke lang tid til de første uavhengige ytelsestestene dukker opp..?

Lenke til kommentar
Raptor,05/10-2006 : 17:01]Alt stemmer iallefall ikke 100%

7007210[/snapback]

Uansett hvordan jeg vrir og vender på det så får jeg ikke antallet shaders til å stemme med teoretisk pixel fillrate. (eller om det er texture fillrate de mener?)

Dessuten er det tydelig at noe er galt et eller annet sted (enten i teoretisk utregnet båndbredde eller i frekvens på minnet) med minnebåndbredden til 8800GTS...

Med 800MHz DDR stemmer teoretisk overens med frekvens.

Endret av oddarne84
Lenke til kommentar

Her er enda mer informasjon...

 

dailytech skal vel egentlig ikke vite dette enda... ;) "Editor-day" hos nVidia er ikke før om et par uker enda...

 

As if we mere mortals needed more reasons to be excited about G80, here are a couple more tidbits: 128-bit high dynamic-range and antialiasing with 16X sampling.

 

The high dynamic-range (HDR) engine found in GeForce 7950 and Radeon series graphics cards is technically a 64-bit rendering.  This new HDR approach comes from a file format developed by Industrial Light and Magic (the LucasFilm guys).  In a nutshell, we will have 128-bit floating point HDR as soon as applications adopt code to use it. OpenEXR's features include:

 

- Higher dynamic range and color precision than existing 8- and 10-bit image file formats.

- Support for 16-bit floating-point, 32-bit floating-point, and 32-bit integer pixels. The 16-bit floating-point format, called "half", is compatible with the half data type in NVIDIA's Cg graphics language and is supported natively on their new GeForce FX and Quadro FX 3D graphics solutions.

- Multiple lossless image compression algorithms. Some of the included codecs can achieve 2:1 lossless compression ratios on images with film grain.

- Extensibility. New compression codecs and image types can easily be added by extending the C++ classes included in the OpenEXR software distribution. New image attributes (strings, vectors, integers, etc.) can be added to OpenEXR image headers without affecting backward compatibility with existing OpenEXR applications.

 

NVIDIA already has 16X AA available for SLI applications.  The GeForce 8800 will be the first card to feature 16X AA on a single GPU.  Previous generations of GeForce cards have only been able to support 8X antialiasing in single-card configurations.

 

This new 16X AA and 128-bit HDR will be part of another new engine, similar in spirit to PureVideo and the Quantum Effects engines also featured on G80.

http://www.dailytech.com/article.aspx?newsid=4450

Lenke til kommentar

Begge deler høres rett og slett overkill ut.

 

16xAA mener jeg er helt unødvendig mye. 2x og 4x har nok en del for seg, i hvertfall på skjermer med lav pixeltetthet. F.eks 19" LCD med sine 1280x1024. Men både 8x og 16x synes jeg er unødvendig mye. Forskjellene minker raskt med antall samples per pixel.

 

128bit fargeverdier høres også unødvendig mye ut. Per i dag har hver farge 256 nivåer (24/32bit fargedybde). Det kan bli alt for lite når hver pixel skal gjennom flere beregningstrinn og gir dermed avrundingsfeil og banding. Den endelige fargen har kanskje bare en ekte nøyaktighet på 6 bit (64 nivåer). HDR med 64bit rendring (65536 nivåer per av grunnfargene) mener jeg er nok i massevis selv om det forekommer bandingeffekter som reduserer nøyaktigheten ned til 16348 fargenivåer. 128bit HDR vil gi hele 4294967296 nivåer per grunnfarge. Det er vanvittig mye.

 

Overkill er ikke nødvendigvis bare til det bedre eller nøytralt (hvis man ikke ser forskjell). Overkill er sløsing med beregningskraft og transistorer. Det vil garantert øke effektforbruket og senke ytelsen og øke prisen i for skjermkortene. Dette er ikke til det bedre.

 

For all del G80 og R600 blir sikkert knallbra, men de kunne spart seg for unødvendige (ikke merkbare) egenskaper som fører med seg en rekke merkbare ulemper.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...