MistaPi Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 (endret) 8800GTX575MHz Core Clock 900MHz Mem Clock 768MB GDDR3 memory 384-bit memory interface (86GB/s) 128 unified shaders clocked at 1350 MHz 38.4 billion pixels per second theoretical texture fill-rate 450W PSU Recommended Hard launch in second week of November mitt neste kort eller R600 da. Får se specs på det først. 7005050[/snapback] Er det ikke mer avgjørende hvordan dem faktisk yter? Jeg håper 8800GTX ikke kommer på over 5000,- men jeg tviler. Blir nok et GTS på meg. Endret 5. oktober 2006 av MistaPi Lenke til kommentar
simalarion Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 Lurer på om ATI fortsetter med knallpriser jeg Lenke til kommentar
SWAT dude... Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 8800GTX575MHz Core Clock 900MHz Mem Clock 768MB GDDR3 memory 384-bit memory interface (86GB/s) 128 unified shaders clocked at 1350 MHz 38.4 billion pixels per second theoretical texture fill-rate 450W PSU Recommended Hard launch in second week of November mitt neste kort eller R600 da. Får se specs på det først. 7005050[/snapback] Er det ikke mer avgjørende hvordan dem faktisk yter? Jeg håper 8800GTX ikke kommer på over 5000,- men jeg tviler. Blir nok et GTS på meg. 7005085[/snapback] joa.. men specs kan jo si litt om ytelse da. Lenke til kommentar
O.J Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 575MHz Core Clock de vil vel ikke senke klokkehastigheten med neste generasjon? eller vil den yte bedre klokke for klokke? Lenke til kommentar
O.J Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 DailyTech - Nvidia "G80" Details Unveiled Lenke til kommentar
Simen1 Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 575MHz Core Clockde vil vel ikke senke klokkehastigheten med neste generasjon? eller vil den yte bedre klokke for klokke?7005155[/snapback] Hele poenget med unified shaders, flere shaders, bredere minnebuss, ny arkitektur osv er at den skal yte bedre per klokkesyklus. Gjerne sammenlign det med å oppgradere fra Athlon64 enkeltkjerne 2,0GHz med enkel minnebuss til dobbeltkjerne 2,0GHz med dobbel minnebuss. MHz er fortsatt ikke verdens navle når det kommer til ytesle. Lenke til kommentar
O.J Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 MHz er fortsatt ikke verdens navle når det kommer til ytesle. 7005220[/snapback] stemmer det. men det har ikke forhindret Nvidia i å øke den mere og mere for hver generasjon til nå. bra å se trenden snur seg. Lenke til kommentar
SWAT dude... Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 *gledesegtilcrysis* må ha noe å tenke på nå som det bare spilles nasty musikk her i hangar 4. Lenke til kommentar
Skagen Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 (endret) GeForce 8800GTX graphics cards are equipped with 128 unified shaders clocked at 1350 MHz. 96 unified shaders clocked at 1200 MHz are available on GeForce 8800GTS graphics cards. Kilde: NVIDIA G80 Retail Details Unveiled Mitt gamle GeForce 2 MX hadde 2 pixelpipelines, X800 Pro hadde 12, 7900 GT har 24, og 8800 legger seg rundt 96 - 128 unified shadere. Dramatisk økning må jeg si Endret 5. oktober 2006 av skag1 Lenke til kommentar
MistaPi Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 Etter som man regner ut shader ALU'ene har G70/G71 80 ALU'er. 2+1 mini ALU per fragment pipeline + 8 VSU's. Lenke til kommentar
Capo Crimini Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 Hva skjedde med GDDR4? Enormt effektforbruk har dem også ... Får vente og se hva R600 vil bringe før jeg avgjør hvilket kort jeg skal gå for. Blir spennende å se hvordan final/retail kort vil se ut. Lenke til kommentar
Cortinarius rubellus Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 (endret) litt rart hvis de ikke for gddr4 minne siden x1950 har det tror Ati skulle ha gddr4, men Nvidia skal bruke gddr3 ser det ut Endret 5. oktober 2006 av Fluesopp Lenke til kommentar
HKS Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 (endret) Husk at dette fremdeles bare er rykter, men det begynner å ligne på noe nå... Mer kan jeg egentlig ikke si. Vil fortsette å understreke det jeg har sagt før. Dette blir noe helt nytt, og at dette er den største forandringen i en nVidia-brikke siden den første GeForce-brikken. (GeForce 256) Ting begynner å nærme seg nå. Edit: Hvis dere lurer på det med forskjellige klokkefrekvenser internt i GPU, så er ikke dette noe nytt. nVidia har på G7x serien klokket blandt annet pixel shader, vertex shader og ROP forskjellig. Endret 5. oktober 2006 av [GDI]Raptor Lenke til kommentar
dravisher Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 Dette var ikke spekulasjoner lengre tror jeg: DailyTech received its first looks at a GeForce 8800 production sample today, and by the looks of it, the card is a monster: at least with regard to size and power requirements. Språket i artiklene tyder heller ikke på at det er rykter de rapporterer. Lenke til kommentar
HKS Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 Alt stemmer iallefall ikke 100% Lenke til kommentar
Cortinarius rubellus Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 de har vel bygd kjernen fra bunnen av syns jeg husker du sa og bare det er spennende syns nå jeg da Lenke til kommentar
Skagen Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 Dette var ikke spekulasjoner lengre tror jeg:DailyTech received its first looks at a GeForce 8800 production sample today, and by the looks of it, the card is a monster: at least with regard to size and power requirements. Språket i artiklene tyder heller ikke på at det er rykter de rapporterer. 7007170[/snapback] Dersom 'production samples' er i omløp nå, tar det forhåpentligvis ikke lang tid til de første uavhengige ytelsestestene dukker opp..? Lenke til kommentar
Belarnion Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 (endret) Raptor,05/10-2006 : 17:01]Alt stemmer iallefall ikke 100% 7007210[/snapback] Uansett hvordan jeg vrir og vender på det så får jeg ikke antallet shaders til å stemme med teoretisk pixel fillrate. (eller om det er texture fillrate de mener?) Dessuten er det tydelig at noe er galt et eller annet sted (enten i teoretisk utregnet båndbredde eller i frekvens på minnet) med minnebåndbredden til 8800GTS... Med 800MHz DDR stemmer teoretisk overens med frekvens. Endret 5. oktober 2006 av oddarne84 Lenke til kommentar
HKS Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 Her er enda mer informasjon... dailytech skal vel egentlig ikke vite dette enda... "Editor-day" hos nVidia er ikke før om et par uker enda... As if we mere mortals needed more reasons to be excited about G80, here are a couple more tidbits: 128-bit high dynamic-range and antialiasing with 16X sampling. The high dynamic-range (HDR) engine found in GeForce 7950 and Radeon series graphics cards is technically a 64-bit rendering. This new HDR approach comes from a file format developed by Industrial Light and Magic (the LucasFilm guys). In a nutshell, we will have 128-bit floating point HDR as soon as applications adopt code to use it. OpenEXR's features include: - Higher dynamic range and color precision than existing 8- and 10-bit image file formats. - Support for 16-bit floating-point, 32-bit floating-point, and 32-bit integer pixels. The 16-bit floating-point format, called "half", is compatible with the half data type in NVIDIA's Cg graphics language and is supported natively on their new GeForce FX and Quadro FX 3D graphics solutions. - Multiple lossless image compression algorithms. Some of the included codecs can achieve 2:1 lossless compression ratios on images with film grain. - Extensibility. New compression codecs and image types can easily be added by extending the C++ classes included in the OpenEXR software distribution. New image attributes (strings, vectors, integers, etc.) can be added to OpenEXR image headers without affecting backward compatibility with existing OpenEXR applications. NVIDIA already has 16X AA available for SLI applications. The GeForce 8800 will be the first card to feature 16X AA on a single GPU. Previous generations of GeForce cards have only been able to support 8X antialiasing in single-card configurations. This new 16X AA and 128-bit HDR will be part of another new engine, similar in spirit to PureVideo and the Quantum Effects engines also featured on G80. http://www.dailytech.com/article.aspx?newsid=4450 Lenke til kommentar
Simen1 Skrevet 5. oktober 2006 Del Skrevet 5. oktober 2006 Begge deler høres rett og slett overkill ut. 16xAA mener jeg er helt unødvendig mye. 2x og 4x har nok en del for seg, i hvertfall på skjermer med lav pixeltetthet. F.eks 19" LCD med sine 1280x1024. Men både 8x og 16x synes jeg er unødvendig mye. Forskjellene minker raskt med antall samples per pixel. 128bit fargeverdier høres også unødvendig mye ut. Per i dag har hver farge 256 nivåer (24/32bit fargedybde). Det kan bli alt for lite når hver pixel skal gjennom flere beregningstrinn og gir dermed avrundingsfeil og banding. Den endelige fargen har kanskje bare en ekte nøyaktighet på 6 bit (64 nivåer). HDR med 64bit rendring (65536 nivåer per av grunnfargene) mener jeg er nok i massevis selv om det forekommer bandingeffekter som reduserer nøyaktigheten ned til 16348 fargenivåer. 128bit HDR vil gi hele 4294967296 nivåer per grunnfarge. Det er vanvittig mye. Overkill er ikke nødvendigvis bare til det bedre eller nøytralt (hvis man ikke ser forskjell). Overkill er sløsing med beregningskraft og transistorer. Det vil garantert øke effektforbruket og senke ytelsen og øke prisen i for skjermkortene. Dette er ikke til det bedre. For all del G80 og R600 blir sikkert knallbra, men de kunne spart seg for unødvendige (ikke merkbare) egenskaper som fører med seg en rekke merkbare ulemper. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå