leifeinar Skrevet 4. oktober 2007 Del Skrevet 4. oktober 2007 sant det Vinci Som navnet antyder blir ytelsen trolig noe lavere enn for dagens GeForce 8800 GTS. Tidlige rapporter peker på en poengsum i standardtesten i 3DMark06 på ca 10800 poeng. gts gjør ikke mere enn 8500 hos meg med stock system med e6600. 10800 nåes på 620/1800 og cpu på 3,4. da blir det litt drøyt og kale det dårligere enn gts, kommer vel også litt ann på prosessor som er med Lenke til kommentar
HKS Skrevet 4. oktober 2007 Del Skrevet 4. oktober 2007 8800GT 512MB kommer til å erstatte 8800GTS 320MB helt. 8800GT kommer til å plassere seg veldig nærme 8800GTS 640MB. Lenke til kommentar
Smirnoff Skrevet 4. oktober 2007 Del Skrevet 4. oktober 2007 da blir det litt drøyt og kale det dårligere enn gts, kommer vel også litt ann på prosessor som er med 9632608[/snapback] Husk også at 3DMark kjører uten antialiasing og kun i 1280x1024. Lenke til kommentar
TiduZ Skrevet 4. oktober 2007 Del Skrevet 4. oktober 2007 Rykte fra se&hør: G92 has heat problems Lenke til kommentar
Theo343 Skrevet 4. oktober 2007 Del Skrevet 4. oktober 2007 (endret) Jeg reagerte også på 10800 i 3dmark06 for 8800GT siden det er tøft å få det med GTS. Men det bekrefter kanskje ryktene om en ny 8800GTS med flere stream processsors. Endret 4. oktober 2007 av Theo343 Lenke til kommentar
Olavxxx Skrevet 5. oktober 2007 Del Skrevet 5. oktober 2007 Jeg reagerte også på 10800 i 3dmark06 for 8800GT siden det er tøft å få det med GTS. Men det bekrefter kanskje ryktene om en ny 8800GTS med flere stream processsors. 9635795[/snapback] 90nm vs 65nm er ganske stor forskjell da :-) Jeg er ikke overrasket om man kan med ekstra kjøling, clocke 8800 gt forbi dagens 8800 gtx / ultra, såfremt 8800 gt har bra minne. Lenke til kommentar
Simen1 Skrevet 12. oktober 2007 Del Skrevet 12. oktober 2007 G92 and RV670 are GPGPU monsters Lenke til kommentar
Anders Jensen Skrevet 13. oktober 2007 Del Skrevet 13. oktober 2007 G92 and RV670 are GPGPU monsters Ser veldig frem til G92 kommer, menjeg tror ikke jeg får mye bruk for 64bit FP i første omgang. Håper faktisk at de bremser litt på 64bit FP throughput av effektmessige hensyn. Også veldig usikker på hva Theo mener med at ATI har en fordel ved bruk av flere kort. Når en kjører GPGPU på nvidia kort så slår en av SLI og det er like greit fordi en ønsker gjerne å være veldig detaljert i hvor data plasseres rent fysisk. Å slå sammen kort kan ha veldig uheldige resultater om en må begynne å synkronisere på tvers av flere GPUer eller hente data fra andre GPUer. Det er nok mye bedre å la applikasjonen som kjører på CPU håndtere parallelliteten eksplisitt. Generelt set bør parallellitet håndteres eksplisitt. God regel det der. Lenke til kommentar
HKS Skrevet 13. oktober 2007 Del Skrevet 13. oktober 2007 Ser veldig frem til G92 kommer, menjeg tror ikke jeg får mye bruk for 64bit FP i første omgang. Håper faktisk at de bremser litt på 64bit FP throughput av effektmessige hensyn. Jeg som blandt annet bruker CUDA mye i jobben ser frem til dette... Men kan også bruke flere nVidia kort i SLI i GPGPU modus. Flere av Tesla-produktene til nVidia inneholder flere kort... Men som sagt, her må man være obs på hvor parallelliserbart det man skal kjøre er!! Lenke til kommentar
Simen1 Skrevet 13. oktober 2007 Del Skrevet 13. oktober 2007 Også veldig usikker på hva Theo mener med at ATI har en fordel ved bruk av flere kort. Jeg tror han tenker på Crossfire med inntil 4 kort på RD790 brikkesettet. Jeg tror også han feilaktig tenker at Crossfire-modus må være slått på når man har flere skjermkort i maskina. Akkurat som man kan bruke flere geforce grafikkort på DR790 (som ikke støtter SLI), altså i individuell modus. Lenke til kommentar
Theo343 Skrevet 13. oktober 2007 Del Skrevet 13. oktober 2007 (endret) Hehe jeg venner meg ikke helt til denne Theo på TheInq.. nå skjønte jeg ingen ting. Gleder meg også til G92, men først og fremst pga. alle de ok funksjoner man begynner å få på nye kort nå. Jeg spilte akkurat COD4 med et 7600GS på 24" LCD, og selv i 1600*900 gikk det tålelig bra med 4xAA. Det som gleder meg mest om dagen er alle de flotte funksjonene man får i nyere kort, samt lavere strømforbruk. Endret 13. oktober 2007 av Theo343 Lenke til kommentar
Anders Jensen Skrevet 13. oktober 2007 Del Skrevet 13. oktober 2007 (endret) Jeg som blandt annet bruker CUDA mye i jobben ser frem til dette... Men kan også bruke flere nVidia kort i SLI i GPGPU modus. Flere av Tesla-produktene til nVidia inneholder flere kort... Men som sagt, her må man være obs på hvor parallelliserbart det man skal kjøre er!! Jeg skal begynne med CUDA på jobben nå. Det jeg har pløyd gjennom av dokumentasjon hittil tilsier at SLI bør deaktiveres ved GPGPU bruk. Var også av den oppfattning av at de kommende S870 og D870 Tesla produktene ikke kjører i SLI. Fra manualen: "3.4 Multiple Devices The use of multiple GPUs as CUDA devices by an application running on a multi-GPU system is only guaranteed to work if theses GPUs are of the same type. If the system is in SLI mode however, only one GPU can be used as a CUDA device since all the GPUs are fused at the lowest levels in the driver stack. SLI mode needs to be turned off in the control panel for CUDA to be able to see each GPU as separate devices." Ut fra dette er SLI tydeligvis en mulighet men, det må jo være ugunstig å hente data fra __DEVICE__ domain (DRAM) på en annen GPU av ytelsesmessige hensyn, eller er det slik at DRAM bare er speilet? Kan forstå at realtime applikasjoner som spill kan tjene noe på SLI, men throughput applikasjoner slik jeg skal begynne med, vil nok kjøre raskere om SLI ikke er i bruk. Kjører da helt separate oppgaver på hver GPU. Hva slags type beregninger er det du kjører via CUDA? Endret 14. oktober 2007 av Anders Jensen Lenke til kommentar
MrPancake Skrevet 21. oktober 2007 Del Skrevet 21. oktober 2007 Gleder meg til 8800 GT :!: Hvis poengsummene på 10080 poeng i 3D mark 06 stemmer, er det værtfall digg, spessielt hvis prisene ligger under 2k... Lenke til kommentar
Carl Sagan Skrevet 21. oktober 2007 Del Skrevet 21. oktober 2007 Gleder meg til 8800 GT :!: Hvis poengsummene på 10080 poeng i 3D mark 06 stemmer, er det værtfall digg, spessielt hvis prisene ligger under 2k... Nå sier faktisk 3dmark generellt lite om spillytelsen, men den kan gi en pekepinn. Lenke til kommentar
Smirnoff Skrevet 21. oktober 2007 Del Skrevet 21. oktober 2007 (endret) Folk kjører vel med antialiasing på om dagene også, så det kan ha noe å si mtp litt lavere minnebåndbredde på G92 (256-bit mot 320/384-bit på G80GTS/GTX). Kanskje ikke allverdens, men man får se. (Edit: Når jeg tenker etter, så var testene jeg posta i den andre tråden med AA. Så den yter jo bedre enn 8800GTS slik sett i alle fall. Men vi får vel se tester uten AA også). Endret 21. oktober 2007 av Smirnoff Lenke til kommentar
Theo343 Skrevet 21. oktober 2007 Del Skrevet 21. oktober 2007 Smirnoff: Tror du minnebåndbredden til 8800GT vil ha noe særlig å si mot 2900Pro sin 512bit med AA og høye oppløsninger? Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå