simalarion Skrevet 15. november 2006 Del Skrevet 15. november 2006 (endret) Bruk denne tråden boys. Her tar vi bilder av spill hvilken oppløsning man bruker og fps tall med stor glede https://www.diskusjon.no/index.php?showtopic=661927&st=240 Endret 15. november 2006 av simalarion Lenke til kommentar
Kaptein_S Skrevet 16. november 2006 Del Skrevet 16. november 2006 Litt nytt her? http://www.theinquirer.net/default.aspx?article=35708 Lenke til kommentar
Mit Skrevet 16. november 2006 Del Skrevet 16. november 2006 Litt nytt her? http://www.theinquirer.net/default.aspx?article=35708 7294720[/snapback] Vel OM det stemmer høres det rått ut, litt bekymra for vekta men de finner på noe regner jeg med, kan jo bygge et slags stativ inne i kabinettet som støtter det opp Det er ikke noen som vet om det finnes bilder av kjøleren de har komme med? Andreas045: joda, men jeg sikta heller ikke kun til deg og Oblivion, det er mye her som ikke har noe med verken G80 eller R600 og gjøre Lenke til kommentar
danandre Skrevet 16. november 2006 Del Skrevet 16. november 2006 Har veldig lyst på 8800GTX, men den ser ut til å være veldig lang i forhold til standard størrelser på midi-kabinetter. De av dere som har kjøpt GTX, kan dere si om det passer i deres kabinett (uten modifikasjon), og hvilket kabinett dere har? Lenke til kommentar
simalarion Skrevet 16. november 2006 Del Skrevet 16. november 2006 Var såpass mye større en 1900xtx at det ikke passer i min pc i alle fall. Msi har plassert front side buss under skjermkortet (når de er så lange som high end kortene) så ribben krasjer med kortet. Må på byen i morgen å finne en lavere en med vifte, morro Lenke til kommentar
CAT-scan Skrevet 17. november 2006 Forfatter Del Skrevet 17. november 2006 Du har hatt flaks med hele G80-strabasene synes jeg simalarion... Lenke til kommentar
Bahamut Skrevet 17. november 2006 Del Skrevet 17. november 2006 Var såpass mye større en 1900xtx at det ikke passer i min pc i alle fall. Msi har plassert front side buss under skjermkortet (når de er så lange som high end kortene) så ribben krasjer med kortet. Må på byen i morgen å finne en lavere en med vifte, morro 7300791[/snapback] Mitt kort passet såm sakt, akkurat nedi karbinetet. Hadde den var 1 mm lengre hadde den krasjet i harddiskbrønnene :O Lenke til kommentar
Capo Crimini Skrevet 18. november 2006 Del Skrevet 18. november 2006 Mer rykter fra inq: http://www.theinquirer.net/default.aspx?article=35818 THE ATI R600 will represent the last of it's breed, the monolithic GPU. It will be replaced by a cluster of smaller GPUs with the R700 generation. Lenke til kommentar
Theo343 Skrevet 18. november 2006 Del Skrevet 18. november 2006 (endret) Meget Interresant Her vil man også bedre få kontroll over strømforbruk mm. Hva vil Nvidia svare med? Software biten blir som sagt spennende. Og hvordan vil dette fungere med Linux. Endret 18. november 2006 av Theo343 Lenke til kommentar
WaterMarked Skrevet 18. november 2006 Del Skrevet 18. november 2006 Hva tid kan vi rekne med at R600 kommer? Savner informasjon om den brikka, går for mye i nvidia's kort her. Kommer R600 til å bli betre enn g8800 eller hva det heter? Eller er det så lite informasjon om R600? Kan ikke si at jeg har sett så mye informasjon\rykter om Ati's nye brikke.. Lenke til kommentar
Theo343 Skrevet 18. november 2006 Del Skrevet 18. november 2006 Det er også gitt info om R600 i tråden. bare å søke på nøkkelord R600 Lenke til kommentar
HKS Skrevet 18. november 2006 Del Skrevet 18. november 2006 Meget Interresant Her vil man også bedre få kontroll over strømforbruk mm. Hva vil Nvidia svare med? Software biten blir som sagt spennende. Og hvordan vil dette fungere med Linux. 7309237[/snapback] Hvordan vil hva fungere med Linux? Angående å dele opp GPU så har nVidia allerede begynt med det i det små... På G80 er RAMDAC, HDCP og display output mm. Lagt ut i en egen brikke som kalles NVIO Lenke til kommentar
The Ghost Skrevet 18. november 2006 Del Skrevet 18. november 2006 Kanskje ikke relevant for alle, men jeg trenger å vite det så om noen med 8800GTX kan si hva pakken som det ble sen i måler så hadde det vært supert Tenker spesielt på EVGA, men det det er vel samme størelse på eskene til alle sammen ? Takker Lenke til kommentar
CAT-scan Skrevet 18. november 2006 Forfatter Del Skrevet 18. november 2006 Det er også gitt info om R600 i tråden. bare å søke på nøkkelord R600 7309331[/snapback] Eventuelt kan man jo bare se på det første innlegget... Jeg har ikke tatt med absolutt alt der, men det meste. Lenke til kommentar
Theo343 Skrevet 18. november 2006 Del Skrevet 18. november 2006 (endret) Raptor,18/11-2006 : 14:08]Meget Interresant Her vil man også bedre få kontroll over strømforbruk mm. Hva vil Nvidia svare med? Software biten blir som sagt spennende. Og hvordan vil dette fungere med Linux. 7309237[/snapback] Hvordan vil hva fungere med Linux? Angående å dele opp GPU så har nVidia allerede begynt med det i det små... På G80 er RAMDAC, HDCP og display output mm. Lagt ut i en egen brikke som kalles NVIO 7309432[/snapback] - Hvordan vil en fler-gpu modell fungere i linux, men det er jo et spørsmål om drivere. - Å dele opp en GPU i flere enheter som skal takle vidt forskjellige oppgaver er ikke det samme som å ha flere GPU'er i et "cluster" som skal utføre samme oppgaven i samarbeid. Men absolutt en god ting at Nividia har gjort det de gjør her . Spesielt dette med egen RAMDAC som var nytt på G80? Det som høres spesielt spennende ut med det ATi planlegger er at det høres ut som man står helt fritt til å velge hvor mange "kjerner" man vil sette på kortene sine. At det ikke er låst til 1, 2, 4, 8, 16 osv. Men eks. 27, 11 osv. Og at det er moddelert slik at ytelsen skalerer godt. Men det gjenstår å se. Men dette er jo løst snakk forløpig og kan være "markeds snakk". Jeg tror heller ikke at Nvidia ikke har sett på slike modeller, det som blir spennende er hvordan de forskjellige løsningene blir. Cat-scan: Veldig bra, skal titte på det Endret 18. november 2006 av Theo343 Lenke til kommentar
HKS Skrevet 19. november 2006 Del Skrevet 19. november 2006 Hvordan vil en fler-gpu modell fungere i linux, men det er jo et spørsmål om drivere. - Å dele opp en GPU i flere enheter som skal takle vidt forskjellige oppgaver er ikke det samme som å ha flere GPU'er i et "cluster" som skal utføre samme oppgaven i samarbeid. Men absolutt en god ting at Nividia har gjort det de gjør her . Spesielt dette med egen RAMDAC som var nytt på G80? 7312869[/snapback] Fler GPU i Linux/UNIX er ikke noe problem. nVidia har hatt SLI støtte i driveren i over ett år nå. For ATi sin del så kommer sikkert Crossfire i Linux omsider også, men de har endel "catch-up" å gjøre. En av hovedgrunnene til at RAMDAC mm. (Display Pipeline er det også kalt) ble flyttet ut av GPU var å få ett mindre kompleks design på GPU. Lenke til kommentar
Theo343 Skrevet 19. november 2006 Del Skrevet 19. november 2006 (endret) SLi mellom flere spor og flere GPU'er på et kort, er det identisk? Var en god ide å ta RAMDAC ut av GPU. Endret 19. november 2006 av Theo343 Lenke til kommentar
MistaPi Skrevet 19. november 2006 Del Skrevet 19. november 2006 Ikke når det er snakk om en klynge av mange mini-GPU'er. Jeg vil nå tro et slikt design vil være en god del mer problematisk/komplekst enn SLI og Crossfire. Lenke til kommentar
Theo343 Skrevet 19. november 2006 Del Skrevet 19. november 2006 Var det jeg også tenkte. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå