Gå til innhold

G80 og R600, hva vet vi?


Anbefalte innlegg

Videoannonse
Annonse
Litt nytt her?

 

http://www.theinquirer.net/default.aspx?article=35708

7294720[/snapback]

Vel OM det stemmer høres det rått ut, litt bekymra for vekta men de finner på noe regner jeg med, kan jo bygge et slags stativ inne i kabinettet som støtter det opp :p

 

Det er ikke noen som vet om det finnes bilder av kjøleren de har komme med?

 

Andreas045: joda, men jeg sikta heller ikke kun til deg og Oblivion, det er mye her som ikke har noe med verken G80 eller R600 og gjøre :)

Lenke til kommentar
Var såpass mye større en 1900xtx at det ikke passer i min pc i alle fall. Msi har plassert front side buss under skjermkortet (når de er så lange som high end kortene) så ribben krasjer med kortet. Må på byen i morgen å finne en lavere en med vifte, morro  :(

7300791[/snapback]

 

 

Mitt kort passet såm sakt, akkurat nedi karbinetet. Hadde

den var 1 mm lengre hadde den krasjet i harddiskbrønnene :O

Lenke til kommentar
Meget Interresant :) Her vil man også bedre få kontroll over strømforbruk mm. Hva vil Nvidia svare med? Software biten blir som sagt spennende. Og hvordan vil dette fungere med Linux.

7309237[/snapback]

Hvordan vil hva fungere med Linux?

 

Angående å dele opp GPU så har nVidia allerede begynt med det i det små... På G80 er RAMDAC, HDCP og display output mm. Lagt ut i en egen brikke som kalles NVIO

Lenke til kommentar
Raptor,18/11-2006 : 14:08]
Meget Interresant :) Her vil man også bedre få kontroll over strømforbruk mm. Hva vil Nvidia svare med? Software biten blir som sagt spennende. Og hvordan vil dette fungere med Linux.

7309237[/snapback]

Hvordan vil hva fungere med Linux?

 

Angående å dele opp GPU så har nVidia allerede begynt med det i det små... På G80 er RAMDAC, HDCP og display output mm. Lagt ut i en egen brikke som kalles NVIO

7309432[/snapback]

- Hvordan vil en fler-gpu modell fungere i linux, men det er jo et spørsmål om drivere.

 

- Å dele opp en GPU i flere enheter som skal takle vidt forskjellige oppgaver er ikke det samme som å ha flere GPU'er i et "cluster" som skal utføre samme oppgaven i samarbeid. Men absolutt en god ting at Nividia har gjort det de gjør her :). Spesielt dette med egen RAMDAC som var nytt på G80?

 

Det som høres spesielt spennende ut med det ATi planlegger er at det høres ut som man står helt fritt til å velge hvor mange "kjerner" man vil sette på kortene sine. At det ikke er låst til 1, 2, 4, 8, 16 osv. Men eks. 27, 11 osv. Og at det er moddelert slik at ytelsen skalerer godt. Men det gjenstår å se. Men dette er jo løst snakk forløpig og kan være "markeds snakk".

 

Jeg tror heller ikke at Nvidia ikke har sett på slike modeller, det som blir spennende er hvordan de forskjellige løsningene blir.

 

Cat-scan:

Veldig bra, skal titte på det :)

Endret av Theo343
Lenke til kommentar
Hvordan vil en fler-gpu modell fungere i linux, men det er jo et spørsmål om drivere.

 

- Å dele opp en GPU i flere enheter som skal takle vidt forskjellige oppgaver er ikke det samme som å ha flere GPU'er i et "cluster" som skal utføre samme oppgaven i samarbeid. Men absolutt en god ting at Nividia har gjort det de gjør her :). Spesielt dette med egen RAMDAC som var nytt på G80?

7312869[/snapback]

Fler GPU i Linux/UNIX er ikke noe problem. nVidia har hatt SLI støtte i driveren i over ett år nå. ;) For ATi sin del så kommer sikkert Crossfire i Linux omsider også, men de har endel "catch-up" å gjøre.

 

En av hovedgrunnene til at RAMDAC mm. (Display Pipeline er det også kalt) ble flyttet ut av GPU var å få ett mindre kompleks design på GPU.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...