Gå til innhold

GeForce 7800 på Nvidias LAN-party


Anbefalte innlegg

Det kan jo tenkes at nVIDIA folkene har lært litt av forrige tabbe. Ville ikke lagt det alt for sterkt til grunn for valget. Er mer spent på om ATI og nVIDIA klarer å tilføre noe nytt denne gangen. F.eks mindre strømbruk, og kjøligere løsninger for de nye middelsklasse kortene som kanskje er like sterke som dagens raskeste. Det hadde passet meg bra ihvertfall.

Lenke til kommentar
Videoannonse
Annonse

Jeg er mer interessert i forbedringer med AF og AA. Dagens MSAA tekniker blir mer og mer ineffektivte pga alpha texturer og shaders. NV4x kan ikke engang bruke AA overhodet med FP blending (HDR). Dette blir grunn nok til å oppgradere for meg selv om ytelse økningen ikke er all verden.

Lenke til kommentar
GeForce 7800 Standard, GT og GTX - der sistnevnte vil være en SLI-kompatibel løsning.

:blink: What?!? Da pisser de jo på sine egne argumenter da SLI kom. Men men, mulig de bare rett og slett innrømmer at SLI med to mid-end kort er dårlig økonomi, og at SLI kun er for de som ønsker ubrukelig høy ytelse. Men det er pussig at de likevel tar vekk muligheten for de som vil kjøpe et kort til når prisen på brukte har falt en gang inn i fremtiden... :thumbdown:

Tenk å kjøpe to av det beste og dyreste kortet for så å klokke ned til komfortabelt lydnivå... I stedet for 2x6800GT nå.

Lenke til kommentar
Kanskje man vil få spesielt gode tilbud på G70-kort dersom man tar seg en tur på LAN-partyet i San Franscisco den 21. juni?

 

Det blir isåfall et jævlig dyrt skjermkort.

 

Men fett det her. Er nok ikke lenge til jeg kan få skaffa meg et 6800 GT til drøye 2000 kr.

Endret av Andreasfe
Lenke til kommentar

ehasl: God ide, men det høres dyrt ut. Går det fint å klokke ned under orginal hastighet via f.eks rivatuner eller andre programer/drivere? Kan man samtidig redusere spenninga?

 

Også er ikke desktop-komponentene like egnet til lave klokkehastigheter som de mobile variantene. De mobile er nemlig utstyrt med litt andre typer transistorer (lav lekasje) for å senke effekten (noe som til en viss grad også går ut over ytelsen). Samt at de mobile klokker seg ned og opp etter behov omentrent som CPU'er for bærbare. (unntak: Celeron-M)

 

Edit: Jeg ønsker heller at de lanserer mobile grafikkløsninger for stasjonære PCer. F.eks en vifteløs Geforce Go 6800 Ultra (som i Dells XPS2) ville jeg gladelig kjøpt til min stasjonære om de fantes og prisen ikke var så veldig mye høyere. (dersom jeg hadde tenkt å kjøpe noe sånt da)

Endret av Simen1
Lenke til kommentar
ehasl: God ide, men det høres dyrt ut. Går det fint å klokke ned under orginal hastighet via f.eks rivatuner eller andre programer/drivere? Kan man samtidig redusere spenninga?

Det der er jo litt interessant, er det slik at man kan regne at maksimal ytelse er noenlunde proposjonal med spenning? Om motstanden er relativt konstant så er jo effekten proposjonal med spenningen^2. Så om man regner med at 2 kort har dobbelt ytelse av en, så får man samme ytelse med halv effekt. Men nå har jeg tatt vilt mange antakelser som ikke er basert på fakta, noen som har noe innspill?

 

AtW

Lenke til kommentar
ehasl: God ide, men det høres dyrt ut. Går det fint å klokke ned under orginal hastighet via f.eks rivatuner eller andre programer/drivere? Kan man samtidig redusere spenninga?

Haha, jeg mente egentlig at det er håpløst, men jeg hadde andre ting å gjøre i natt enn å skrive det (vinne Karaoke-TV. :blush: :!: ).

Endret av ehasl
Lenke til kommentar
Tenk å kjøpe to av det beste og dyreste kortet for så å klokke ned til komfortabelt lydnivå... I stedet for 2x6800GT nå.
God ide, men det høres dyrt ut. Går det fint å klokke ned under orginal hastighet via f.eks rivatuner eller andre programer/drivere? Kan man samtidig redusere spenninga?
Haha, jeg mente egentlig at det er håpløst, men jeg hadde andre ting å gjøre i natt enn å skrive det (vinne Karaoke-TV. :blush: :!: ).

 

Seriøst ment, det er faktisk en god metode til å få et mer stillegående system uten å ofre ytelsen totalt.

 

For å stille det på spissen: Et GF 6800 Ultra klokket til halv hastighet på GPUen og undervoltet til halve spenninga vil utvikle ca 1/5 til 1/8 av den varmen den utvikler på full hastighet. Ytelsen vil bli redusert med mindre enn 50% (mindre fordi flaskehalsen av og til ikke ligger i GPU'en). Til sammenligning yter et ca like varmeproduserende GF FX5200 ekstremt mye dårligere. Kanskje 1/5 a det underklokkede kortet.

 

Grunnen til denne forskjellen er at brikkene er såpass ulike i utgangspunktet (16 vs. 2? pixel pipelines, 256bit minnebuss vs. 64bit minnebuss, stor forskjell i hastigheten på minnet osv.)

 

Så det er faktisk seriøst ment at det er et godt forslag. Eneste ulempen er som jeg sier at prisen er ganske høy.

Lenke til kommentar
ehasl: God ide, men det høres dyrt ut. Går det fint å klokke ned under orginal hastighet via f.eks rivatuner eller andre programer/drivere? Kan man samtidig redusere spenninga?
Det der er jo litt interessant, er det slik at man kan regne at maksimal ytelse er noenlunde proposjonal med spenning? Om motstanden er relativt konstant så er jo effekten proposjonal med spenningen^2. Så om man regner med at 2 kort har dobbelt ytelse av en, så får man samme ytelse med halv effekt. Men nå har jeg tatt vilt mange antakelser som ikke er basert på fakta, noen som har noe innspill?

Motstand og motstand.. Det er en rent kapasitiv last så forholdet mellom spenning og strøm, "motstanden", er sterkt frekvensavhengig. Men gitt at frekvensen er den samme så er forholdet mellom spenning og strøm det samme uansett hvilken spenning du gir den.

 

Hvis frekvensen endres så endres også forholdet mellom spenning og strøm. forenklende forutsetning: Innenfor et mindre område av frekvenser så kan man gjerne tolke kurven forenklet til å være lineær.

 

Så litt forenklet kan man si at forholdet mellom spenning og strøm er:

 

U/I = k/f (der U er spenningen, I er strømmen, k er en konstant og f er frekvensen)

 

Da kan man også snu litt på det og finne effekten P:

 

P = (U^2 * f ) / k

 

Dvs. effekten øker eksponensiellt med spenninga, men bare lineært med frekvensen.

 

Men spenning og frekvens er ikke helt uavhengige faktorer. Spenningen for å holde en brikke stabil øker eksponensiellt med frekvensen. Jeg har ikke noen korrekt ligning på det, men bare for å illustrere formen på kurven kan vi si at den er U = 0,7+ (a*f)^2. Der "a" er en ny konstant. Man må altså ha en grunnspenning selv ved frekvenser nært 0 for å få den til å virke, f.eks 0,7V og etter hvert som man øker frekvensen så må man øke spenningen stadig mer. Talleksempel med a = 2,236*10^-9 og k = 16,2*10^6 :

 

200MHz 0,9V 10W

400MHz 1,3V 41,7W

600MHz 2,1V 163W

 

Hvis man setter dette inn i ligningen for effekt over så får man:

 

P = f/k * [0,7+(a*f)^2]^2 eller

P = U^2*root(U-0,7) / (a * k)

 

NB. Legg merke til at den forenklede forutsetningen bare gjør ligningene nogenlunde korrekte innen et mindre frekvensområde. (F.eks et spenn på -50%/+100% av den midterste frekvensen; I eksemplet brukte jeg 400MHz som den midtre frekvensen og -50% = 200MHz, og +50%= 600MHz)

 

NB. Legg også merke til at en halvering av hastigheten, ="ytelsen", ikke fører til en halvering av effekten, men bare kvarte effekten. Hvis vi da sier at Geforce 6800 Ultra er 80W og man underklokker den til halve hastigheten (som også gir absolutt respektabel ytelse) så vil den komme ned på rundt 20W, og kan dermed kjøres vifteløst med en stor kjøreribbe, eller f.eks brukes i en bærbar PC med en bitteliten vifte.

 

NB. GPU'en står for ca 90-95% av varmeutviklingen på grafikkortet så forenklingen å si at den er skyld i all varmeutvikling som i regneksempelet er ikke så langt i fra sannheten.

 

PS. Håper jeg ikke har gjort noen flaue regnefeil her.

(puh, det ble et langt innlegg, håper dere liker det :) )

Endret av Simen1
Lenke til kommentar

Men er det virkelig så mye å tjene på å klokke ned 6800U fremfor 6800GT? Er ikke de brikkene nesten like gode? Det var det jeg mente med håpløst, at de fjerner muligheten for SLI på det beste kortet hvor det er fornuftig på full klokkehastighet, 800GT. Det kan hende at det også hadde blitt helt jævlig, men da synes jeg de burde ha tillatt SLI på alle high-end-kort, så folk kunne velge til en noenlunde fornuftig pris det alternativet som har best balanse mellom ytelse og støy/varme/stabilitet til deres behov. Det vil si, toppalternativet har ikke fornuftig pris uansett.

 

(F.eks et spenn på -50%/+100% av den midterste frekvensen; I eksemplet brukte jeg 400MHz som den midtre frekvensen og -50% = 200MHz, og +100%= 600MHz)
PS. Håper jeg ikke har gjort noen flaue regnefeil her.
Hint hint... Du holder deg i hvert fall innenfor grensene du satte. ;)

 

(puh, det ble et langt innlegg, håper dere liker det :))
Utregninger er fint. Dette er spesielt interessant:
Dvs. effekten øker eksponensiellt med spenninga, men bare lineært med frekvensen.
Spenningen for å holde en brikke stabil øker eksponensiellt med frekvensen.
Betyr dette at det bør finnes en optimal spenning og frekvens for hver chip eller arkitektur, men som overskrides i for eksempel Prescott? Endret av ehasl
Lenke til kommentar
Kanskje man vil få spesielt gode tilbud på G70-kort dersom man tar seg en tur på LAN-partyet i San Franscisco den 21. juni?

 

Vel, hvis man legger til kostnaden av flybillett, ytterlig transport og tilleggsutgifter, så ville det blitt et forferdelig dyrt kort for en nordmann. :tease:

Du får bf2 "gratis" da :) Det er verdt noe.

Lenke til kommentar
Det vil si, toppalternativet har ikke fornuftig pris uansett.

Det har du helt rett i. Ang. 6800 GT vs. 6800 Ultra så gir GT mer for pengene på både watt/støy og ytelse og er dermed en bedre egnet brikke til å klokke ned.

 

(GT har vel også 16 pixel pipelines og 6 vertex pipelines slik som Ultra har?)

 

Edit:

Dvs. effekten øker eksponensiellt med spenninga, men bare lineært med frekvensen.
Spenningen for å holde en brikke stabil øker eksponensiellt med frekvensen.
Betyr dette at det bør finnes en optimal spenning og frekvens for hver chip eller arkitektur, men som overskrides i for eksempel Prescott?

NB. legg merke til at det første sitatet er generellt ut fra alle mulige kombinasjoner av spenninger og frekvenser, mens det andre sitatet er for de kombinasjoner av frekvenser og lavest mulig spenning for at en briukke skal kjøre stabilt.

 

Nei, jeg mener ikke det er noen optimal spenning og frekvens for hver arkitektur. Det kommer helt an på bruksområdet hva som ønskes. F.eks kan en gitt brikke være optimal for desktop (AthlonXP 3200+, 2,2GHz, 1,65V ca 72W), og nøyaktig samme brikken være optimal for bærbare bare at den klokkes ned på fabrikken og kalles noe annet (Mobile AthlonXP 2400+, 2,0GHz, 1,35V, 35W). Begge disse er optimalisert, bare for forskjellig bruksområde.

 

Jeg mener heller ikke at prescott overstiger noen grense. Det er ingen skrevne og klart definerte grenser på ting så Intel er er helt fri til å synes at 105W (eller 200W for den saks skyld) er optimalt for desktop.

 

Heia Simen1

Takk :p "Rainman" slår til igjen ;)

Endret av Simen1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...