Gå til innhold

lær meg om grafikk kort...


Føss

Anbefalte innlegg

Videoannonse
Annonse
det jeg lurte på var om man kan gjøre et gfx5900 til et gfx 5950 ultra ved å overklokke litt... kan man??

Hvis den eneste forskjell er at Ultra har større klokkehastighet så er det vel oppnåelig med riktig kjøling.

jeg lurte på om noen viste om den eneste forskjellen er klokkehastigheten...

Lenke til kommentar
FX5950 koster da ikke så mye?

 

Du får spørre Nvidia hvorfor de prissatt kortet så "mye" da, eller de enkelte webshoppene. Var ikke vi som gjore det vettu :)

"what eva"... er det noen forskjell på gfx5900 og gfx5950 ultra uten om hastigheten???

Det ene er basert på NV35, den andre NV38, hvis jeg husker riktig... Det går jo an gidde å lese produktsidene... Og please, dropp fjortissfaktene....

Endret av petter;
Lenke til kommentar
FX5950 koster da ikke så mye?

 

Du får spørre Nvidia hvorfor de prissatt kortet så "mye" da, eller de enkelte webshoppene. Var ikke vi som gjore det vettu :)

"what eva"... er det noen forskjell på gfx5900 og gfx5950 ultra uten om hastigheten???

Det ene er basert på NV35, den andre NV38, hvis jeg husker riktig... Det går jo an gidde å lese produktsidene... Og please, dropp fjortissfaktene....

jeg er fjortiss!!! :):):) btv. hva er fjortissfakta??

Endret av 3D-player
Lenke til kommentar

"fjortissfakter", ikke "fjortissfakta"...

 

Det er jo ikke bare hastigheten som er forskjellig.. Minnekvalitet, design og strømbruk er vel noen ting..

 

#EDIT#

 

du ser bildet mitt ikke sant

 

Slutt med det tullet og ta til fonuften! Radeon 9800 Pro er det beste kjøpet man kan gjøre nå!

 

Du kan slutte med det nVidia-fanboy tullet! Ha et åpent sinn.. Kjøp av den produsenten som er best når du skal kjøpe...

Endret av Zythius
Lenke til kommentar
"fjortissfakter", ikke "fjortissfakta"...

 

Det er jo ikke bare hastigheten som er forskjellig.. Minnekvalitet, design og strømbruk er vel noen ting..

ja... men hvis brikkesettet er HELT likt på begge, ABSOLUTT BARE klokkehastigheten som er forskjellig så ville jeg aldri kjøpt gfx5950 utra!!! :)

Endret av 3D-player
Lenke til kommentar

...men sånn tilfelle du fortsatt ikke føler du har fått svar på spørsmålet ditt:

 

5950 U har annen GPU (NV38) enn 5900 og 5900 U (NV35)

 

hastighet på GPU:

 

5900 400

5900 U 450

5950 U 475

 

 

Minnehastighet:

 

5900 850

5900 U 850

5950 U 950

 

Ellers samme DX generasjon (DX9), lik busbredde (256bit) og like mange "pipes" (8x1)

 

 

Forøvrig slenger jeg meg på påstanden om at dette er helt uinteressant ettersom R9800pro uansett er et bedre kjøp!

Lenke til kommentar
Ellers samme DX generasjon (DX9), lik busbredde (256bit) og like mange "pipes" (8x1)

4x2 konfigrasjon som kan kjøre ut 8 non-colored (z, stencil operasjoner) pixler per clock.

 

Forøvrig slenger jeg meg på påstanden om at dette er helt uinteressant ettersom R9800pro uansett er et bedre kjøp!

Det er ikke uinteressant for dem som av en eller annen grunn ikke vil ha ATi kort. Men jeg sterkt anbefale GF6800 fremfor FX serien.

Endret av MistaPi
Lenke til kommentar
Det er ikke uinteressant for dem som av en eller annen grunn ikke vil ha ATi kort. Men jeg sterkt anbefale GF6800 fremfor FX serien.

Anbefaler du GF6800 fremfor FX? :ermm:

GF6800 ER et GeForce FX-kort...

 

 

En ting til, 3d-player - Hvorfor vil du ikke ha ATi? La HAN svare, MistaPi, for dine grunner er uinteressant her... Jeg vil vite hans grunn.

 

 

;)

Nei det er ikke det.

G-force gikk fra FX navnet med nv40 serien.

Lenke til kommentar
Anbefaler du GF6800 fremfor FX?  :ermm:

GF6800 ER et GeForce FX-kort...

Umm.. nei. Som du selv skriver, GF6800, ikke GF FX6800. nVidia har kuttet ut FX navnet.

 

En ting til, 3d-player - Hvorfor vil du ikke ha ATi? La HAN svare, MistaPi, for dine grunner er uinteressant her... Jeg vil vite hans grunn.

Hvorfor skulle jeg svare på et spørsmål du stiller 3d-player?

Lenke til kommentar
hva om en kunne ha brukt dagens CPUer som GPU ? ville det fungert bedre/dårligere enn det som er topnotch i dag ? og hvorfor lager ikke Intel skikkelige skjermkort som kan konkurere med ATI og Nvidia ? de burde jo sitte på bøttevis med KnowHow.

 

Epz

Er endel fundamentale forskjeller...

GPU'er bearbeider store mengder data paralellt(RISC), mens dagens CPUer gjerne arbeider serielt(CISC). GPUer er gjerne ganske spesialiserte mens CPUer må være mer fleksible. GPUer er gengerelt mye mer komplekse og avanserte enn CPUer.

Å kjøre operasjoenen til en GPU på en CPU krever spesialskrevet software, noe som medfører mye ytelsestap.

Nå er dog de nyeste GPUene veldig programmerbare, og leste for en stund siden at noen forskere hadde programmert en Geforce FX til å fungere som CPU på ett spesiallaget hovedkort. - Denne ga en ytelse tilsvarende en 3 GHZ P4.

Intel sitter ikke med så mye kunnskap om grafikk-rendering, og deres inntog i grafikkort er stort sett i minimums-ytelse-kategorien.

Grafikkrendering er en veldig avansert og spesialisert vitenskap, med mye tung matte, og ett konstant kappløp om å optimalisere utregningene.

Cisc og risk har ingen ting med paralellt eller seriellt å gjøre... Det beskriver om det er et omfattende eller redusert instruksjonsett (forenkling).

 

En GPU har ikke et instruksjonssett som tillater at det kjører alene. Det er så ufattelig mye mer enn en shader som skal til for å få en datamaskin til å fungere, IRQ'er, IO registre osv.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...