Gå til innhold

Den lille nVidia Fermi tråden: GTX 470/480/580 etc. Fermi for f...


Nizzen

Anbefalte innlegg

*leste feil på linken* og det er ikke DCII du linker til!

 

Referansekjøleren til 580 er ganske god ved at den ikke har noen typisk ubehagelig lydkarakteristikk og bråker mindre enn 480 referanse.

Jeg har ingen erfaring med DC utgaven av DCII og aner ikke hvordan den er på støy. Selv bommet jeg stygt på Gainward sin "Good" ikke-referanse.

 

Er det slikt å forstå at du angret deg på gainward koret ditt?

 

 

Bare tenker siden jeg skal ha to av disse i SLI og de må stå inntil hverandre så vil det øverste generere en god del varme, som igjen vil føre til mer vifte støy. Eg klarer søren med ikke å bestemme meg.

Lenke til kommentar
Videoannonse
Annonse

Asus sitt DCII er nok helt klart det minst støysvake. Jeg var ikke helt sikker på om det var DCII vi så pga. pris og forvirrende tekst hos komplett. Den er helt klart støysvakest men tar jo også mest plass. Men i SLI og om jeg har plassen til dem ville jer vurdert dem da dette kortet også har overlegne klokkeegenskaper :)

 

Det er brukt bedre komponenter gjennom hele fjøla på DCII så det er klart det beste kortet på alle områder.

 

DCII kan dog være vanskeligere å selge brukt når det er såpass stort fysisk men entusiastene vil vite hva det. Du vil alikevel få et mindre marked ved bruktsalg.

 

Det er det jeg å tenker, men eg er litt usikker på når det kommet til dette med båndbredden på koret 8x 8x. Men kansje eg får satse på at dette ikke spiller noe særlig rolle.

 

Dette med brukt salg tror jeg ikke kommet til å bli aktuelt uansett, og til 3995 så synes jeg ikke at prisen heller var så gale. Men nå kommer jo mest sannsynelig gtx 590 i løpet av noen dager og da synker vel prisene ennå mer.

Lenke til kommentar

Oppdaterte innlegget mitt litt, ble litt mye surr i starten der. Ja jeg sendte Gainward "GOOD" kortene i retur fordi det var elendig kjøler på dem, men de er nok unntaket.

 

Her er det oppdaterte innlegget.

Asus sitt DCII er nok helt klart det minst støysvake. Jeg var ikke helt sikker på om det var DCII eller en billigvariant vi så pga. pris og forvirrende tekst hos komplett. Men det er rimelig klart at det er den "ekte" velrenomerte DCII ja.

 

Det er helt klart meget støysvakt men tar jo også mest plass. For 2xSLI og om man har plassen til 2 av dem ville jeg helt klart vurdert dem da dette kortet også har overlegne klokkeegenskaper :) Det er brukt bedre komponenter gjennom hele fjøla på DCII så det er klart det beste kortet på alle områder.

 

Tester og reviews jeg har lest av 580 DCII er mildt sagt imponerende.

DCII kan dog være vanskeligere å selge brukt når det er såpass stort fysisk men entusiastene vil vite hva det er godt for. Du vil alikevel få et mindre marked ved bruktsalg.

 

EDIT:

Men det må jo ha vært et kraftig prisfall på ikke-referanse skjermkortene som DCII nå? Muligens pga. det kraftige fallet i USD pga. den kraftige Oljepris økningen. Men det ser ikke ut til å ha slått ut i særlig grad på andre komponenter butikker ikke har på lager ennå.

Lenke til kommentar

Jeg ville da helt klart gått for DCII kortet. Komplett har 1 stk inne til 100 lappen mer, Dustin får jo ikke kortene før om en stund og 590 kommer i slutten av mars. Jeg ville muligens ventet og se hva som skjer med prisene når 590 kommer.

 

Om USD holder seg så lav som den er nå kan det bli virkelig gode priser. Det hele kommer ann på om du skal spille noe særlig nå og ut mot slutten av mars eller ikke :).

Endret av Theo343
Lenke til kommentar

Jeg ville helt klart gått for DCII kortet. Komplett har 1 stk inne til 100 lappen mer, Dustin får jo ikke kortene før om en stund og 590 kommer i slutten av mars. Jeg ville muligens ventet og se hva som skjer med prisene når 590 kommer.

 

Om USD holder seg så lav som den er nå kan det bli virkelig gode priser.

 

Ja eg tror det blir det eg går for, dumt at det tar opp hele hoved koret men så har dette hovedkortet alt eg trenger fra før av.

 

Har fått beskjed fra dustin at det skaffer det iløpet av 2 dager når det er betalt.

 

Får håpe at corsair 800D ikke byr på noen plass problemer:S

Lenke til kommentar

Grattis med et godt valg og to fantastiske kort. Står også 3. mars hos Dustin ja, stemmer. Hvem sendte du mail til for å høre? Skal høre ang. en annen vare.

 

Takk skal du ha, snakket med en hyggelig fyr på kundeservice. Tlf: 21 04 40 20

Lenke til kommentar

Jeg vet at skjermkort i SLI ikke blir rapportert som f.eks 3GB i oset. Men er det slik at i sli mellom 2x 580 kort så blir bare maks 1,5GB av minnet brukt samtidig? Hvorfor skal det ikke være mulig å programere det slik at en får utnyttet alt minne?

 

Blir ikke det som om en 2 Kjerners CPU ikke skulle klart å utnytte 2 Minnebrikker, men bare brukt 1 av dem om gangen?

 

Leitet mye på nettet men har ikke funne noe god forklaring på hvorfor det er slik det er. Folk sier at båndbredden i dette tilfellet som er 192 GB/s per kort blir for mye for Pci bussen. Men siden skjermkort rendrer hver sin frame eller hver sin del av skjermen så skjønner jeg ikke hvorfor dem ikke kan fungere som om det er 2x enkle skjermkort som holder på med hver sin jobb, dem hadde jo bare trengt å bli synkronisert?

 

Noen som har innsikt i dette?

Endret av Ekinorak
Lenke til kommentar

For å forstå hvorfor de ikke deler minne med hverandre, så må du forstå hvordan gpu'ne jobber. Ved AFR (alternate frame rendering) så jobber gpu slik at de lager annenhverbilde etterhverandre.

Hvis bilderekkefølgen er slik: 123456781234567812345678, så vil GPU A rendere bildene 1,3,5,7. Mens GPU B rendere bildene 2,4,6,8. GPU'ne bruker sin egen minne til å lagre og hente data for å lage sin bilde for jobben. Akkurat som en enkelstående GPU ville ha gjort. Dermed hvis feks. en textur som er større enn minne kan håndtere med å lagre info, så kan ikke GPU A låne minnet fra GPU B siden GPU B må også skrive/lese textur og ha plass for å lage bilde som kommer etterpå (dvs minnet er allerede opptatt). Dermed for å laste texturen så må den skrive/lese over flere sykler.

 

Edit: Begge minnene som totalt er 3GB blir utnyttet, men framebufferen er kun på 1.5GB altså den kan ikke lagre texture og bilder som er større enn 1.5GB. For større texture og bilde så må GPU'ne laste dem over flere sykler alt etter hvor store de er. Hvis textur er på 3GB, så må gpu ta dem i to omgang.

Endret av Greddi
Lenke til kommentar

Edit: Begge minnene som totalt er 3GB blir utnyttet, men framebufferen er kun på 1.5GB altså den kan ikke lagre texture og bilder som er større enn 1.5GB. For større texture og bilde så må GPU'ne laste dem over flere sykler alt etter hvor store de er. Hvis textur er på 3GB, så må gpu ta dem i to omgang.

Jeg forstod ikke helt hva du mente her, men jeg prøver meg på en forklaring/utdyping. Ved AFR, der GPU har 1,5 GB minne hver, vil begge GPUene trenge omtrent det samme liggende i minnet sitt, siden ting endrer seg lite fra et bilde til det neste, men det er slik det må gjøres når de ikke deler minnet. Kortet har 3GB minne, men under rendring av et enkelt bilde er 1,5GB tilgjengelig. Alternativet er å rendre delbilder på hver GPU og lappe disse sammen, og for å utnytte dette godt må da hele tiden lasten fordeles mellom GPUene, men i rent minneforbruk så vil besparelsene være minimale siden kamera plutselig kan snu seg og da må geometrien, teksturene osv. være tilgjengelig. De fleste spill i dag laster uansett det meste inn i minnet ved oppstart, så under spilling av en bane vil minnet på begge GPUer stort sett inneholde det samme. Uansett, det jeg vil frem til her er at med mindre GPUene har en delt minnebuss så kan vi ikke legge sammen kapasiteten og si de har dobbelt så mye å rutte med.
Lenke til kommentar

Du forsto meg rett. Unntatt med den "1.5 GB som er kun tilgjengelig" Begge minnekretsene blir brukt. Men GPU A kan ikke låne minne fra GPU B for å lese/skrive og laste et bilde på 3 GB. siden GPU B bruker selv for å rendere et bilde som kommer etterpå.

 

En annen analogi: To kunstnere som skal male et bilde hver. De har et rom hver som er 2x3 m2. Altså kunsterene kan bare male et bilde som er maks 3 meter lang. Hvis kunsterene får en jobb der de må male et bilde som er 6 meter lang, så har de ikke plass til å male bildene siden bildene er for lange for rommet. Det mange tror er at rommene til disse kunstnerne ligger ved siden av hverandre, slik at de kan bare åpne skilleveggen og dele arealet slik at rommet blir plutselig 2x6 kvadratmeter. Noe som ikke er tilfellet. Selv om rommene tilsammen utgjør samme areal som 2x6 m2. Men rommene er separert og kan ikke slås sammen. Dermed må kunsterene dele jobben i to og lage bildene 3 meter lange og slås i sammen i etterkant.

 

2x1.5 = 3 GB totalt på kortet. Minnekretsene er på 1.5GB på en gpu. Framebuffer = 1.5GB

 

eks1.

R6990 har 2 GB for hver GPU. Kortet har 4 GB minne totalt på selve PCB'n, altså 2 GB på hver GPU. Framebufferen til hver gpu er 2 GB siden den bare har 2 GB minne. 4GB minne på kortet er markedsføringtriks.

 

eks2.

Gtx 590 har 1.5 GB for hver GPU. Kortet har 3GB minne totalt på selve PCB'n, altså 1.5 GB på hver GPU.

Framebufferen til hver gpu er 1.5 GB siden den har bare 1.5 GB minne. 3GB minne på kortet er markedsføringtriks.

 

Markedsføringavdelingen lyger jo ikke, fysisk så er det 3GB/4GB minne på kortene. Og begge GPU utnytter begge minnekretsene på kortet, slik at du bruker 3GB eller 4GB minne. Men Du kan kun lese/skrive data som er maks 1.5 GB eller 2 GB stort.

Markedsføringstriks er der for å lurer folk som har mindre peiling på hardware, og skal få dem til å tro: "WOW 4 GB minne på kortet! DET MÅ VÆRE BRA/RÅ kort ASSÅ!!!"

Lenke til kommentar

Du forsto meg rett. <klipp>

Du trenger ikke forklare meg prinsippet altså, jeg er fullstendig klar over hvordan det fungerer. Jeg bare synest forklaringen var litt uklar så jeg forsøkte meg på en liten utdyping slik at vår venn Ekinorak skulle forstå det bedre. ;)

 

En enkel analogi. 2 varebiler med 1.5 kubikk lasteplass hver gjør ikke at en varebil kan bruke 3 kubikk lasteplass. Men når begge varebilene kjører i tospann får du gjort unna mer samtidig.

Analogien passer dessverre dårlig siden skjermkort i SLI/CrossFire må i større eller mindre grad lagre mye av det samme, da bør du endre analogien din litt.

Mitt forsøk: to el-montører jobber på hver sin mast men har med hvert sitt komplette sett verktøy.

 

-----

 

En beta-versjon av spillet Oil Rush kan nå kjøpes, jeg prøvde det så vidt i sted og det fungerte fint.

Endret av efikkan
Lenke til kommentar

Du forsto meg rett. Unntatt med den "1.5 GB som er kun tilgjengelig" Begge minnekretsene blir brukt. Men GPU A kan ikke låne minne fra GPU B for å lese/skrive og laste et bilde på 3 GB. siden GPU B bruker selv for å rendere et bilde som kommer etterpå.

Mulig jeg er for trøtt nå etter å ha jobbet et nattskift, men hvor er den store forskjellen på dette og om man hadde en GPU og 3GB minne som må kaste ut et 3GB stort bilde og laste opp nye teksturer for å rendre neste frame? Det vil jo bli et stor forskinkelse også her. Som efikkan var inne på laster de fleste spill alt av teksturer opp i minne (så fremst det er nok minne) som spillet vil bruke i starten av et nytt map/nivå. For spill som streamer teksturene vil en god streaming implentasjon sørge for at teksturene er i minne før det faktisk trengs. Om GPU'ene deler en minne pool vil ikke kravet om minne kapasitet bli større kontra 1 GPU, har man for lite minne vil man få problemer uansett.

Grunnen til at SLi/Crossfire ikke deler på minnet mellom GPU'ene (SLi/Crossfire broen har alt for lav båndbredde til dette) og har hver sin minne pool med hver sin kopi av grafikk dataene er heller pga det gir langt mer minnebåndbredde med dedikert minne og minnebuss til hver GPU.

 

Eller tar jeg helt feil her effikan?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...