Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

AMDs toppkort testet


Anbefalte innlegg

Mer minne på skjermkortene gir vel mest utslag på større oppløsninger.

OG ikke glem at ANTI-aliasing liker høyere mengde minne.

 

 

Hvem syns at jeg burde kansellere mitt 8800gts OC 512mb for å kjøpe dette nye AMD-kortet? :p

 

 

Diskuterte dette kortet med en nerdegjeng idag, og jeg må si at det er synd at 8800gts 512mb blir valgt fremfor det nye kortet fra AMD, pga. løsningen på strømkontaktene hos AMD sitt kort, og jeg er vell enig i at den virker ganske kjip, ville vell vært bedre om de hadde 2x pci-E strømkontakter istedenfor en på 8 og en PCI-e kontakt...

Endret av Abn0rmal
Lenke til kommentar
Videoannonse
Annonse

Mange av dere sitter sikkert på 32bit operativsystem.

Dere burde huske på, at om dere venter på en 2GiB utgave av HD 3870X2 så vil det gjøre ett veldig stort beslag på den tilgjengelige minneadresseringen.

 

Så om du har 2GiB på skjermkortet, så blir det vell ca toppen 2GiB systemminnet.

Lenke til kommentar
Mange av dere sitter sikkert på 32bit operativsystem.

Dere burde huske på, at om dere venter på en 2GiB utgave av HD 3870X2 så vil det gjøre ett veldig stort beslag på den tilgjengelige minneadresseringen.

 

Så om du har 2GiB på skjermkortet, så blir det vell ca toppen 2GiB systemminnet.

 

hæ? Er det enda noen som kjører på 32 bit os? Trodde det var utdødd for mange år siden jeg :!:

Lenke til kommentar
Mer minne på skjermkortene gir vel mest utslag på større oppløsninger.

OG ikke glem at ANTI-aliasing liker høyere mengde minne.

 

 

Hvem syns at jeg burde kansellere mitt 8800gts OC 512mb for å kjøpe dette nye AMD-kortet? :p

 

 

Diskuterte dette kortet med en nerdegjeng idag, og jeg må si at det er synd at 8800gts 512mb blir valgt fremfor det nye kortet fra AMD, pga. løsningen på strømkontaktene hos AMD sitt kort, og jeg er vell enig i at den virker ganske kjip, ville vell vært bedre om de hadde 2x pci-E strømkontakter istedenfor en på 8 og en PCI-e kontakt...

 

Ja, til høyere skjermoppløsning og bruk av AA og AF er det gunstig å ha mer minne på skjermkortet. Håper vi får se dobbelt minnemengde på 3870 X2 snart -og 3870 CrosFire.

 

Til 3870 X2 følger det med overganger. Uansett, jeg har 8-pins PCI på Corsair 750w.

Lenke til kommentar
Det er jo flott at ATI/AMD kommer på banen med noe nytt, og brukbart. Saken er bare den, at fra mitt personlige synspunkt, er det fullstendig meningsløst å si ting som "gruser all motstand" og sånt noe.

 

De tester IKKE en enkelt GPU mot en enkelt GPU, her tar de ett kort med to GPUer for å i det hele tatt være i nærheten av ytelsen til 8800 Ultra. For meg er det ingen konkuranse dette her, det er bare en major League PR-stunt.

 

Skulle testen vært rettferdig, slik at begge produsentene hadde samme utgangspunkt med hensyn til antall GPUs hadde saken vært en helt annen, MEN, og det er ett stort men; Prisen på dette kortet er rett og slett perfekt akkurat nå, fordi det tvinger Nvidia til å senke prisen yttereligere for å være konkuransedyktig.

 

Men at ATI er kongen av ytelse, Det er bare tull. Er jo logisk at ett kort med to GPUs vil være raskere enn ett men en.

 

Nei, God Bedring.

Et kort er et kort uansett om det er 1 eller 10 GPUer på det.

Bare tull å henge seg opp i hvor mange GPUer det er på kortet.

Det er ytelse,pris og støy som teller,ikke antall GPUer..

Når den gjelder CPUer så sammenlignes di gjerne om det er 1-2-3 eller 4 kjerner.Men du mener vel at det og er gale??

Lenke til kommentar
Mange av dere sitter sikkert på 32bit operativsystem.

Dere burde huske på, at om dere venter på en 2GiB utgave av HD 3870X2 så vil det gjøre ett veldig stort beslag på den tilgjengelige minneadresseringen.

 

Så om du har 2GiB på skjermkortet, så blir det vell ca toppen 2GiB systemminnet.

 

 

jeg er på litt tynn is her, men er det ikke slik at pga. den 2gb svitsjen i XP, så vil det uansett kun være 2 gig minne ledig for applikasjoner? jeg vet ikke hvor mye minne windows legger beslag på i et slikt tilfelle, men det kan da ikke være så enorme mengder? 4gig ram-2gig skjermkortminne-X (det windows bruker). spørsmålet er hvor mye mer enn 2 gig total minneadressering pcen vil bruke.

Endret av hardrock_ram
Lenke til kommentar
Det er jo flott at ATI/AMD kommer på banen med noe nytt, og brukbart. Saken er bare den, at fra mitt personlige synspunkt, er det fullstendig meningsløst å si ting som "gruser all motstand" og sånt noe.

 

De tester IKKE en enkelt GPU mot en enkelt GPU, her tar de ett kort med to GPUer for å i det hele tatt være i nærheten av ytelsen til 8800 Ultra. For meg er det ingen konkuranse dette her, det er bare en major League PR-stunt.

 

Skulle testen vært rettferdig, slik at begge produsentene hadde samme utgangspunkt med hensyn til antall GPUs hadde saken vært en helt annen, MEN, og det er ett stort men; Prisen på dette kortet er rett og slett perfekt akkurat nå, fordi det tvinger Nvidia til å senke prisen yttereligere for å være konkuransedyktig.

 

Men at ATI er kongen av ytelse, Det er bare tull. Er jo logisk at ett kort med to GPUs vil være raskere enn ett men en.

 

Nei, God Bedring.

Et kort er et kort uansett om det er 1 eller 10 GPUer på det.

Bare tull å henge seg opp i hvor mange GPUer det er på kortet.

Det er ytelse,pris og støy som teller,ikke antall GPUer..

Når den gjelder CPUer så sammenlignes di gjerne om det er 1-2-3 eller 4 kjerner.Men du mener vel at det og er gale??

 

 

problemet er det at det krever crossfire-støtte i den aktuelle applikasjonen, såvidt jeg har skjønt. jeg lurer for eks. veldig på hvilke CAD-programmer som vil nyte godt av dette kortet framfor 3870. hvis kortet i bruk hadde oppført seg 100% som et enkelt skjermkort, så hadde det vært noe annet. forøvrig er jeg enig med deg at mange snakker om dette som om det er to kort. så lenge man spiller, så er dette det raskeste enkeltkortet! det passer på alle HK, og bruker kun et spor.

Lenke til kommentar
enkelkjerne, dobbelkjerne, cpu, gpu, vil nok gå samme veien som med cpu at flere kjerner blir mer vanling for tunge applikasjoner, tunge seriøse programmer som krever mye gpu vil nok få støtte for dette rimelig hurtig.

 

Vell, det ser ikke ut til å være tilfelle.

Crysis har jo elendig støtte for Crossfire, dog litt bedre støtte for SLi? :hmm:

Lenke til kommentar
enkelkjerne, dobbelkjerne, cpu, gpu, vil nok gå samme veien som med cpu at flere kjerner blir mer vanling for tunge applikasjoner, tunge seriøse programmer som krever mye gpu vil nok få støtte for dette rimelig hurtig.

 

Vell, det ser ikke ut til å være tilfelle.

Crysis har jo elendig støtte for Crossfire, dog litt bedre støtte for SLi? :hmm:

Ytelsen ble vel noe bedre med hotfixen.. Antar både AMD og nVidia vil øke fokuset på CF/SLI kompatibilitet/bedre drivere nå som begge lanserer multigpu produkter. (Med mindre de tar en nVidia *7900GX2/7950GX2* som vel ikke fikk den driverstøtten de fortjente)

<skytesegselvifoten>

Endret av -LIKMARK-
Lenke til kommentar
enkelkjerne, dobbelkjerne, cpu, gpu, vil nok gå samme veien som med cpu at flere kjerner blir mer vanling for tunge applikasjoner, tunge seriøse programmer som krever mye gpu vil nok få støtte for dette rimelig hurtig.

 

Vell, det ser ikke ut til å være tilfelle.

Crysis har jo elendig støtte for Crossfire, dog litt bedre støtte for SLi? :hmm:

Ytelsen ble vel noe bedre med hotfixen.. Antar både AMD og nVidia vil øke fokuset på CF/SLI kompatibilitet/bedre drivere nå som begge lanserer multigpu produkter. (Med mindre de tar en nVidia *7900GX2/7950GX2* som vel ikke fikk den driverstøtten de fortjente)

<skytesegselvifoten>

 

Problemet ligger vell ikke bare utelukkende i driveren?

Men også hvordan spillene er optimalisert for å benytte seg av "multi-GPU" løsninger?

Lenke til kommentar
Problemet ligger vell ikke bare utelukkende i driveren?

Men også hvordan spillene er optimalisert for å benytte seg av "multi-GPU" løsninger?

 

Jo det var derfor jeg skrev dette:

Antar både AMD og nVidia vil øke fokuset på CF/SLI kompatibilitet

Med dette mente jeg fokuset opp mot spillprodusentene, slik som nVidia vel i dag er flinkest til.

 

Edit: Det er vel også grunnen til at Crysis funker bedre med nVidia skjermkort i SLI enn AMDs Crossfire så vidt jeg har forstått.

Endret av -LIKMARK-
Lenke til kommentar
Antar både AMD og nVidia vil øke fokuset på CF/SLI kompatibilitet/bedre drivere nå som begge lanserer multigpu produkter. (Med mindre de tar en nVidia *7900GX2/7950GX2* som vel ikke fikk den driverstøtten de fortjente)

<skytesegselvifoten>

For nVidia 7900GX2/7950GX2 kan du også føre opp begrensninger i operativsystemet (Windows XP & DirectX 9) som et stort problem...

Lenke til kommentar
Antar både AMD og nVidia vil øke fokuset på CF/SLI kompatibilitet/bedre drivere nå som begge lanserer multigpu produkter. (Med mindre de tar en nVidia *7900GX2/7950GX2* som vel ikke fikk den driverstøtten de fortjente)

<skytesegselvifoten>

For nVidia 7900GX2/7950GX2 kan du også føre opp begrensninger i operativsystemet (Windows XP & DirectX 9) som et stort problem...

Du som tydeligvis har litt inside info fra Nvidia. Jeg har selv hatt 2 stk 7950gx2 i dx 9 i xp. Hva som er begrensninga i xp og dx 9? Quad SLI testa jeg bare en kort stund siden jeg fikk tak i et ekstra kort billig, det var jo ofte bedre å kjøre med 1 stk. gx2.

 

Spesiellt spill basert på den nyeste Unreal enginen var en fæl spillopplevelse. Bioshock, Medal Of H. airborne tenker jeg da på. Fikk bedre fps når jeg kjørte med 1 stk gx2 med en gpu disabla vs. 2 og 4 gpuer. Så det var mange med de samme problemene på vanlig SLI rigger også. Det var egentlig grunnen til at jeg solgte kortent og fikk meg 1 stk. 8800gtx.

Endret av Onanias
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...