Gå til innhold

ATI HD3850/HD3870/ X2 brukererfaringer og OC.


leifeinar

Anbefalte innlegg

Videoannonse
Annonse
Ja OK, men nå var det 3450 det var snakk om her. Da er det ikke like mange treff. Og de treffene jeg finner viser for det meste ytelse i spill, noe som er totalt uinteressant i en HD-boks. CPU-bruk under 1080p jeg er ute etter.

 

 

 

Etter det jeg husker så var det de svakeste kortene som lastet cpu minst når 1080p/i ble avspillt.

Lenke til kommentar
Ja OK, men nå var det 3450 det var snakk om her. Da er det ikke like mange treff. Og de treffene jeg finner viser for det meste ytelse i spill, noe som er totalt uinteressant i en HD-boks. CPU-bruk under 1080p jeg er ute etter.

Ganske off-topic i en tråd om 38x0, men selve dekodingsakselerasjonen er den samme. Der er dog en del postprosessering og annet som bruker shaderprogrammer, og konsensus på Avsforum later til å være at 2400 og 3450 er for veike til topp kvalitet i så måte og at man kan komme borti innstillinger som gir avspillingstrøbbel. Sjekk rundt der for nærmere informasjon, bl.a. driver/registertweaks for optimale innstillinger og kompatibilitet med avspillingsprogramvare.

Endret av qwert
Lenke til kommentar

Aner ikke om dere har vært innom allt dette tullet med UBIsoft/Nvidia og Assassin's Creed og hvordan HD3xxx kortene nyter svært godt av en DX10.1 code som spillet ble patchet til.

 

Kort fortalt, HD3xxx får en betydelig bedre bildekvalitet og AA kvalitet/ytelse ved å bruke DX10.1 koden i dette spillet, som virkelig favoriserer ATI's HD3xxx kort. At AC er sponset av Nvidia begynner nå tydligvis å sette sine ufine spor i baken til ATI, for nå begynner det å se ut som om Nvidia tvinger frem en solid retrett av denne koden, for de vil jo ikke ha noe av at et nvidia spill skinner på et ATI kort....

 

Annbefaler dere å lese denne tråden: http://www.rage3d.com/board/showthread.php?t=33921102

 

Selv synes jeg dette lukter svidd, og heldigvis begynner det å komme endel reviews om akkurat dette, og kanskje NV/UBI's sammrøre skaper litt opprør....

Endret av Ourasi
Lenke til kommentar
Aner ikke om dere har vært innom allt dette tullet med UBIsoft/Nvidia og Assassin's Creed og hvordan HD3xxx kortene nyter svært godt av en DX10.1 code som spillet ble patchet til.

 

Kort fortalt, HD3xxx får en betydelig bedre bildekvalitet og AA kvalitet/ytelse ved å bruke DX10.1 koden i dette spillet, som virkelig favoriserer ATI's HD3xxx kort. At AC er sponset av Nvidia begynner nå tydligvis å sette sine ufine spor i baken til ATI, for nå begynner det å se ut som om Nvidia tvinger frem en solid retrett av denne koden, for de vil jo ikke ha noe av at et nvidia spill skinner på et ATI kort....

 

Annbefaler dere å lese denne tråden: http://www.rage3d.com/board/showthread.php?t=33921102

 

Selv synes jeg dette lukter svidd, og heldigvis begynner det å komme endel reviews om akkurat dette, og kanskje NV/UBI's sammrøre skaper litt opprør....

Hvis dette er tilfelle så håper jeg virkelig flere spillprodusenter tar seg til vettet og bruker DX10.1 de også!! :dribble: 20% performance gain fra NO SP1/DX10 til SP1/DX10.1 er jo sykt bra!

Endret av Core2Duo_Dude
Lenke til kommentar
Aner ikke om dere har vært innom allt dette tullet med UBIsoft/Nvidia og Assassin's Creed og hvordan HD3xxx kortene nyter svært godt av en DX10.1 code som spillet ble patchet til.

 

Kort fortalt, HD3xxx får en betydelig bedre bildekvalitet og AA kvalitet/ytelse ved å bruke DX10.1 koden i dette spillet, som virkelig favoriserer ATI's HD3xxx kort. At AC er sponset av Nvidia begynner nå tydligvis å sette sine ufine spor i baken til ATI, for nå begynner det å se ut som om Nvidia tvinger frem en solid retrett av denne koden, for de vil jo ikke ha noe av at et nvidia spill skinner på et ATI kort....

 

Annbefaler dere å lese denne tråden: http://www.rage3d.com/board/showthread.php?t=33921102

 

Selv synes jeg dette lukter svidd, og heldigvis begynner det å komme endel reviews om akkurat dette, og kanskje NV/UBI's sammrøre skaper litt opprør....

 

 

Dette har irritert meg lenge.Skal ha vært forbudt.Trodde det var regler mot konkurransevridning,som pengesterke firmaer rett og slett går inn og styrer markedet slik det passer dem."Its meant to be played.." bullshit.

 

Det er dette som passer oss forbrukere/entusiaster og markedet forøvrig meget dårlig.Spillprodusentene har solgt seg som ei hore.

 

Til opplysning,jeg er ikke fanboy.Har bla 8800GTX/8800GT/3870X2/3870 i huset :)

Endret av lucky666
Lenke til kommentar
Gjest Slettet+6132
Dette har irritert meg lenge.Skal ha vært forbudt.Trodde det var regler mot konkurransevridning,som pengesterke firmaer rett og slett går inn og styrer markedet slik det passer dem."Its meant to be played.." bullshit.

 

Det er dette som passer oss forbrukere/entusiaster og markedet forøvrig meget dårlig.Spillprodusentene har solgt seg som ei hore.

 

Til opplysning,jeg er ikke fanboy.Har bla 8800GTX/8800GT/3870X2/3870 i huset :)

 

Er litt enig her, selv om spilleprodusentene kan ta hele "blamen".

Den er "delt" mellom hardwareprodusenter, de som koder driveree og de som koder spill.

 

Dette er en av grunnene til at jeg ikke tar seriøst alle som absolutt skal se "FPS i <sett-inn-game-her>" som mål på hvor bra ett skjermkort er. Og gjentar dette i etthvert forum for "benchere".

Det er 3DMarks som gjelder. :)

Vel, også slike bench'er vil jo bli farget av hvordan/hvilken "teknologi" som testes via drivere. Og hvordan skjermkortets hardware utnyttes via "kodepath".

Det er f.eks. merkelig å se hvor overlegen Nvidia's teknologi er i f.eks. Pixel-shaders vs. ATI's toppkort.

Eller hvor håpløst ATI-kort er i XFire i f.eks "gamle gode" 3DMark01 (Nature) vs. ett SLI-oppsett. Ren "utdr**ing" - Nvidia vs. ATI / SLI vs. XFire.

Lenke til kommentar

RV770 virker å være meget spennende. Jeg forstår dog ikke hvorfor de fortsatt har så lavt anntall TMUs ift. nvidia om det har stor betydning, men vi får se på ytelsen.

Og *strucked gold with this one* gjenstår å se, jeg tør ikke være entusiastisk ennå.

 

Ellers er det jo helt klart at RV770 er svaret på G92 og 55nm G92b, med sin 256bit minnebuss etc. Det skal også bli interessant å se GDDR5/2GHz på en 256bit minnebuss, kanskje det gir god nok minnebåndbredde for flere situasjoner. Håper ikke det blir spesielt fordyrende.

 

 

Når det gjelder DX10.1 og AC så kommer jeg til å boikotte spillet om det viser seg at de fjerner DX10.1 kode kun for å sabotere det faktum at HD38xx kortene har DX10.1 hardware som kommer til sin rett i spillet.

 

Følg gjerne opp med informasjon om dette så skal jeg avente kjøpet av AC.

Endret av Theo343
Lenke til kommentar

Lurer på om å invistere i en 3870 eller 3870x2 til.

Er det verdt det?

Noen som har linker til noen bra tester?

 

Kortene er blitt så billige.

 

En ting til, jeg lurte på om prossesoren min er en flaskehals når han jogger på 3ghz?

(har problemer med å klokke den stabilt til 3,6ghz, skyldes nok mitt hk som er grettent, dessuten med stabilt mener jeg at spill fryser etter 10min)

Lenke til kommentar
skaff deg trifrire fremfor quadfire.

 

Og er nok ikke HK som er gretent, er nok bare en instilling du har oversett eller satt feil elelr noe sånt for det HK klarer bedre enn 333FSB !!!

Klarer også fint over 400FSB så da er det brukerfeil eller en laterlig lav FSB wal på CPUen din

 

Føles ut som at jeg var uheldig ja.

Men skal ikke dømme hk'et helt ned og nord , før jeg har testet siste firmware.

Lenke til kommentar

En ting jeg lurer på, var ATI sin 512-bit minnebåndbredde på 2900xt kortene en så stor flopp siden de ikke prøver seg igjen?

 

Ingen kort i 3xxx serien har det, og ser jo ut til at ikke 4xxx serien får det heller.

 

Gddr5 og 512-bit minnebåndbredde hadde jo sikkert vært en fin kombinasjon :p 256-bit føles så gammelt i disse high-tech dager :p

Lenke til kommentar
En ting jeg lurer på, var ATI sin 512-bit minnebåndbredde på 2900xt kortene en så stor flopp siden de ikke prøver seg igjen?

 

Ingen kort i 3xxx serien har det, og ser jo ut til at ikke 4xxx serien får det heller.

 

Gddr5 og 512-bit minnebåndbredde hadde jo sikkert vært en fin kombinasjon :p 256-bit føles så gammelt i disse high-tech dager :p

Problemet var at kortene ikke hadde sjangs om å utnytte båndbredden fra en 512-bit buss(pga. for lite ROP's og TMU's).

 

Kombinasjonen GDDR5 og 256-bit minnebuss gir mer enn nok båndbredde, rundt 120-140GB/s. ;)

512-bit OG GDDR5 hadde nok blitt litt overkill for RV770. :p

Lenke til kommentar
En ting jeg lurer på, var ATI sin 512-bit minnebåndbredde på 2900xt kortene en så stor flopp siden de ikke prøver seg igjen?

 

Ingen kort i 3xxx serien har det, og ser jo ut til at ikke 4xxx serien får det heller.

 

Gddr5 og 512-bit minnebåndbredde hadde jo sikkert vært en fin kombinasjon :p 256-bit føles så gammelt i disse high-tech dager :p

Og det kommer tilbake nå med R700, så ATI vil få god nytte av sine implementasjoner tidligere.

 

256bit har vært en liten avsporing eller detour om du vil, med G92 og HD3870 fordi man ikke har hatt behov for den ekstra minnebåndbredden i disse kortene.

 

Ellers er G94 og HD3850 mer typiske produkter for 256bit båndbredde.

Endret av Theo343
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...