ArneJ. Skrevet 27. juni 2008 Del Skrevet 27. juni 2008 Er det sikkert at det kommer 1GB versjon av HD4870?Hvis ja, når kommer det og vil det være verdt å kjøpe det ved bruk av 1680x1050 oppløsning? Spill fremmover kommer til å krev mer og mer, for en tid tilbake synes mange det var tull min over 256. Har selv hørt rykter om et 4870 med 1 gb, noe deffinitivt jeg hadddet ventet på. Kommer garantert kort med 1GB, mulig det kun blir noe enkelte produsenter velger å gi ut på egenhånd men det kommer garantert. Bare å se på feks. 8800gt, disse kom jo med 1GB utgaver. Lenke til kommentar
Kirchhoff Skrevet 27. juni 2008 Del Skrevet 27. juni 2008 (endret) Men vi husker jo 8800 gts 320 vs 640 og 8800 gt 512 vs 1 gb. 8800 gt 1gb var i beste fall like god som 512 versjonen, mens 640 ofte var dårligere/like god enn/som 320 på 8800 gts på oppløsninger som 1280x1024 og 1680x1050. Men i de høyeste oppløsningen var det 640 mb versjonen som regjerte. Endret 27. juni 2008 av O:M:A Lenke til kommentar
simalarion Skrevet 27. juni 2008 Del Skrevet 27. juni 2008 grunnet at ingen spill utnyttet det ja, men utviklignen over 512 går nok fort nå som det begynner å bli vanlig. Lenke til kommentar
Prognatus Skrevet 27. juni 2008 Del Skrevet 27. juni 2008 Har man planer om å drive med desktop-virtualisering, bør man antagelig satse på 1GB-versjonen. Virtualisering deler jo opp skjermkortminnet til hver OS-instans, slik at 1GB minne forsvinner fort hvis man bruker 640 MB til Windows og 384 MB til Linux f.eks. Lenke til kommentar
Simen1 Skrevet 27. juni 2008 Del Skrevet 27. juni 2008 Virtualiserer man et OS med 2D skrivebord så trenger hver instans bare noen få MB minne på skjermkortet. Hvor ofte virtualiserer man flere instanser av avansert 3D grafikk samtidig? Aldri? Lenke til kommentar
Prognatus Skrevet 27. juni 2008 Del Skrevet 27. juni 2008 Man avsetter manuelt hvor mye skjermminne man skal bruke pr. virtuell maskin når den settes opp, og selv om det er mulig å endre på dette senere er det i praksis mye jobb å endre dette frem og tilbake etter behov. Så det blir da gjerne stående slik man har satt det opp til å begynne med. Hvis man da f.eks. ønsker å kjøre en 3D-applikasjon (spill el.l.) i Windows, og ikke har avsatt nok skjermminne, må man huske på å avslutte Linux-VMen først. Det er også i praksis mye å huske på, synes jeg. Da er det enklere å investere i 1GB med en gang. Lenke til kommentar
Core2Dude Skrevet 27. juni 2008 Del Skrevet 27. juni 2008 Er det sikkert at det kommer 1GB versjon av HD4870?Hvis ja, når kommer det og vil det være verdt å kjøpe det ved bruk av 1680x1050 oppløsning? Spill fremmover kommer til å krev mer og mer, for en tid tilbake synes mange det var tull min over 256. Har selv hørt rykter om et 4870 med 1 gb, noe deffinitivt jeg hadddet ventet på. Kommer garantert kort med 1GB, mulig det kun blir noe enkelte produsenter velger å gi ut på egenhånd men det kommer garantert. Bare å se på feks. 8800gt, disse kom jo med 1GB utgaver. Spørs bare hvor lenge jeg klarer å vente låner 6600gt *kremt* Lenke til kommentar
haalo Skrevet 27. juni 2008 Del Skrevet 27. juni 2008 Man avsetter manuelt hvor mye skjermminne man skal bruke pr. virtuell maskin når den settes opp, og selv om det er mulig å endre på dette senere er det i praksis mye jobb å endre dette frem og tilbake etter behov. Så det blir da gjerne stående slik man har satt det opp til å begynne med. Hvis man da f.eks. ønsker å kjøre en 3D-applikasjon (spill el.l.) i Windows, og ikke har avsatt nok skjermminne, må man huske på å avslutte Linux-VMen først. Det er også i praksis mye å huske på, synes jeg. Da er det enklere å investere i 1GB med en gang. Får man i det hele tatt maskinvareaksellerert 3D i virtuelle maskiner? Lenke til kommentar
Theo343 Skrevet 27. juni 2008 Del Skrevet 27. juni 2008 (endret) Lurer på om dette kommer pga. den ekstra båndbredden gtx280 har siden det slår spesiellt ut i den oppløsningen...? Jeg vil kanskje tro det er en kombinasjon av at 512MB minne kommer til kort og de minnetrafikk besparene funksjonene, mer spesifikk hierarchical Z, ikke fungerer optimalt i 2560x1600. Helt enig i denne. Mer minne har ikke bare fordeler i høye oppløsninger, vi så jo det i både Oblivion med texture mods og i Crysis selv i lave oppløsninger med tunet oppsett som krevde 800MB videominne etc. Endret 27. juni 2008 av Theo343 Lenke til kommentar
RamGuy Skrevet 27. juni 2008 Del Skrevet 27. juni 2008 The Verdict Alright then, conclusion time. Well, you don't exactly need to be an Einstein impersonator here to draw the conclusion. Pure bliss, pure victory, AMD's empire strikes back ! Let me call it, though both cards will win and lose from each other here and there, the Radeon HD 4870 is in fact competing with the GeForce GTX 260 in performance. Nobody expected that, well I certainly didn't ... Now even if overall performance of the 4870 would be say 10% slower .. even then still it would win based on the price. AMD has roughly 400 million transistors less in it's 55nm product yet takes the advantage of clever architecture in combo with GDDR5. See GDDR5 has the ability to scale far in its clock frequency, real far; 6 maybe even 7 GHz. It's unquestionably very possible. In our overclock we already reached 4400 MHz, while the software didn't allow us to go higher, the memory likely could have. So there you have it, if I where in the store right now clearly I'd save myself a hundred bucks and pick the Radeon HD 4870. But .... (there's always a but), to my knowledge GDD5 memory is scarce, and only produced by Samsung. This might be the only factor limiting the 4870. If there isn't enough GDDR5 memory, then there won't be enough Radeon HD 4870 boards to sell. And then price versus demand will kick in thus the prices will rise. At this moment, prices do seem to be stable yet I have seen some vendors ripping off their customers at 400+ USD for this 299,- USD priced product. Factor that out and the only thing really left to say is that the Radeon HD 4870 is a homerun man. I mean, even NVIDIA staff must be scratching behind their ears right now and say "Oh frack, what the heck happened here". In the beginning of this article I mentioned that I had reservations about AMD strategy, but in fact they only validated that they are right. The Radeon series 4800 are tremendous sexy products and will guarantee you a lot of gaming performance and quality at a very fair price. Let's recap a little, we have been playing Call of Duty 4 at 2560x1600 with 4xAA and all image quality setting maxed out at an average of 40 frames per second. Crysis performance is on par with a GeForce GTX 260. Race Driver GRID pushed the card towards leading performance and in my favorite new title, Mass Effect the card again was faster than a 399 USD GeForce GTX 260. If that isn't enough, the card has excellent overclocking potential. Unfortunately our Rivatuner is not yet ready to support these cards just yet, however with the Catalyst Control Center we where able to push the card to the maximum allowed overclock easily, with no hiccups at all we again boosted another 10% performance out of the card. Well, let me just end this conclusion, this quite frankly is one of the best purchases you can make. And that's all you need to know. If the price is right and gaming is your thing, go for it my man. You'll love it, it's the best value your money can get you. Genial avslutting av Guru3D! You just got to love them! Lenke til kommentar
Theo343 Skrevet 27. juni 2008 Del Skrevet 27. juni 2008 *rister i stolen og bestillingsknappen*... argh men jeg vil ha 1GB utgaven... Lenke til kommentar
RamGuy Skrevet 27. juni 2008 Del Skrevet 27. juni 2008 even NVIDIA staff must be scratching behind their ears right now and say "Oh frack, what the heck happened here" En så genial setning! Sitter enda og humrer av den :!: Lenke til kommentar
simalarion Skrevet 28. juni 2008 Del Skrevet 28. juni 2008 Tja, svaret er jo smertlig enkelt, ATI har Dumpa prisenen inne i gamperæva. Ikke så mye å lure på det Lenke til kommentar
leifeinar Skrevet 28. juni 2008 Del Skrevet 28. juni 2008 *rister i stolen og bestillingsknappen*... argh men jeg vil ha 1GB utgaven... tror du at det blir noen særlig forskjell? vil tippe max 5%, og sikkert en pris som er over 2500,- allt avhenger om det er minnet som er flaskehals. og om det er det vet vi vel ikke? Lenke til kommentar
Prognatus Skrevet 28. juni 2008 Del Skrevet 28. juni 2008 Klikk for å se/fjerne innholdet nedenfor Man avsetter manuelt hvor mye skjermminne man skal bruke pr. virtuell maskin når den settes opp, og selv om det er mulig å endre på dette senere er det i praksis mye jobb å endre dette frem og tilbake etter behov. Så det blir da gjerne stående slik man har satt det opp til å begynne med. Hvis man da f.eks. ønsker å kjøre en 3D-applikasjon (spill el.l.) i Windows, og ikke har avsatt nok skjermminne, må man huske på å avslutte Linux-VMen først. Det er også i praksis mye å huske på, synes jeg. Da er det enklere å investere i 1GB med en gang. Får man i det hele tatt maskinvareaksellerert 3D i virtuelle maskiner? Tja, hvorfor ikke? Jeg vet ikke nok om dette, men jeg vil tro at det avhenger av hvilken virtualiseringsløsning man velger å bruke. Det vil dog alltid være en viss overhead med virtualisering og ytelsen i 3D kan derfor bli uakseptabel lav for noen. Lenke til kommentar
Jalladoode Skrevet 28. juni 2008 Del Skrevet 28. juni 2008 See GDDR5 has the ability to scale far in its clock frequency, real far; 6 maybe even 7 GHz. It's unquestionably very possible. In our overclock we already reached 4400 MHz, while the software didn't allow us to go higher, the memory likely could have Er det noen som har sett mer info om dette. Dersom minnet klokker så vanvittig kan det kanskje være unødvendig å vente på en mulig versjon av 4870 med 1Gb minne. Lenke til kommentar
Theo343 Skrevet 28. juni 2008 Del Skrevet 28. juni 2008 (endret) *rister i stolen og bestillingsknappen*... argh men jeg vil ha 1GB utgaven...tror du at det blir noen særlig forskjell? vil tippe max 5%, og sikkert en pris som er over 2500,- allt avhenger om det er minnet som er flaskehals. og om det er det vet vi vel ikke? Mer minne har ikke bare fordeler i høye oppløsninger, vi så jo det i både Oblivion med texture mods og i Crysis selv i lave oppløsninger med tunet oppsett som krevde 800MB videominne etc. Så jeg er høyst skeptisk til disse 5% folk snakker om. Hvis det lagger gamperæva innimellom pga. for lite minne så ødelegger det spillopplevelsen totalt. Endret 28. juni 2008 av Theo343 Lenke til kommentar
Simen1 Skrevet 28. juni 2008 Del Skrevet 28. juni 2008 Tja, svaret er jo smertlig enkelt, ATI har Dumpa prisenen inne i gamperæva. Ikke så mye å lure på det Prisdumping er nok bare en medvirkende årsak. Dvs. AMD kunne nok tatt seg mye bedre betalt for 4800-serien men da hadde de ikke fått den PR-effekten de har i dag. Men i tillegg til denne strategien har de en GPU som trolig er mye billigere å produsere enn Nvidias. Det, sammen med billigere PCB og "smartere" GPU (færre transistorer men likevel bedre ytelse) har også hjulpet dem. Strategien med lav pris vil gjøre to ting: Gjøre at de hevder seg igjen og får solgt mange GPUer. På grunn av stordriftsfordeler betyr det lavere kostnader per GPU for dem. I tillegg vil det såre Nvidia der de er mest sårbar: Pris. Nvidia må trolig selge sine GPUer med tap fremover for å ikke bli helt akterutseilt på pris/ytelse. Nvidia har rett og slett ikke noe valg. Det er billigere å produsere med tap enn å permittere de ansatte og kapitulere helt. Aksjonærene godtar at de selger med tap i håp om at Nvidia skal komme sterkere tilbake senere. Det er nok ikke lenge til vi får se store priskutt hos Nvidia, og varsel om dårligere økonomiske resultater. Nvidia henger selvsagt med videre i konkurransen, men mer på defensiven enn på offensiven. Lenke til kommentar
Kirchhoff Skrevet 28. juni 2008 Del Skrevet 28. juni 2008 Tja, svaret er jo smertlig enkelt, ATI har Dumpa prisenen inne i gamperæva. Ikke så mye å lure på det Prisdumping er nok bare en medvirkende årsak. Dvs. AMD kunne nok tatt seg mye bedre betalt for 4800-serien men da hadde de ikke fått den PR-effekten de har i dag. Men i tillegg til denne strategien har de en GPU som trolig er mye billigere å produsere enn Nvidias. Det, sammen med billigere PCB og "smartere" GPU (færre transistorer men likevel bedre ytelse) har også hjulpet dem. Strategien med lav pris vil gjøre to ting: Gjøre at de hevder seg igjen og får solgt mange GPUer. På grunn av stordriftsfordeler betyr det lavere kostnader per GPU for dem. I tillegg vil det såre Nvidia der de er mest sårbar: Pris. Nvidia må trolig selge sine GPUer med tap fremover for å ikke bli helt akterutseilt på pris/ytelse. Nvidia har rett og slett ikke noe valg. Det er billigere å produsere med tap enn å permittere de ansatte og kapitulere helt. Aksjonærene godtar at de selger med tap i håp om at Nvidia skal komme sterkere tilbake senere. Det er nok ikke lenge til vi får se store priskutt hos Nvidia, og varsel om dårligere økonomiske resultater. Nvidia henger selvsagt med videre i konkurransen, men mer på defensiven enn på offensiven. Og her satt vi å slengte drit om hvor dårlig R600 var? En liten krymping, litt ekstra shadere, litt ekstra ditt og datt og litt gddr5 og så vips, så sitter vi på et fantastisk produkt. R600 var ingen fiasko, arkitekturen var jo genial! Lenke til kommentar
Dragavon Skrevet 28. juni 2008 Del Skrevet 28. juni 2008 Prisdumping er nok bare en medvirkende årsak. Dvs. AMD kunne nok tatt seg mye bedre betalt for 4800-serien men da hadde de ikke fått den PR-effekten de har i dag. Men i tillegg til denne strategien har de en GPU som trolig er mye billigere å produsere enn Nvidias. Det, sammen med billigere PCB og "smartere" GPU (færre transistorer men likevel bedre ytelse) har også hjulpet dem. Strategien med lav pris vil gjøre to ting: Gjøre at de hevder seg igjen og får solgt mange GPUer. På grunn av stordriftsfordeler betyr det lavere kostnader per GPU for dem. I tillegg vil det såre Nvidia der de er mest sårbar: Pris. Nvidia må trolig selge sine GPUer med tap fremover for å ikke bli helt akterutseilt på pris/ytelse. Nvidia har rett og slett ikke noe valg. Det er billigere å produsere med tap enn å permittere de ansatte og kapitulere helt. Aksjonærene godtar at de selger med tap i håp om at Nvidia skal komme sterkere tilbake senere. Det er nok ikke lenge til vi får se store priskutt hos Nvidia, og varsel om dårligere økonomiske resultater. Nvidia henger selvsagt med videre i konkurransen, men mer på defensiven enn på offensiven. Nå er det jo ikkje i high-end produktene pengene ligger. De aller aller fleste PCer blir solgt med skjermkort til under 1000kr, det å ha billige skjermkort som yter godt gir deg avtaler på oem-markedet som gir mye mere igjen enn hig-end retail på lang sikt. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå