Gå til innhold

Mer AMD-grafikk i budsjettklassen


Anbefalte innlegg

Videoannonse
Annonse
tja effekten på 55 watt osv er meget imponerende, 8600 GT burde byttes ut med 3670 kansje, 8600 GT er grise tregt :p ville egentlig anbefalt HD3850 siden den yter veldig bra.

Nå er ikke 3670 raksere enn 8600GT da... :hmm:

 

HD3850 får 8800GS, og etterhvert 9600GT å bryne seg på!

Lenke til kommentar
3670 finnes ikke.

 

GDI Raptor: Har du sett noen ytelsesammenligninger av HD 3650 mot 8600 GT siden du uttaler deg så sikkert?

 

9600 GT er et framtidig produkt. For alt vi vet kan AMD/ATI oppdatere sin del av konkurransen innen den tid.

1. 3650 er rimelig identisk med 2600XT, men med dårligere ytelse i mange tilfeller...

Full review på Hot Hardware: http://www.hothardware.com/articles/ATI_Ra...Arrive/?page=10

Hovedpoenget med 3650 for AMD sin del tipper jeg er å redusere kostnader for å få bedre marginer.

 

2. 9600GT er et februar 2008 produkt. Har ikke hørt om at ATi oppdaterer HD3850 innen da.

Lenke til kommentar

Jeg er litt lei av alt tullet med drivere og begrensninger med ATi, så vil vente på neste nVidia serie.

Det er forøvrig rart et ATI nå oppererer med 55 nm (2x00 serien var 65 nm) - mens nVidia oppererer med 80nm!

De skal/skulle riktignok slippe en 8400gs ver. med 65 nm (se sidene til Gigabyte bl.a.) men kan ikke finee disse i Norge. Noen adnre som vet om noen?

Lenke til kommentar
Jeg er litt lei av alt tullet med drivere og begrensninger med ATi, så vil vente på neste nVidia serie.

Det er forøvrig rart et ATI nå oppererer med 55 nm (2x00 serien var 65 nm) - mens nVidia oppererer med 80nm!

De skal/skulle riktignok slippe en 8400gs ver. med 65 nm (se sidene til Gigabyte bl.a.) men kan ikke finee disse i Norge. Noen adnre som vet om noen?

G92 er 65nm.. DVS 8800GT og 8800GTS 512mb.

Lenke til kommentar
Det er forøvrig rart et ATI nå oppererer med 55 nm (2x00 serien var 65 nm) - mens nVidia oppererer med 80nm!

G92 (8800 GTS, GT og GS) er 65nm

Det samme er G98 og G96.

 

nVidia har helt siden NV30 vært mer tilbakeholdene med å bytte til tynnere prosesser.

 

Det er fordeler og ulemper med begge...

 

Fordelen med tynnere (og nyere) prosess er at brikkene blir mindre, og man får flere brukker per wafer, men i begynnelsen før prosessen er tuna inn får man ofte ikke så bra yield.

Lenke til kommentar

Helt kjapt:

- Feil med 690G chipsett/drivere lager problemer for skins i MP (ATi's feil)

- Før 7.12 (tror jeg) var det ingen force HD for PAL (eks 720p50, 1080p50)

- Med 7.12 kom 720p50 for PAL

- Med 8.1 forsvant 720p50!

- Kom heller ingen force 1080p50

- 8.1 introduserte bugs med miniview

- Flere sliter med HDMI (ikke prøvd dette selv).

 

Liker ikke dirvere som går et steg frem og to tilbake i ny og ne. Skulle tro de bygget videre på en gammel ver. og glemte å legge til alle funskjonene.

 

ATi retter mye oppmerksomhet mot media-markedet (HTPC etc.). Produktene er godt egnet til dette, men ikke programvare og drivere.

Lenke til kommentar

G92 (8800 GTS, GT og GS) er 65nm

Det samme er G98 og G96.

 

nVidia har helt siden NV30 vært mer tilbakeholdene med å bytte til tynnere prosesser.

 

Det er fordeler og ulemper med begge...

 

Fordelen med tynnere (og nyere) prosess er at brikkene blir mindre, og man får flere brukker per wafer, men i begynnelsen før prosessen er tuna inn får man ofte ikke så bra yield.

 

 

Dere har rett - toppmodellene er 65nm.Jeg tenkte på budjsett- og middelklassen (som nevnte kort i artikkelenj er i).

 

Du glemmer den, fo meg, viktigste dordelen med mindre nm: varmeutvikling.

 

"Nye" 8400GS skal ha en core speed på 600 (om jeg husker riktig) mot 450 på den gamle (kanskje vinningen går i spinningen?) og bredere maskinvareakslerasjonstøtte av HD.

Lenke til kommentar
Du glemmer den, fo meg, viktigste dordelen med mindre nm: varmeutvikling.

I følge den teorien skulle skjermkort blitt mindre effektkrevende for hvert år. I stedet for har det motsatte skjedd. For 10 år siden var det ingen skjermkort som trengte en minste lille vifte en gang fordi de bare utviklet 1-10 W. Nå er det knapt noen skjermkort som utvikler under 20 og toppmodellene ligger ofte på mellom 100 og 200 W. Selv om produksjonsprosessen er krympet fra 350 nm til 55 nm.

 

Så hvorfor skjer det motsatte? Jo, det er fordi samme effektutvikling betinger samme hastigheter og samme mengde beregningsenheter osv på skjermkortet. Den betingelsen skjer ikke. Både produsenter og forbrukere har foretrukket å øke ytelsen fremfor å redusere effektforbruket. Man får ikke i både pose og sekk og må gjøre et kompromiss mellom økt ytelse og lavere effektforbruk. Siden markedet etterspør høyere ytelse langt mer enn lavere effekt så får de det de ønsker. Mer ytelse på bekostning av effekt.

 

Selv har jeg holdt meg unna den trenden og bare hatt et par skjermkort med vifter på opp gjennom årene. Mitt forrige, nåværende og neste forblir vifteløst. Jeg sikter inn på et effektforbruk på rundt 20-30W for å slippe å bruke kabinettvifter. (Vifteløst blir en stor selvmotsigelse om det krever vifter)

Lenke til kommentar
AMD har lansert tre nye grafikkløsninger med lave prislapper.

 

Les mer

 

Har de bare flyttet prislappene langt ned på siden, eller har de tatt skrittet helt ut og klistret dem under? En snuoperasjon på esken ville uansett i begge tilfeller gjøre at vi fikk høye prislapper, er ikke sikker på om dette er positivt eller negativt..

Lenke til kommentar
Du glemmer den, fo meg, viktigste dordelen med mindre nm: varmeutvikling.

I følge den teorien skulle skjermkort blitt mindre effektkrevende for hvert år. I stedet for har det motsatte skjedd. For 10 år siden var det ingen skjermkort som trengte en minste lille vifte en gang fordi de bare utviklet 1-10 W. Nå er det knapt noen skjermkort som utvikler under 20 og toppmodellene ligger ofte på mellom 100 og 200 W. Selv om produksjonsprosessen er krympet fra 350 nm til 55 nm.

 

Så hvorfor skjer det motsatte? Jo, det er fordi samme effektutvikling betinger samme hastigheter og samme mengde beregningsenheter osv på skjermkortet. Den betingelsen skjer ikke. Både produsenter og forbrukere har foretrukket å øke ytelsen fremfor å redusere effektforbruket. Man får ikke i både pose og sekk og må gjøre et kompromiss mellom økt ytelse og lavere effektforbruk. Siden markedet etterspør høyere ytelse langt mer enn lavere effekt så får de det de ønsker. Mer ytelse på bekostning av effekt.

 

Selv har jeg holdt meg unna den trenden og bare hatt et par skjermkort med vifter på opp gjennom årene. Mitt forrige, nåværende og neste forblir vifteløst. Jeg sikter inn på et effektforbruk på rundt 20-30W for å slippe å bruke kabinettvifter. (Vifteløst blir en stor selvmotsigelse om det krever vifter)

Hehe... har vi ikke hatt denne diskusjonen før? :)

 

Sett opp to identiske komponenter - det være seg grafikk kort eller CPU - med ulik nm og mål strømforbruk.

Vedr. "passivt" er jeg enig, men en 120mm@1200RPM i kab. er hyggeligere å høre på en en 30mm@3000RPM på GPU :)

Lenke til kommentar
Vedr. "passivt" er jeg enig, men en 120mm@1200RPM i kab. er hyggeligere å høre på en en 30mm@3000RPM på GPU :)
Hehe, ja. Den mest irriterende viftestøyen jeg har vært borti var fra en vifte på et eldgammelt Geforce-kort; en nesten mikroskopisk vifte.
Lenke til kommentar

Er ute etter et nytt grafikkort til min mediacenter-PC. Akkurat nå bruker jeg et X300-kort, men dette er altfor svakt og har sett litt på 3650 da jeg har forstått det slik at det er vifteløst og takler HD i hardware. Prisen er også veldig grei. 566 kr for en vifteløs versjon.

 

Har dog hørt fra en del at softwaren til ATI kan være litt trøblete og vanskelig. Har tenkt å bruke HDMI fra PCen og opp til skjermen. På mitt nåværende kort, X300, er det veldig vanskelig å få til riktig oppløsning ved bruk av HDMI (1366x768).

 

Noen som har noen innspill på dette og valg av kort? Det som er viktig for meg er at det er vifteløst, avspilling av HD i hardware og at det er lett å sette opp ved bruk av HDMI.

Endret av Nuffern
Lenke til kommentar

En annen ting, det står på nettsidene til AMD at de anbefaler kraftige strømforsyninger for å drive oppsett med disse kortene, selv 3450 altså. Jeg har en 270W strømforsyning i en av boksene mine, hvor sannsynlig er det at den vil få problemer med å drive en celeron 420, 2gb 667Mhz ram, 1 hdd, 1 DVD-brenner og et 3450 kort?

Endret av mandela
Lenke til kommentar

Hei,

 

Er det noen her som vet om det er noen av de nye HD 3450 kortene som er 100% "low-profile" ?

 

Jeg får nemlig kun plass til et 1-slots lavprofils-kort i min media-pc. Viften på mitt eksisterende Club3D Radeon HD 2400PRO synger allerede på siste vers (etter kun 6mnd. med 24/7) og jeg har ikke klart å finne en ny passende vifte på nett.

Tenkte derfor å skrote det og istedet kjøpe et nytt HD 3450. Ingenting hadde vært bedre enn passiv kjøling i lavprofil og som kun opptar 1 plass, men det har jeg ikke klart å finne ennå. Tenkte derfor på HIS HD 3450 iFan som muligens kan være det jeg trenger.

 

Spørsmålet er bare om det går ann å fjerne braketten med VGA utgangen, slik man kunne gjøre på HD 2400 kortene (slik at kortet blir 100% lavprofil). Noen som vet dette ? (dette fungerte fint på HD 2400, men på HD 3450 er det en liten metallboks som muligens også sitter fast i kortet?)

 

For ordens skyld; Asus Radeon HD 3450 ser veldig lekker ut, men har for stor passiv kjøler til å funke som "low profile" ... :whistle:

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...