Gå til innhold

Prisen på AMDs toppkort


Anbefalte innlegg

nVidia lanserer sine kort i midten av februar...

Da får i hvert fall ATI ha tronen (i mange spill) i 3 uker. Skulle ikke forundre meg om 9800 GX2 gir hard konkurranse når den tid kommer. Morsomt at de bytter på å ha tronen igjen. Det er en stund siden sist ATI satt der.

 

PS. Jeg er helt enig i det med 3DMark06 vs ekte spill. Synes bare det var litt for lettvint å bruke tallene som sto i artikkelen til sammenligningen på forrige side.

Endret av Simen1
Lenke til kommentar
Videoannonse
Annonse

Litt usikkert info/rykte om 9800GX2:

 

We know that the 9800GX2 has 2 printed circuit boards (PCBs), as did the 7950GX2 in its time, two graphics processing units (GPUs) using 65 nm nodes (most likely G92s with 128 stream processors), 1 GB of memory (512 MB for each GPU) and two DVI outputs.

 

We don't know yet if the GeForce 9800GX2, which is supposed to be 30% faster than the 8800 Ultra, will support Quad SLI configurations.

 

The expected price: around $449 US. Expected announcement date: February 14, 2008.

 

Kilde: http://www.tomshardware.com/2008/01/05/exc...ce_9800gx2/

Endret av Unreal_
Lenke til kommentar
Gjest Slettet+6132
Et fett for meg hvem så ligger først så lenge det er snakk om en 5% ytelseforskjell mellom de slik at prisen blir låg :) Hvis du ikke ser det synd, kanskje du burde ver litt mindre touchy og litt mer smart?

 

Det som er usmart er å spy ut så mye "edder og galle" om ATI/AMD som du gjør her i tråden.

Jeg ser hvilket kort som er best for tiden.

Det er G92, men ikke nødvendgvis best mtp pris vs. ytelse, i alle sammenheng.

Og jeg sitter ikke med en rigg/ett sett hardware, så din "problemstilling" med å sitte med ett 5% dårligere kort enn det fra konkurrent om x antall mndr fra nåtid er ikke tema. For meg.

Prøv å se litt postivt på at ATI/AMD endelig leverer noenlunde konkurransedyktige produkter.

Det er det jeg prøver å debattere her. :)

Lenke til kommentar
Hei!

 

Lurer veldig på hvor godt dette Radeon HD 3870 X2 kortet er go for. Regner ikke akkurat med tester allerede.

Men tror dere Radeon HD 3870 X2 blir like godt som nVidia's 9800 GX2 kort? Ihvertfall blir det merkbart dårligere?

Jeg er en nVidia fan, men har et Asus Maximus X38 kort, og det støtter kun Crossfire og ikke SLi. Litt dumt, men er et kjempe kort. OG har nå et 8800 GTX kort, som er litt overklokket osv. men har lyst til å gå over til 2 stk. Radeon HD 3870 X2, er det verdt det? Er 2 stk Radeon HD 3870 X2 sånn ca. like gode som nVidia's 9800 GX2 serie i sli?

 

Er ikke Ati's driver bedre enn nVidia's?

 

 

GX2 tar opp mest sannsynlig 4 slots eller 2 men ja, sluker ja, 300 watt alene!, siden det er 2x 8800 GTS 512 mb, 2 pcb, ikke noe spesielt med nvidia sitt kort, mens ati sitt 3870 X2 har ja,2 gpu'r på ett pcb, osv. =)

 

Crossfire banker SLI mildt sagt =)

 

jeg skal ha 2 av de her :D

 

og btw, ett 8800 GTS 512 mb koster nå da 2500-3000 kr, så ja, detta høres lovende ut når 2x 3850 er på likt nivå som 8800 GTS 512 mb som GX2 har.

Endret av iLoVecF
Lenke til kommentar
[GX2 tar opp mest sannsynlig 4 slots eller 2 men ja, sluker ja, 300 watt alene!, siden det er 2x 8800 GTS 512 mb, 2 pcb, ikke noe spesielt med nvidia sitt kort, mens ati sitt 3870 X2 har ja,2 gpu'r på ett pcb, osv. =)

De tar opp like mange slots... Begge tar 2 stk.

Tor nok ikke du skal uttale deg om strømforbruk, da dette ikke er testet enda...

 

Crossfire banker SLI mildt sagt =)

Ehh... Nei, det gjør det nok ikke. Hva som er best av CF og SLI varierer veldig ofte fra applikasjon til applikasjon.

Lenke til kommentar

Tror nok at det mange mener med at CF er bedre enn SLI er at det bare er et spørsmål om drivere, som sannsynligvis vil komme ut veldig snart.

 

Jeg syns personlig at 3870GX2 ser mer attraktivt ut enn noen av Nvidia kortene på markedet i dag. 3000 kroner er en veldig god pris for et så godt kort, og det bryr meg lite om jeg taper 2-3 FPS på å spare 2000 kroner... 2000 kroner = enda et 3780GX2 om noen måneder.

 

Edit:

 

http://img3.pconline.com.cn/pconline/0801/...Dnoaa_thumb.jpg

 

3870GX2 slår ultra på COD4.

 

http://img3.pconline.com.cn/pconline/0801/...snoaa_thumb.jpg

 

Som du ser slo ultra 3870GX2 på Crysis. Jeg syns nå personlig at man ikke kan bruke Crysis som benchmark når man setter Nvidia opp mot Ati fordi Nvidia har jobbet mye mer på drivere for det, men Ati klarer seg allikevel greit. Eneste merkbare forskjellen er på 1280x1024...

Endret av Mynotir
Lenke til kommentar
[GX2 tar opp mest sannsynlig 4 slots eller 2 men ja, sluker ja, 300 watt alene!, siden det er 2x 8800 GTS 512 mb, 2 pcb, ikke noe spesielt med nvidia sitt kort, mens ati sitt 3870 X2 har ja,2 gpu'r på ett pcb, osv. =)

De tar opp like mange slots... Begge tar 2 stk.

Tor nok ikke du skal uttale deg om strømforbruk, da dette ikke er testet enda...

 

Crossfire banker SLI mildt sagt =)

Ehh... Nei, det gjør det nok ikke. Hva som er best av CF og SLI varierer veldig ofte fra applikasjon til applikasjon.

 

 

:thumbup:

 

 

Strøm forbruk ved 2x 8800 GTS = 150 watt, ett 3870 = 105 watt.

 

det vil si at enten er ati 3870 X2 2x 110/115 watt, eller noe høyere ved at de har lagt til enda en controller, CF brigde (hardware based som det virker som)

 

Nvidia derrimot har bare lagt 2x 8800 GTS 512 mb oppahverandre JA!, 2x 8800 GTS 512 mb PCB, vil si, minst 300 watt >_<

Lenke til kommentar
Hei!

 

Lurer veldig på hvor godt dette Radeon HD 3870 X2 kortet er go for. Regner ikke akkurat med tester allerede.

Men tror dere Radeon HD 3870 X2 blir like godt som nVidia's 9800 GX2 kort? Ihvertfall blir det merkbart dårligere?

Jeg er en nVidia fan, men har et Asus Maximus X38 kort, og det støtter kun Crossfire og ikke SLi. Litt dumt, men er et kjempe kort. OG har nå et 8800 GTX kort, som er litt overklokket osv. men har lyst til å gå over til 2 stk. Radeon HD 3870 X2, er det verdt det? Er 2 stk Radeon HD 3870 X2 sånn ca. like gode som nVidia's 9800 GX2 serie i sli?

 

Er ikke Ati's driver bedre enn nVidia's?

 

 

GX2 tar opp mest sannsynlig 4 slots eller 2 men ja, sluker ja, 300 watt alene!, siden det er 2x 8800 GTS 512 mb, 2 pcb, ikke noe spesielt med nvidia sitt kort, mens ati sitt 3870 X2 har ja,2 gpu'r på ett pcb, osv. =)

 

Crossfire banker SLI mildt sagt =)

 

jeg skal ha 2 av de her :D

 

og btw, ett 8800 GTS 512 mb koster nå da 2500-3000 kr, så ja, detta høres lovende ut når 2x 3850 er på likt nivå som 8800 GTS 512 mb som GX2 har.

WOW! 300 watt alene? Hvor har du hørt det hen? eller er det bare anbefalt?

Ihvertfall, da er jeg stolt kjøper av et antec p190 med 1.2 kilowatt PSu.....og vurderer sterkst de nye Radeo korta....blir litt våt på tunga når jeg leser om 'em vett... :dribble:

Lenke til kommentar
Dette her er ikke noe skjerpings :( Tatt et kort så ikke klarte å ta tilbake ytelsen i fra et eld gammelt kort i fra nvidia og lagt x2 løsning på samme pbc. Ikke imponert! spesielt med tanke på at x2 versjon i fra nvidia kommer snart. Eneste positive er hovedkort kompabilitet, men crossfire har dårlig rykte på seg forhold til SLI med tanke på støtte i spill. At ATI prøver å yes men er det bra nok? o no. Skjerpings!

 

Venter på at anandtech eller xbitlabs til nøds tomshardware kjøre en test. Random chn side ser eg ikke på så en sikker eller faglig smart nok kilde.

 

Og når eg tenker meg om, hvem kjører SLI eller Crossfire borsett i fra benchmark guttene og Crysis DX10 very high :)

Skjerpings til deg selv Unreal. Du er veldig bombastisk og skriver nedlatende om de fleste andre her, det får deg bare til å virke som du er en liten frekk drittunge(correct me if i'm wrong). På meg virker det som du baserer det meste du skriver på egne antagelser, uten at det virker som du har prøvd SLI eller CF selv. Jeg har selv kjørt både 7950gx2 og 2*7950gx2 i SLI i lang tid og vet godt om alle ulempene med SLI og nvidia sine dårlige SLI profiler/drivere(spesiellt til quad SLI). SLI er skikkelig bra når det fungerer, men om du tror at alt er rosenrødt med SLI i spill så tar du skammelig feil. I bla. den siste Unreal motoren som både Bioshock og Medal of H. Airborne var basert på så opplevde jeg veldig dårlige resulater med både SLI og Quad SLI. Det ble faktisk bedre ytelse om jeg disablet det ene skjermkortet og kjørte med en enkel skjermkort kjerne. Greit det kom fixer for dette, men det tok lang tid og jeg kjøpte meg 1 stk. 8800gtx som var bedre enn 7950gx2 Quad SLI i stedet. Det var bare et eksempel på spill som SLI ikke fungerte på i det hele tatt. Overlord, Hitman og en mengde andre spill har også krevd patche, pluss nye drivere for å være noe annet enn dyr pynt.

Men har man litt peiling så kan man lage egne SLI profiler med nhancer som ofte fungerer like bra som offisielle profiler. Dette er foreløpig en svakhet at man ikke kan med CF.

 

SLI og CF har absolutt noe for seg om man har 1680x1050 eller høyere oppløsning på skjermen. Klarer lett å få mitt 8800gtx til å knele i mange spill om jeg setter all grafikk på max + aa og af. Det er ikke maks eller gjennomsnittlig fps som er viktigst(virker som det er kun det som fokuseres på i de fleste tester), men minimum fps. Nytter ikke om man har 100fps++ mesteparten av tiden om det faller under spillbart i enkelte partier. En annen ulempe med nvidia sine gamle gx2 løsninger med to kort på 2 pcber er at det lille mellomrommet ikke tillater skikkelig kjøleløsninger. 7950gx2 har jo rykte på seg for å være veldig lite holdbare. Det ene av mine gx2 kort tok kvelden rett etter at jeg kjøpte det brukt. Dette ser jeg ikke bort fra at det nye gx2 kortet kan slite med når det har samme type løsning på kjøling og konstruksjon.

 

Og skal ikke lenger tilbake enn x1950 serien før Ati hadde de beste single gpu kortene en god stund. Da måtte også Nvidia ty til en dual løsning for å kunne tilby den beste ytelsen(for benchere og fanboys i følge deg) på markedet på samme måte som Ati nå gjør. Så lenge det fungerer uten at pris, effekt og størrelse blir absurd så er det da ingenting å klage på. Markedet går videre...og såvidt jeg kan se av tester så er Ati sitt nye kort det raskeste single skjermkortet, selv basert på to gpuer...atpå til med en flott pris. Hadde jeg ikke allerede hatt SLI hovedkort så skulle jeg kjøpt et sånt kort selv i stedet for 8800gt SLI.

 

Herregud... :whistle: her inne var det mange fanboys fra begge leire :tease:

Ja huff. Lurer på om noen tror de får lønn i himmel eller helvette for å støtte noen. Jeg kjøper alle merker bare de leverer god ytelse for pengene.

Lenke til kommentar
Strøm forbruk ved 2x 8800 GTS = 150 watt, ett 3870 = 105 watt.

 

det vil si at enten er ati 3870 X2 2x 110/115 watt, eller noe høyere ved at de har lagt til enda en controller, CF brigde (hardware based som det virker som)

 

Nvidia derrimot har bare lagt 2x 8800 GTS 512 mb oppahverandre JA!, 2x 8800 GTS 512 mb PCB, vil si, minst 300 watt >_<

Beklager, sånn fungerer det ikke... Ta gjerne 7950GX2 som et eksempel, der er det i realiteten 2 stk 7900GTX, men et mye lavere strømforbruk.

 

Endelig klokkefrekvens på G92 brikkene som nVidia skal bruke vil også avgjøre hvor mye strøm de bruker.

 

Den ekstra kontrolleren du snakker om som er på kortet er en PCI Express switch, AMD har kjøpt inn en 3. part ut i fra "spionbildene". nVidia-kortene bruker også en PCI Express switch, men nVidia sin egen, uten at det har noe å si...

 

Strømforbruket du kommer med er desuten bare teoretiske tall, og nVidia og ATI/AMD har forskjellige måte å estimere disse verdiene på. Real-life data er helt forskjellig fra dette. Tar med data fra en test xbitlabs har gjort, de måler data som KUN grafikkortet trekker.

 

Vet det ikke er data på 8800GTS 512 der, men bruk 8800GT isteden, det gir uansett bedre performance enn HD3870...

 

bliss8800glh_power.gif

 

ATi-kortene er bedre i idle, siden RV670 har aktivert PowerPlay (en teknikk som blir brukt på laptoper) under full load bruker faktisk RV670 mer strøm enn 8800GT, og ytelsen er lavere.

Lenke til kommentar
Ja huff. Lurer på om noen tror de får lønn i himmel eller helvette for å støtte noen. Jeg kjøper alle merker bare de leverer god ytelse for pengene.

 

Samme her :)

 

Men som Crysis testene viser, så tyder det på at selv om dette er et kort med to grafikkprosessorer på et og samme kort, og blir gjenkjent som ett enkelt grafikkort i Windows, så ser det altså ut til at disse Crossfire problemene vedvarer. Og det skremmer meg litt, dette er et veldig aktuelt kort for meg selv. Men blir brått usikker når jeg ikke vet om jeg kan stole på om kortet vil yte tilstrekkelig i alle spill.

 

Vi snakker jo 2x HD 3870 prosessorer her, også yter det altså knapt bedre enn 1x HD 3870 i spill som Crysis :(

Er jo nettopp på grunn av såpass kravstore spill jeg ønsker meg et slikt kort, for å kunne kjøre på maks effekter samtidig ha greit FPS (40+). Da må jeg si at det er urovekkende når Crossfire ser ut til å slite med ytelsen, og fort gi negativt effekt i noen populære spill :(

Lenke til kommentar
Herregud... :whistle: her inne var det mange fanboys fra begge leire :tease:
Ja, det var litt vanskelig å lese denne tråden uten å facepalme på annenhver post.

 

EDIT:

Men som Crysis testene viser, så tyder det på at selv om dette er et kort med to grafikkprosessorer på et og samme kort, og blir gjenkjent som ett enkelt grafikkort i Windows, så ser det altså ut til at disse Crossfire problemene vedvarer. Og det skremmer meg litt, dette er et veldig aktuelt kort for meg selv. Men blir brått usikker når jeg ikke vet om jeg kan stole på om kortet vil yte tilstrekkelig i alle spill.
Hvis det hadde vært så lett å gjøre Crossfire/SLi gjennomsiktig, hadde det nok vært gjort for lenge siden. At det ikke er gjennomsiktig er jo akkilishælen til begge teknikene.

 

Vi snakker jo 2x HD 3870 prosessorer her, også yter det altså knapt bedre enn 1x HD 3870 i spill som Crysis :
De er da i det minste klokka litt høyere, men på en annen side, så kan nok 3870 klokkes lengre på grunn av bedre muligheter for tredjepartskjølere. Endret av haalo
Lenke til kommentar
Gjest Slettet+6132

Det spriker tildels voldsomt mellom de to testene som det er linket til i tråden.

Kan se ut som om toppkortene til både ATI og Nvidia krever en kraftig klokket CPU for å vise potensialet til kortene.

Og Crysis er noe for seg selv.

Kan se ut som om det spillet er kodet til å i hovedsak belaste CPU isf GPU?

At drivere/OS-versjon spiller mye inn på ytelsen i forhold til hardware har jo alltid vært tilfellet.

Kan se ut som om Nvidia pt er bedre til å kode drivere...også :)

Endret av Slettet+6132
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...