Gå til innhold

GTX 280 klar ved lansering


Anbefalte innlegg

Helt utrolig at du tror at phenom er 48% bedre enn athlon. Hvorfor tror du ikke at ut3 liker flere kjerner? Du ser jo at x3 banker core 2 duoer også. Jeg forstår bare ikke det?

 

 

Legger til:

 

Dette er forresten cpu forbruket til stranglehold på phenom@3 ghz (stranglehold bruker Unreal 3 motoren) Etter det jeg kan se er totalen på ca 70-80%.

Endret av O:M:A
Lenke til kommentar
Videoannonse
Annonse
Helt utrolig at du tror at phenom er 48% bedre enn athlon. Hvorfor tror du ikke at ut3 liker flere kjerner? Du ser jo at x3 banker core 2 duoer også. Jeg forstår bare ikke det?

Er det så utrolig? Jeg synes tallene støtter det jeg sier, vel og merke kun for UT3. Phenom X3 er nok ikke generelt så mye bedre enn Athlon64 X2.

 

Sammenligner man Phenom med Core 2 Duo så sammenligner man igjen epler og pærer. "3 pærer er bedre enn 2 epler" Se heller på ulike antall kjerner uten å endre på typen kjerner.

 

På det skjermbildet ser det ut til at Phenom X4 utnyttes henholdsvis 90%, 30-40%, 80-90% og 60%. Totalt ~65-70%.

Lenke til kommentar
Helt utrolig at du tror at phenom er 48% bedre enn athlon. Hvorfor tror du ikke at ut3 liker flere kjerner? Du ser jo at x3 banker core 2 duoer også. Jeg forstår bare ikke det?

Er det så utrolig? Jeg synes tallene støtter det jeg sier, vel og merke kun for UT3. Phenom X3 er nok ikke generelt så mye bedre enn Athlon64 X2.

 

Sammenligner man Phenom med Core 2 Duo så sammenligner man igjen epler og pærer. "3 pærer er bedre enn 2 epler" Se heller på ulike antall kjerner uten å endre på typen kjerner.

 

På det skjermbildet ser det ut til at Phenom X4 utnyttes henholdsvis 90%, 30-40%, 80-90% og 60%. Totalt ~65-70%.

Epler og pærer? hva? core 2 duo har bedre ytelse per kjerne enn phenom, men når 3 kjerner phenom slår 2 core 2 duo betyr jo det at unreal bruker den tredje kjernen veldig godt. Vi får se om phenom mister 20-30% ytelse viss noen deaktiverer den tredje, jeg er 99% sikker på at den nettopp mister 20-30% ytelse. Og tror ikke jeg er den eneste.

Lenke til kommentar
Epler og pærer? hva? core 2 duo har bedre ytelse per kjerne enn phenom

Har du noen test som støtter deg i at C2D har høyere ytelse per kjerne og GHz enn Phenom i UT3? En test av Phenom med kun 2 aktive kjerner, vs C2D?

 

Vi får se om phenom mister 20-30% ytelse viss noen deaktiverer den tredje, jeg er 99% sikker på at den nettopp mister 20-30% ytelse. Og tror ikke jeg er den eneste.

Mitt anslag er at den taper 15% ytelse når man reduserer fra 3 til 2 kjerner. (175% CPU-kraft vs 150%)

Lenke til kommentar

Blir spennende å se med kommende spill som støtter bedre flere kjerner. Hørte om at Alan Wake skulle være så bra optimalisert for dette...

 

btw. Vil en Q6600 på 2.8GHz bli litt for dårlig i de kommende tider? må kanskje påkoste meg en extra kjøler... eller?

Endret av Core2Duo_Dude
Lenke til kommentar
Blir spennende å se med kommende spill som støtter bedre flere kjerner. Hørte om at Alan Wake skulle være så bra optimalisert for dette...

 

btw. Vil en Q6600 på 2.8GHz bli litt for dårlig i de kommende tider? må kanskje påkoste meg en extra kjøler... eller?

 

Et fornuftig kodet spill vil klare seg i massevis med C2D/C2Q/Phenom på 2.8ghz. Med litt AA/AF på i en brukbar oppløsning, vil du ikke merke forskjell på en 2.8ghz og en 4ghz, siden det er skjermkortet som er flaskehalsen.

 

Når det gjelder kommende titler, så er det stort sett det grafiske som blir mere krevende, så også på disse vil skjermkortet bli flaskehalsen... Alan Wake er laget av Remedy, som laget Max Payne, og disse folka har stort sett laget spill som skalerer veldig bra på skjermkortene, så du får nok et spill som trenger et bra DX10/10.1 skjermkort i Alan Wake, og ikke noen extrem CPU selv med disse 5 trådene de snakker om. Kommer det noensinne tro...

 

Er spill viktig for deg, bør pengene brukes på bra skjermkort, for din CPU er mer enn bra nok i lang tid fremover.......

Endret av Ourasi
Lenke til kommentar
Blir spennende å se med kommende spill som støtter bedre flere kjerner. Hørte om at Alan Wake skulle være så bra optimalisert for dette...

 

btw. Vil en Q6600 på 2.8GHz bli litt for dårlig i de kommende tider? må kanskje påkoste meg en extra kjøler... eller?

 

 

Et fornuftig kodet spill vil klare seg i massevis med C2D/C2Q/Phenom på 2.8ghz. Med litt AA/AF på i en brukbar oppløsning, vil du ikke merke forskjell på en 2.8ghz og en 4ghz, siden det er skjermkortet som er flaskehalsen.

 

Når det gjelder kommende titler, så er det stort sett det grafiske som blir mere krevende, så også på disse vil skjermkortet bli flaskehalsen... Alan Wake er laget av Remedy, som laget Max Payne, og disse folka har stort sett laget spill som skalerer veldig bra på skjermkortene, så du får nok et spill som trenger et bra DX10/10.1 skjermkort i Alan Wake, og ikke noen extrem CPU selv med disse 5 trådene de snakker om. Kommer det noensinne tro...

 

Er spill viktig for deg, bør pengene brukes på bra skjermkort, for din CPU er mer enn bra nok i lang tid fremover.......

Det var godt å høre :)

 

Men nå begynner det sannelig å nærme seg release datoene til GT200 og HD4800. Jeg personlig skal kjøpe HD4870. Blir for dyrt med GT200 korta.

Lenke til kommentar

En liten fugl har iallefall kvitret meg at det vil være kort tilgjhengelig i nettbutikkene på mandag (på lager) og at prisen fra distributør til forhandler på GTX 280 vil være lavere enn x2 det et 9800GTX kort koster nå - så jeg har iallefall begynt å glede meg til å bytte ut 7950GTen min ;-)

 

Edit: Rettelse, GTX hadde blitt til GX2 :-O

Endret av kjetilkl
Lenke til kommentar

Jeg er helt enig. Jeg tipper at vi kan forvente GTX 280 for ca. 3500. I annen tråd har jeg tiligere idag skrev dette:

 

Både GTX 280 og 260 yter bra, men ATI kortene kommer til å konkurere bra . Jeg tror at vi kan forvente en storstilt priskrig ganske fort etter hype-perioden.

 

Jeg tror at vi kan forvente en god del prisdropp fra både ATI og Nvidia, men særlig Nvidia. Jeg tipper at vik kan få en GTX 280 for 3500 om ikke så lenge. Krysser fingurene. :D

Lenke til kommentar
Det blir spennende... Jeg kjøper uansett ikke noe fra den generasjonen før både Nvidia og ATis kort er på markedet så vi kan sammenligne dem. Som mange andre har poengtert så er det jo nesten ikke noen tvil om at Nvidias topkort vil ha bedre ytelse, men gitt ATIs topkort til den uvanlig lave prisen så er det jo fullt mulig at ATI kan vinne (evt. vinne stort) når det kommer til ytelse/pris forhold. Tross alt så er ikke spesifikasjonene på deres kort dårlige heller, og jeg ser meg egentlig mye mer imponert av deres tilbud på papiret når man tar hennsyn til prisen...

 

Time will tell :)

 

-Stigma

 

 

Nvidia har vell kanskje ikke satset på ytelse/pris, men satset på ytelse. Nvidia hr flere entuiast kort som eksempel 8800 ultra.

 

Hvor mange 4870 kan du kjøre i crossfire?

 

Hvor mange 280gtx kan du kjøre i sli?

 

Nvidia snakker ytelse ikke pris, pris er middelklasse kort. Gtx er og skal være dyre kort for nettopp entusiaster :D

 

les annet inlegg:

 

Både GTX 280 og 260 yter bra, men ATI kortene kommer til å konkurere bra . Jeg tror at vi kan forvente en storstilt priskrig ganske fort etter hype-perioden.

 

Jeg tror at vi kan forvente en god del prisdropp fra både ATI og Nvidia, men særlig Nvidia. Jeg tipper at vik kan få en GTX 280 for 3500 om ikke så lenge. Krysser fingurene. :D

 

 

ATI har skjermkort i den høyere middels klassen, de har mange gode skjermkort til lave priser. Men de mangler et fettdyrt skjermkort som kan konkurrere med de som vil ha det beste. Og ofte 3 fire av de beste også. Så lenge man ikke kan kjøre crossfire i mer enn 3/4 så vil Nvidias dyre kort yte bedre. ATI har ingen konkurent mot nåværende 9800 gx2, pga dette vil også entusiaster gå for nvidia, helst et par stykker også

 

Nvidia konkurerer med ATI's beste kort med 9800gtx som er i samme prisklasse, og etter personlige erfaringer i crysis yter bra. Det eneste ATI faktisk slår Nvidia i for entusiastens del er film, ATI tar bort mye av prossesorforbruket i forhold til Nvidia.

 

Konklusjonen er at siden det ikke er plass til mer en quad SLI/crossfire å man driter penger og runker til AA så er Nvidia et soleklart valg.

Endret av Masterfifty
Lenke til kommentar
Skuffet over at jeg ikke ser en dedikert hdmi kontakt på de nye kortene, jeg trodde de var kommet for og bli jeg etter at jeg så det på .....var det ett 9600 kkort kanskje, husker ikke helt.

 

 

Hvorfor HDMI på skjermkort?

 

DVI og HDMI har da nøyaktig de samme egenskapene, bare DVI er begrenset til bare bilde, mens HDMI kan overføre både og lyd og bilde.

 

 

Er vell displayport som skal ta over for DVI, så er vell heller det som burde vært på den og ikke HDMI

Lenke til kommentar
Skuffet over at jeg ikke ser en dedikert hdmi kontakt på de nye kortene, jeg trodde de var kommet for og bli jeg etter at jeg så det på .....var det ett 9600 kkort kanskje, husker ikke helt.

 

 

Hvorfor HDMI på skjermkort?

 

DVI og HDMI har da nøyaktig de samme egenskapene, bare DVI er begrenset til bare bilde, mens HDMI kan overføre både og lyd og bilde.

 

 

Er vell displayport som skal ta over for DVI, så er vell heller det som burde vært på den og ikke HDMI

 

DVI og HDMI er en grei løsning og fungerer bra, men jeg tror at partenere står ganske fritt til å velge grensesnittet, og vi kommer til å se litt variasjoner fra standard DVI også.

 

Her er det et genialt (med hensyn til grnsesnitt) kort, Gainward geForce GTX 280, med både DVI, HTMI og ikke minst displayport som kommer til å bli mer akruelet etter hvert.

Endret av Sam_Oslo
Lenke til kommentar
Skuffet over at jeg ikke ser en dedikert hdmi kontakt på de nye kortene, jeg trodde de var kommet for og bli jeg etter at jeg så det på .....var det ett 9600 kkort kanskje, husker ikke helt.

 

 

Hvorfor HDMI på skjermkort?

 

DVI og HDMI har da nøyaktig de samme egenskapene, bare DVI er begrenset til bare bilde, mens HDMI kan overføre både og lyd og bilde.

 

 

Er vell displayport som skal ta over for DVI, så er vell heller det som burde vært på den og ikke HDMI

 

Syntes det hadde vært greit jeg og bruke fra pc til flatskjerm, og da slepper jeg dvi-hdmi adapter

Endret av AllColor
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...