Kirchhoff Skrevet 9. juni 2008 Del Skrevet 9. juni 2008 (endret) Helt utrolig at du tror at phenom er 48% bedre enn athlon. Hvorfor tror du ikke at ut3 liker flere kjerner? Du ser jo at x3 banker core 2 duoer også. Jeg forstår bare ikke det? Legger til: Dette er forresten cpu forbruket til stranglehold på phenom@3 ghz (stranglehold bruker Unreal 3 motoren) Etter det jeg kan se er totalen på ca 70-80%. Endret 9. juni 2008 av O:M:A Lenke til kommentar
Simen1 Skrevet 9. juni 2008 Del Skrevet 9. juni 2008 Helt utrolig at du tror at phenom er 48% bedre enn athlon. Hvorfor tror du ikke at ut3 liker flere kjerner? Du ser jo at x3 banker core 2 duoer også. Jeg forstår bare ikke det? Er det så utrolig? Jeg synes tallene støtter det jeg sier, vel og merke kun for UT3. Phenom X3 er nok ikke generelt så mye bedre enn Athlon64 X2. Sammenligner man Phenom med Core 2 Duo så sammenligner man igjen epler og pærer. "3 pærer er bedre enn 2 epler" Se heller på ulike antall kjerner uten å endre på typen kjerner. På det skjermbildet ser det ut til at Phenom X4 utnyttes henholdsvis 90%, 30-40%, 80-90% og 60%. Totalt ~65-70%. Lenke til kommentar
Kirchhoff Skrevet 9. juni 2008 Del Skrevet 9. juni 2008 Helt utrolig at du tror at phenom er 48% bedre enn athlon. Hvorfor tror du ikke at ut3 liker flere kjerner? Du ser jo at x3 banker core 2 duoer også. Jeg forstår bare ikke det? Er det så utrolig? Jeg synes tallene støtter det jeg sier, vel og merke kun for UT3. Phenom X3 er nok ikke generelt så mye bedre enn Athlon64 X2. Sammenligner man Phenom med Core 2 Duo så sammenligner man igjen epler og pærer. "3 pærer er bedre enn 2 epler" Se heller på ulike antall kjerner uten å endre på typen kjerner. På det skjermbildet ser det ut til at Phenom X4 utnyttes henholdsvis 90%, 30-40%, 80-90% og 60%. Totalt ~65-70%. Epler og pærer? hva? core 2 duo har bedre ytelse per kjerne enn phenom, men når 3 kjerner phenom slår 2 core 2 duo betyr jo det at unreal bruker den tredje kjernen veldig godt. Vi får se om phenom mister 20-30% ytelse viss noen deaktiverer den tredje, jeg er 99% sikker på at den nettopp mister 20-30% ytelse. Og tror ikke jeg er den eneste. Lenke til kommentar
Simen1 Skrevet 9. juni 2008 Del Skrevet 9. juni 2008 Epler og pærer? hva? core 2 duo har bedre ytelse per kjerne enn phenom Har du noen test som støtter deg i at C2D har høyere ytelse per kjerne og GHz enn Phenom i UT3? En test av Phenom med kun 2 aktive kjerner, vs C2D? Vi får se om phenom mister 20-30% ytelse viss noen deaktiverer den tredje, jeg er 99% sikker på at den nettopp mister 20-30% ytelse. Og tror ikke jeg er den eneste. Mitt anslag er at den taper 15% ytelse når man reduserer fra 3 til 2 kjerner. (175% CPU-kraft vs 150%) Lenke til kommentar
Core2Dude Skrevet 9. juni 2008 Del Skrevet 9. juni 2008 (endret) Blir spennende å se med kommende spill som støtter bedre flere kjerner. Hørte om at Alan Wake skulle være så bra optimalisert for dette... btw. Vil en Q6600 på 2.8GHz bli litt for dårlig i de kommende tider? må kanskje påkoste meg en extra kjøler... eller? Endret 9. juni 2008 av Core2Duo_Dude Lenke til kommentar
Ourasi Skrevet 10. juni 2008 Del Skrevet 10. juni 2008 (endret) Blir spennende å se med kommende spill som støtter bedre flere kjerner. Hørte om at Alan Wake skulle være så bra optimalisert for dette... btw. Vil en Q6600 på 2.8GHz bli litt for dårlig i de kommende tider? må kanskje påkoste meg en extra kjøler... eller? Et fornuftig kodet spill vil klare seg i massevis med C2D/C2Q/Phenom på 2.8ghz. Med litt AA/AF på i en brukbar oppløsning, vil du ikke merke forskjell på en 2.8ghz og en 4ghz, siden det er skjermkortet som er flaskehalsen. Når det gjelder kommende titler, så er det stort sett det grafiske som blir mere krevende, så også på disse vil skjermkortet bli flaskehalsen... Alan Wake er laget av Remedy, som laget Max Payne, og disse folka har stort sett laget spill som skalerer veldig bra på skjermkortene, så du får nok et spill som trenger et bra DX10/10.1 skjermkort i Alan Wake, og ikke noen extrem CPU selv med disse 5 trådene de snakker om. Kommer det noensinne tro... Er spill viktig for deg, bør pengene brukes på bra skjermkort, for din CPU er mer enn bra nok i lang tid fremover....... Endret 10. juni 2008 av Ourasi Lenke til kommentar
Core2Dude Skrevet 10. juni 2008 Del Skrevet 10. juni 2008 Blir spennende å se med kommende spill som støtter bedre flere kjerner. Hørte om at Alan Wake skulle være så bra optimalisert for dette... btw. Vil en Q6600 på 2.8GHz bli litt for dårlig i de kommende tider? må kanskje påkoste meg en extra kjøler... eller? Et fornuftig kodet spill vil klare seg i massevis med C2D/C2Q/Phenom på 2.8ghz. Med litt AA/AF på i en brukbar oppløsning, vil du ikke merke forskjell på en 2.8ghz og en 4ghz, siden det er skjermkortet som er flaskehalsen. Når det gjelder kommende titler, så er det stort sett det grafiske som blir mere krevende, så også på disse vil skjermkortet bli flaskehalsen... Alan Wake er laget av Remedy, som laget Max Payne, og disse folka har stort sett laget spill som skalerer veldig bra på skjermkortene, så du får nok et spill som trenger et bra DX10/10.1 skjermkort i Alan Wake, og ikke noen extrem CPU selv med disse 5 trådene de snakker om. Kommer det noensinne tro... Er spill viktig for deg, bør pengene brukes på bra skjermkort, for din CPU er mer enn bra nok i lang tid fremover....... Det var godt å høre Men nå begynner det sannelig å nærme seg release datoene til GT200 og HD4800. Jeg personlig skal kjøpe HD4870. Blir for dyrt med GT200 korta. Lenke til kommentar
simalarion Skrevet 11. juni 2008 Del Skrevet 11. juni 2008 Haddet ikke ATI vært forsinket (igjen, er det jo lov til å si nå)så kunnde de fått en hel del bonus salg før nVidia release. Lenke til kommentar
MistaPi Skrevet 11. juni 2008 Del Skrevet 11. juni 2008 ATi er ikke forsinket. Ryktene om mai eller tidlig juni lansering har aldri stemt, lanseringsdatoen er og har vært 25. juni. Ihvertfall ifølge en som ser ut til å sitte på god info. Lenke til kommentar
simalarion Skrevet 11. juni 2008 Del Skrevet 11. juni 2008 Lenge siden jeg har sittet på god info fra den fronten Lenke til kommentar
knopflerbruce Skrevet 11. juni 2008 Del Skrevet 11. juni 2008 25 juni er jo ikke lenge til, håper den datoen stemmer. HÅper på en fet lønningspose, kanskje jeg hiver meg på noe high-end. Lenke til kommentar
FullColor Skrevet 13. juni 2008 Del Skrevet 13. juni 2008 Skuffet over at jeg ikke ser en dedikert hdmi kontakt på de nye kortene, jeg trodde de var kommet for og bli jeg etter at jeg så det på .....var det ett 9600 kkort kanskje, husker ikke helt. Lenke til kommentar
kjetilkl Skrevet 13. juni 2008 Del Skrevet 13. juni 2008 (endret) En liten fugl har iallefall kvitret meg at det vil være kort tilgjhengelig i nettbutikkene på mandag (på lager) og at prisen fra distributør til forhandler på GTX 280 vil være lavere enn x2 det et 9800GTX kort koster nå - så jeg har iallefall begynt å glede meg til å bytte ut 7950GTen min ;-) Edit: Rettelse, GTX hadde blitt til GX2 :-O Endret 13. juni 2008 av kjetilkl Lenke til kommentar
Simen1 Skrevet 13. juni 2008 Del Skrevet 13. juni 2008 9800GX2 koster fra ca 3500-4000 kr. Det vil si at GTX 280 vil bli billigere ikke fullt så dyr. Lenke til kommentar
Sam_Oslo Skrevet 13. juni 2008 Del Skrevet 13. juni 2008 Jeg er helt enig. Jeg tipper at vi kan forvente GTX 280 for ca. 3500. I annen tråd har jeg tiligere idag skrev dette: Både GTX 280 og 260 yter bra, men ATI kortene kommer til å konkurere bra . Jeg tror at vi kan forvente en storstilt priskrig ganske fort etter hype-perioden. Jeg tror at vi kan forvente en god del prisdropp fra både ATI og Nvidia, men særlig Nvidia. Jeg tipper at vik kan få en GTX 280 for 3500 om ikke så lenge. Krysser fingurene. Lenke til kommentar
Kjetil.. Skrevet 13. juni 2008 Del Skrevet 13. juni 2008 (endret) Det blir spennende... Jeg kjøper uansett ikke noe fra den generasjonen før både Nvidia og ATis kort er på markedet så vi kan sammenligne dem. Som mange andre har poengtert så er det jo nesten ikke noen tvil om at Nvidias topkort vil ha bedre ytelse, men gitt ATIs topkort til den uvanlig lave prisen så er det jo fullt mulig at ATI kan vinne (evt. vinne stort) når det kommer til ytelse/pris forhold. Tross alt så er ikke spesifikasjonene på deres kort dårlige heller, og jeg ser meg egentlig mye mer imponert av deres tilbud på papiret når man tar hennsyn til prisen... Time will tell -Stigma Nvidia har vell kanskje ikke satset på ytelse/pris, men satset på ytelse. Nvidia hr flere entuiast kort som eksempel 8800 ultra. Hvor mange 4870 kan du kjøre i crossfire? Hvor mange 280gtx kan du kjøre i sli? Nvidia snakker ytelse ikke pris, pris er middelklasse kort. Gtx er og skal være dyre kort for nettopp entusiaster les annet inlegg: Både GTX 280 og 260 yter bra, men ATI kortene kommer til å konkurere bra . Jeg tror at vi kan forvente en storstilt priskrig ganske fort etter hype-perioden. Jeg tror at vi kan forvente en god del prisdropp fra både ATI og Nvidia, men særlig Nvidia. Jeg tipper at vik kan få en GTX 280 for 3500 om ikke så lenge. Krysser fingurene. ATI har skjermkort i den høyere middels klassen, de har mange gode skjermkort til lave priser. Men de mangler et fettdyrt skjermkort som kan konkurrere med de som vil ha det beste. Og ofte 3 fire av de beste også. Så lenge man ikke kan kjøre crossfire i mer enn 3/4 så vil Nvidias dyre kort yte bedre. ATI har ingen konkurent mot nåværende 9800 gx2, pga dette vil også entusiaster gå for nvidia, helst et par stykker også Nvidia konkurerer med ATI's beste kort med 9800gtx som er i samme prisklasse, og etter personlige erfaringer i crysis yter bra. Det eneste ATI faktisk slår Nvidia i for entusiastens del er film, ATI tar bort mye av prossesorforbruket i forhold til Nvidia. Konklusjonen er at siden det ikke er plass til mer en quad SLI/crossfire å man driter penger og runker til AA så er Nvidia et soleklart valg. Endret 13. juni 2008 av Masterfifty Lenke til kommentar
RamGuy Skrevet 13. juni 2008 Del Skrevet 13. juni 2008 Skuffet over at jeg ikke ser en dedikert hdmi kontakt på de nye kortene, jeg trodde de var kommet for og bli jeg etter at jeg så det på .....var det ett 9600 kkort kanskje, husker ikke helt. Hvorfor HDMI på skjermkort? DVI og HDMI har da nøyaktig de samme egenskapene, bare DVI er begrenset til bare bilde, mens HDMI kan overføre både og lyd og bilde. Er vell displayport som skal ta over for DVI, så er vell heller det som burde vært på den og ikke HDMI Lenke til kommentar
Sam_Oslo Skrevet 13. juni 2008 Del Skrevet 13. juni 2008 (endret) Skuffet over at jeg ikke ser en dedikert hdmi kontakt på de nye kortene, jeg trodde de var kommet for og bli jeg etter at jeg så det på .....var det ett 9600 kkort kanskje, husker ikke helt. Hvorfor HDMI på skjermkort? DVI og HDMI har da nøyaktig de samme egenskapene, bare DVI er begrenset til bare bilde, mens HDMI kan overføre både og lyd og bilde. Er vell displayport som skal ta over for DVI, så er vell heller det som burde vært på den og ikke HDMI DVI og HDMI er en grei løsning og fungerer bra, men jeg tror at partenere står ganske fritt til å velge grensesnittet, og vi kommer til å se litt variasjoner fra standard DVI også. Her er det et genialt (med hensyn til grnsesnitt) kort, Gainward geForce GTX 280, med både DVI, HTMI og ikke minst displayport som kommer til å bli mer akruelet etter hvert. Endret 13. juni 2008 av Sam_Oslo Lenke til kommentar
FullColor Skrevet 15. juni 2008 Del Skrevet 15. juni 2008 (endret) Skuffet over at jeg ikke ser en dedikert hdmi kontakt på de nye kortene, jeg trodde de var kommet for og bli jeg etter at jeg så det på .....var det ett 9600 kkort kanskje, husker ikke helt. Hvorfor HDMI på skjermkort? DVI og HDMI har da nøyaktig de samme egenskapene, bare DVI er begrenset til bare bilde, mens HDMI kan overføre både og lyd og bilde. Er vell displayport som skal ta over for DVI, så er vell heller det som burde vært på den og ikke HDMI Syntes det hadde vært greit jeg og bruke fra pc til flatskjerm, og da slepper jeg dvi-hdmi adapter Endret 16. juni 2008 av AllColor Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå