Nizzen Skrevet 7. mai 2010 Del Skrevet 7. mai 2010 At det blir testet gamle spill på en ny cpu er det ikkje noe hensikt i da eldre cpuer ofte er gode nok for dem spilla. Derfor er det tingen å teste cpu i de spilla som krever mye cpu og som kanskje går fra "hakking" til "spillbart" ved å skifte til en ny cpu. Sier ikkje at det hakker med en i7 4 kjerner eller en quadcore core2, men dere skjønner sikkert hva jeg vil frem til Lenke til kommentar
Simen1 Skrevet 7. mai 2010 Del Skrevet 7. mai 2010 Om den får 48.12 lavere FPS i et spill utgitt i november 2007 på et grafikkort gitt ut tidligere samme år er jo fullstendig urelevant i dagens situasjon, nesten på grensen til misvisende hvis det Nizzen sier er fakta. Folk som spiller bør være opptatt av hvilken prosessor som er god nok på de spillene de spiller, på de innstillingene og oppløsningene de spiller. Om fps er 200 eller 300 spiller ingen rolle (50+ er som regel bra nok, litt avhengig av spilltype). Hvilken prosessor eller skjermkort som yter bra på 800x600 er også totalt irrelevant for de som spiller på f.eks 1680x1050. De vil vite hva som er bra på 1680x1050 og om det f.eks er verd å betale 1000 kr mer for en annen prosessor. Gir den tusenlappen en umerkbar forskjell så er det bortkastet å bruke pengene på den dyreste løsningen. Simen1: Det at et program er laget for å utnytte f.eks. to eller fire kjerner betyr ikke at det vil skalere videre, med mindre det er kodet for å gjøre det. Husk at da må arbeidsoppgaven deles opp i flere deler som gjøres samtidig og det blir da et synkroniseringsproblem. Jeg er klar over det, men har observert at programmer enten skalerer dårlig med antall kjerner eller meget bra i forhold til det antallet kjerner man får på desktop i dag. Veldig få havner i mellom. Lenke til kommentar
Digeridoo12 Skrevet 7. mai 2010 Del Skrevet 7. mai 2010 Er det en grunn til at dere bruker patch 8 til WiC istedenfor patch 11 som inneholder dx11-effekter? Lenke til kommentar
efikkan Skrevet 7. mai 2010 Del Skrevet 7. mai 2010 Er det en grunn til at dere bruker patch 8 til WiC istedenfor patch 11 som inneholder dx11-effekter? Sikkert av samme grunn som at de bruker et GeForce 8800 GTX (at de ikke har oppdatert rutiner), som forøvrig sliter litt med DirectX 11 Lenke til kommentar
Gjest Slettet+6132 Skrevet 7. mai 2010 Del Skrevet 7. mai 2010 Er det en grunn til at dere bruker patch 8 til WiC istedenfor patch 11 som inneholder dx11-effekter? Sikkert av samme grunn som at de bruker et GeForce 8800 GTX (at de ikke har oppdatert rutiner), som forøvrig sliter litt med DirectX 11 Jeg har litt vanskelig å fatte at hw.no ikke er istand til å ha ett av hver av de beste skjermkorta fra Nvidia og ATI til bruk for ytelsestester. Når det kan virke som om 90% av de som vanker her på forumet har fra 1 til 4 HD58n0. Ett "utrangert" strømsluk av ett 8800GTX som testkort virker noe malplasert sammen med nye hk og CPU'er. Ad topic: Skal jeg oppgradere en AMD rigg virker X6 1055T veldig fristende. Lenke til kommentar
efikkan Skrevet 7. mai 2010 Del Skrevet 7. mai 2010 Nesten utilgivelig spør du meg, en rigg bør oppdateres for å gi gode tester. Lenke til kommentar
wim Skrevet 8. mai 2010 Del Skrevet 8. mai 2010 Jeg tipper pga at det fordi de bruker data fra gamle tester på nytt, de bencher f.eks. ikke Phenom 9850 på nytt for denne testen. Når de benchet den brukte de ett 8800GTX kort, og da må nødvendigvis alle andre tester som følger bli benchet på samme skjermkort. Lenke til kommentar
Feh Skrevet 8. mai 2010 Del Skrevet 8. mai 2010 (endret) Om den får 48.12 lavere FPS i et spill utgitt i november 2007 på et grafikkort gitt ut tidligere samme år er jo fullstendig urelevant i dagens situasjon, nesten på grensen til misvisende hvis det Nizzen sier er fakta. Folk som spiller bør være opptatt av hvilken prosessor som er god nok på de spillene de spiller, på de innstillingene og oppløsningene de spiller. Om fps er 200 eller 300 spiller ingen rolle (50+ er som regel bra nok, litt avhengig av spilltype). Hvilken prosessor eller skjermkort som yter bra på 800x600 er også totalt irrelevant for de som spiller på f.eks 1680x1050. De vil vite hva som er bra på 1680x1050 og om det f.eks er verd å betale 1000 kr mer for en annen prosessor. Gir den tusenlappen en umerkbar forskjell så er det bortkastet å bruke pengene på den dyreste løsningen. Jeg er helt enig i at det ikke er noen grunn til å teste lavere oppløsninger enn 1680x1050, det har jeg heller ikke sagt noe om. Som du sier selv har det ingenting å si om spillet kjøres i 200 eller 300 FPS, men det kan utgjøre en vesentlig forskjell i testresultatet dersom instillingene i spillet var satt såpass høye at den høyeste frameraten var under 100 for å få et mer realistisk resultat. Ingen jeg kjenner gidder å ha settings så lavt at de oppnår 150 fps, da setter man jo heller på så mye AA/AF man har mulighet til for å holde rundt 50-80 average FPS alt ettersom hva man er komfortabel med. I Crysis testen er jo instillingene så lave at kun to av CPUene kjører spillet på under 100 fps. I WoC testen har "referansen" 980X 240 FPS... Du sier jo selv at det ikke spiller noen rolle, så da må du vel være enig i at å sette på litt AA/AF for å få et mer fornuftig resultat er hensiktsmessig? Det har du nok helt rett i wim. Men nesten 3 år før man oppgraderer er litt lenge når det ville tatt de 1-2 arbeidsdager å få testet samtlige på nytt med et mer aktuelt skjermkort. Endret 8. mai 2010 av Feh Lenke til kommentar
Juji Skrevet 8. mai 2010 Del Skrevet 8. mai 2010 1055T er vel ikke en black edition prosessor? Lenke til kommentar
traveler5843 Skrevet 8. mai 2010 Del Skrevet 8. mai 2010 (endret) 1055T er vel ikke en black edition prosessor? Nei, den har låst multiplikator, så du vil trenge et ansendig hovedkort for å klokke denne opp via FSB, men du vil nok fint kunne klare å nærme deg maks grensen med det geniale hovedkortet ASUS M4A785D-M PRO som kun koster 569,- Dette kortet har faktisk Loadline Calibration, utrolig kult. X6 1090T BE koster ca 75% mer enn i750, så skal dette bli en pris/ytelse vinner for kjøperen er det viktig å vurdere hva dee skal brukes mest til. I applikasjner som utnytter 6 kjerner er valget greit, men dersom det ikke er hovedbruken er i750 kanskje et bedre valg. Du mener 50% vel..? Endret 8. mai 2010 av traveler5843 Lenke til kommentar
del_diablo Skrevet 8. mai 2010 Del Skrevet 8. mai 2010 1680x1050 8/5 hva helvete? Hørt om 16/10 og 4/3, men 8/5? Lenke til kommentar
Arve1234567890 Skrevet 8. mai 2010 Del Skrevet 8. mai 2010 Har du hørt om at 8/5=16/10? Lenke til kommentar
Feh Skrevet 8. mai 2010 Del Skrevet 8. mai 2010 1680x1050 8/5 hva helvete? Hørt om 16/10 og 4/3, men 8/5? Tenk deg om en gang til nå... Lenke til kommentar
del_diablo Skrevet 8. mai 2010 Del Skrevet 8. mai 2010 Hmmm, ganske pen måte å skjule det på det da. Lenke til kommentar
Buzz76 Skrevet 8. mai 2010 Del Skrevet 8. mai 2010 Fikk dere høyere overklokk om dere droppet å øke FSB og kun benyttet multiplier kanksje? Forøvrig meget imponet over pris/ytelse. Et annet aspekt når man vurderer CPU er jo plattformen. AMD gir deg mange muligheter. AM3 har vel mer båndbredde på PCIe (enn P55) Støtte for ECC minne UTEN å måtte betale skjorta av deg (Xeon + dyrt hovedkort på intel siden). Lenke til kommentar
Spragleknas Skrevet 8. mai 2010 Del Skrevet 8. mai 2010 Nå er vel ikke TDP standardisert. Siste jeg leste var AMMS strengere med TDP en Intel. Uansett er det kun målt effektforbruk som kan brukes ved sammenlikning. Lenke til kommentar
traveler5843 Skrevet 8. mai 2010 Del Skrevet 8. mai 2010 Er det noe AMD har gjort riktig så er det å prise disse CPU'ene riktig. Lenke til kommentar
GCardinal Skrevet 9. mai 2010 Del Skrevet 9. mai 2010 Lurer på hvordan den er i Photoshop CS5 Lenke til kommentar
TaZ Skrevet 9. mai 2010 Del Skrevet 9. mai 2010 Lurer på hvordan den er i Photoshop CS5 http://en.hardspell.com/doc/enshowcont.asp?id=7653&pageid=7037 Lenke til kommentar
G Skrevet 9. mai 2010 Del Skrevet 9. mai 2010 Om den får 48.12 lavere FPS i et spill utgitt i november 2007 på et grafikkort gitt ut tidligere samme år er jo fullstendig urelevant i dagens situasjon, nesten på grensen til misvisende hvis det Nizzen sier er fakta. Folk som spiller bør være opptatt av hvilken prosessor som er god nok på de spillene de spiller, på de innstillingene og oppløsningene de spiller. Om fps er 200 eller 300 spiller ingen rolle (50+ er som regel bra nok, litt avhengig av spilltype). Hvilken prosessor eller skjermkort som yter bra på 800x600 er også totalt irrelevant for de som spiller på f.eks 1680x1050. De vil vite hva som er bra på 1680x1050 og om det f.eks er verd å betale 1000 kr mer for en annen prosessor. Gir den tusenlappen en umerkbar forskjell så er det bortkastet å bruke pengene på den dyreste løsningen. Jeg er helt enig i at det ikke er noen grunn til å teste lavere oppløsninger enn 1680x1050, det har jeg heller ikke sagt noe om. Som du sier selv har det ingenting å si om spillet kjøres i 200 eller 300 FPS, men det kan utgjøre en vesentlig forskjell i testresultatet dersom instillingene i spillet var satt såpass høye at den høyeste frameraten var under 100 for å få et mer realistisk resultat. Ingen jeg kjenner gidder å ha settings så lavt at de oppnår 150 fps, da setter man jo heller på så mye AA/AF man har mulighet til for å holde rundt 50-80 average FPS alt ettersom hva man er komfortabel med. I Crysis testen er jo instillingene så lave at kun to av CPUene kjører spillet på under 100 fps. I WoC testen har "referansen" 980X 240 FPS... Du sier jo selv at det ikke spiller noen rolle, så da må du vel være enig i at å sette på litt AA/AF for å få et mer fornuftig resultat er hensiktsmessig? Det har du nok helt rett i wim. Men nesten 3 år før man oppgraderer er litt lenge når det ville tatt de 1-2 arbeidsdager å få testet samtlige på nytt med et mer aktuelt skjermkort. Mulig de har kvittet seg med noen kilo gammel hardware allerede da.. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå