_sindre_ Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Denne har integrert grafikk som knuser Intels løsninger. Test: AMD A10-5800K Lenke til kommentar
finnipinni Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Hvorfor rangerer dere etter max mulig forbruk og ikke etter det den bruker i hvile ? Samme med temperatur. Det ideelle hadde jo vært at hvileforbruket var null med et høyt max forbruk. En slik ville jo komme dårligst ut. - Nesten samme med temperatur. Det er jo temperaturen i hvile som er viktig. Load temperaturen er ikke så viktig hvis den er håndterbar. Lenke til kommentar
N o r e n g Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 (endret) A10-5800k er spesifisert for 1866MHz DDR3-minne, burde dere ikke testet med slike hastigheter framfor å bruke 1333MHz minne? Spesielt når xbit labs har testet og funnet ut at grafikkdelen skalerer meget bra med raskere minne. Det er jo temperaturen i hvile som er viktig. Load temperaturen er ikke så viktig hvis den er håndterbar. Temperaturavlesninger ved idle er totalt ubrukelig, jo lengre vekke fra makstemperaturen man kommer, jo mindre nøyaktig blir sensorene. Endret 2. oktober 2012 av arni90 1 Lenke til kommentar
Ruarcs Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Hvordan oppfører den seg vist man klokker ramhastigheten? Tenker på gpu biten, siden den "deler på rammen".. Og hvordan blir ytelsen vist man kjører crossfire? Lenke til kommentar
Ruarcs Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 A10-5800k er spesifisert for 1866MHz DDR3-minne, burde dere ikke testet med slike hastigheter framfor å bruke 1333MHz minne?Spesielt når xbit labs har testet og funnet ut at grafikkdelen skalerer meget bra med raskere minne. Det er jo temperaturen i hvile som er viktig. Load temperaturen er ikke så viktig hvis den er håndterbar.Temperaturavlesninger ved idle er totalt ubrukelig, jo lengre vekke fra akstemperaturen man kommer, jo mindre nøyaktig blir sensorene. Det var det jeg trodde jeg hadde hørt, at man kunne få så mye som rundt 10%økning i fps med å klokke rammen...rart å da kjøre på 1333 med "lavere" timings, bare fordi det er amd mon tro? At de tror at det alltid lønner seg med lav timing vs Hz... Lenke til kommentar
L4r5 Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Endelig en brukbar integrert løsning. Liker utviklingen. 2 Lenke til kommentar
N o r e n g Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Det var det jeg trodde jeg hadde hørt, at man kunne få så mye som rundt 10%økning i fps med å klokke rammen...rart å da kjøre på 1333 med "lavere" timings, bare fordi det er amd mon tro? At de tror at det alltid lønner seg med lav timing vs Hz... http://www.xbitlabs.com/articles/graphics/display/amd-trinity-graphics_8.html#sect0 Ser ut som mer enn 10% her Lenke til kommentar
Ruarcs Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 (endret) Det var det jeg trodde jeg hadde hørt, at man kunne få så mye som rundt 10%økning i fps med å klokke rammen...rart å da kjøre på 1333 med "lavere" timings, bare fordi det er amd mon tro? At de tror at det alltid lønner seg med lav timing vs Hz... http://www.xbitlabs....cs_8.html#sect0 Ser ut som mer enn 10% her Ja, var det jeg faktisk trodde, men jeg sa 10 for å ikke bli slaktet for å overdrive,hehe Edit: 23 til 34 fps på borderlands 2 faktisk... 1333MHz vs 2400Mhx Endret 2. oktober 2012 av Ruarcs Lenke til kommentar
finnipinni Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Det er jo de faktiske forhold som er viktige her. Ikke hvor misvisende enkelte sensorer kan være i de forskjellige HK. At idel temp er lav er det eneste riktige å sammenlikne så generelt som i disse radene. Og det gjelder i ennå større grad effektavsetningen. Lenke til kommentar
HKS Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Hvis man ikke har store krav til grafikk, eller er en typisk "casual gamer" så er dette en god løsning. Det er bare synd at AMD ikke har fått dette ut fortere. Det er nå ca. et halvt år til Haswell kommer ut, og da kommer "avstanden" i grafikkytelse til å synke drastisk... Lenke til kommentar
Ruarcs Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Hvis man ikke har store krav til grafikk, eller er en typisk "casual gamer" så er dette en god løsning. Det er bare synd at AMD ikke har fått dette ut fortere. Det er nå ca. et halvt år til Haswell kommer ut, og da kommer "avstanden" i grafikkytelse til å synke drastisk... Noen idikasjon på hvor haswell kommer til å ligge i grafikk ytelse? Lenke til kommentar
N o r e n g Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Det er jo de faktiske forhold som er viktige her. Ikke hvor misvisende enkelte sensorer kan være i de forskjellige HK. At idel temp er lav er det eneste riktige å sammenlikne så generelt som i disse radene. Og det gjelder i ennå større grad effektavsetningen. Nei. Temperatursensorene ligger på selve brikka, ikke på hovedkortet, disse sensorene er laget for å være "nøyaktige" for bruk til throttling og Turbo, ikke for målinger ved idle. Strømforbruket måles med en effektmåler fra veggen og jeg gjetter på at HW.no bruker samme PSU for alle oppsettene, ergo gir disse relevant informasjon i forhold til load- og idle-forbruk. Lenke til kommentar
flowerpot Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Oppdater testen deres asap med 2400+ MHz minne HW! 2 Lenke til kommentar
karl-wilhelm Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 (endret) Noen idikasjon på hvor haswell kommer til å ligge i grafikk ytelse? Nei, egentlig ikke. Kun Intel sin showcase: Dette er nok resultater som er pyntet på vel å merke. /\ Nvm, Les posten under! \/ Endret 2. oktober 2012 av karl-wilhelm Lenke til kommentar
HKS Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 (endret) Noen idikasjon på hvor haswell kommer til å ligge i grafikk ytelse? Haswell GT2 (likt antall EU som Ivy Bridge) ville få opp til 30% bedre ytelse var det de sa og demonstrerte. Haswell kommer også i en GT3 variant med dobbelt så mange EU (les. ALUer) og med eget minne (les buffer) på CPU-pakken. Testet blant annet BF3 og et par andre spill på IDF i år, og kan bekrefte at ting gikk helt glatt i 1080p med mesteparten av "eye candy" på. Endret 2. oktober 2012 av HKS 1 Lenke til kommentar
del_diablo Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Eneste som mangler er vel "klarer den 60 fps i Dark Souls med dsfix" Lenke til kommentar
N o r e n g Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Noen idikasjon på hvor haswell kommer til å ligge i grafikk ytelse? Haswell GT2 (likt antall EU som Ivy Bridge) ville få opp til 30% bedre ytelse var det de sa og demonstrerte. Haswell kommer også i en GT3 variant med dobbelt så mange EU (les. ALUer) og med eget minne (les buffer) på CPU-pakken. Testet blant annet BF3 og et par andre spill på IDF i år, og kan bekrefte at ting gikk helt glatt i 1080p med mesteparten av "eye candy" på. BF3 glatt i 1080p med integrert GPU? Det høres rimelig merkelig ut, skulle da tro BF3 krevde litt mer minnebåndbredde enn 25GB/s 2 Lenke til kommentar
HKS Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 BF3 glatt i 1080p med integrert GPU? Det høres rimelig merkelig ut, skulle da tro BF3 krevde litt mer minnebåndbredde enn 25GB/s Stemmer, det har Haswell allerede løst på GT3, med at de har 64MB med en rask L4 cache, uansett, mer detaljer om dette kommer senere, blir uansett for off-topic her... Lenke til kommentar
knopflerbruce Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Dette maset om idletemp skjønner jeg ikke. Det er jo *fullstendig* irrelevant hvor varm den er idle sålenge det ikke er veldig høyt (60+), hvis effektbruken er liten. Effektbruken har de målt, og det er DEN som er den relevante variabelen. 2 Lenke til kommentar
finnipinni Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Temp sensorer i CPU tolkes av HK og de er ikke kalibrerte og vil bare gi en omtrentlig verdi. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå