LMH1 Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Ut i fra: Virker det ut som A8-3870k gir bedre ytelse per klokkefrekvens? Hvordan er det mulig? A10 5800k @ 4.5 vs A8 3870k @ 3,5 Ghz. Lenke til kommentar
efikkan Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 (endret) Hvis grafikkytelsene skal kunne kalles brukbar må den takle dagens spill i 1920x1200 med minst 30 FPS. Dette er nok en CPU fra AMD som jeg bare rister på hodet for, de to siste årene har de bare gitt ut dårligere CPUer. Og hvorfor mangler Sandy Bridge-E-prosessorer i CPU-sammenligningene? Endret 2. oktober 2012 av efikkan Lenke til kommentar
Ruarcs Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 (endret) Ut i fra: Virker det ut som A8-3870k gir bedre ytelse per klokkefrekvens? Hvordan er det mulig? A10 5800k @ 4.5 vs A8 3870k @ 3,5 Ghz. Muligens at den ene har 2 l2 cacher med 2mb mens den andre har 4 med 1? Kansje dette gjør en forskjell på den innebygde gpuen? Syns det virket litt rart i grunnen Endret 2. oktober 2012 av Ruarcs Lenke til kommentar
LMH1 Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Jeg vil heller si hvorfor er ikke AMD Athlon II X4 640 nevnt her? Da ville man ca vite hvor mye en A10-5800k kan måles mot ca. Prosessorene til AMD er ikke dårlige det er vel heller det at AMD ønsker å droppe eksterne skjermkort problemet er, og man neppe får brukt crossfire ved å sette inn et low end PCI-E skjermkort. Lenke til kommentar
Ruarcs Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Hvis grafikkytelsene skal kunne kalles brukbar må den takle dagens spill i 1920x1200 med minst 30 FPS. Dette er nok en CPU fra AMD som jeg bare rister på hodet for, de to siste årene har de bare gitt ut dårligere CPUer. Og hvorfor mangler Sandy Bridge-E-prosessorer i CPU-sammenligningene? http://www.xbitlabs.com/articles/graphics/display/amd-trinity-graphics_8.html#sect0 Men denne gjør jo akkuratt det vist du setter i 2400Mhz ram.. 1 Lenke til kommentar
LMH1 Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Godt mulig Xbox 720 får en A10 5800k prosessor og 2400Mhz ram, om man da klarer og optimalisere ytelsen kan det godt være man klarer 40 FPS i spill men spørs vel om microsoft vil tilatte brukerne å kunne overklokke maskinvaren. Lenke til kommentar
N o r e n g Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Ut i fra: Virker det ut som A8-3870k gir bedre ytelse per klokkefrekvens? Hvordan er det mulig? A10 5800k @ 4.5 vs A8 3870k @ 3,5 Ghz. Muligens at den ene har 2 l2 cacher med 2mb mens den andre har 4 med 1? Kansje dette gjør en forskjell på den innebygde gpuen? Syns det virket litt rart i grunnen Piledriver-arkitekturen er nok fortsatt et godt stykke unna å nå tilsvarende IPC som Stars-arkitekturen. Hvis grafikkytelsene skal kunne kalles brukbar må den takle dagens spill i 1920x1200 med minst 30 FPS. Dette er nok en CPU fra AMD som jeg bare rister på hodet for, de to siste årene har de bare gitt ut dårligere CPUer. Problemet med grafikken er mest sannsynlig minnebåndbredde, det er en grunn til at vi har GDDR-RAM. Piledriver ser dessverre ikke ut til å være en stor nok forbedring fra Bulldozer, men det er i det minste et steg fremover. Lenke til kommentar
cannibalguppy Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 er greit for en mediapc eller en veldig billig lanpc da Lenke til kommentar
finnipinni Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Nettopp. Er jo ikke noe en sammenlikner med kjempedyre intelprosessorer og dedikerte skjermkort dette. Lenke til kommentar
Ruarcs Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Nei, man kan bygge en meget billig pc ut av dette, spesielt vist man har litt liggendes fra før, som meget mange nå har, hardisker for.eks Lenke til kommentar
lucky666 Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Det er nå ca. et halvt år til Haswell kommer ut, og da kommer "avstanden" i grafikkytelse til å synke drastisk... Det blir et spørsmål om pris for mange også. Lenke til kommentar
kjeLL// Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Oppdater testen deres asap med 2400+ MHz minne HW! de nye apu-ene er veldig sultet på minnebandbredde når det kommer til å mate gpu-en med nok bandbredde. hadde vært fint med en test for å se om ytelsen økte linjert med 1333 1600 1866 2133 og 2400mhz. Lenke til kommentar
knopflerbruce Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Uten at jeg er helt sikker, selv høyere frekvenser er mulig? 2666Mhz f.eks. Lenke til kommentar
Ruarcs Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 (endret) Oppdater testen deres asap med 2400+ MHz minne HW! de nye apu-ene er veldig sultet på minnebandbredde når det kommer til å mate gpu-en med nok bandbredde. hadde vært fint med en test for å se om ytelsen økte linjert med 1333 1600 1866 2133 og 2400mhz. http://www.xbitlabs....cs_8.html#sect0 Det er jo andre som har gjort det;-) Graphics core performance proved amazingly scalable as the memory frequency and bandwidth increased. By simply raising the memory frequency by 266 MHz, we could boost the fps rate by 10-15%. Of course, as the memory frequency increased, this dependence becomes less prominent, but nevertheless, if you are building a Trinity based system and intend to use its graphics core for 3D applications, you must pay special attention to finding high-speed DDR3 SDRAM Endret 2. oktober 2012 av Ruarcs Lenke til kommentar
Stigma Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Veldig kult at vi nå begynner å se integrert grafikk som faktisk begynner å bli brukbar for 3D spill. Dette er allerede brukbart for spill der du ikke trenger voldsomme reaksjoner for å spille, og det blir veldig interessant å se hva "neste steg" i denne utviklingen blir. Det er absolutt et stort plus om du kan få "ok" grafikk med på kjøpet i en laptop mer eller mindre gratis uten å påkoste deg diskrete skjermkort i et bærbart format. -Stigma Lenke til kommentar
LMH1 Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 (endret) Lurer nesten på om intel vil komme med et: Nano ITX hovedkort med en prosessor som kan måle seg mot i3 2100 og et nvidia GTX 650 skjermkort da begynner det å skje saker om AMD vil neppe klare å konkurere mot dette amd vil vertfall slite. Men vi snakker kanskje om 1-2 år i så fall. Endret 2. oktober 2012 av LMH1 Lenke til kommentar
leifeinar Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Fint at AMD har begyn på denne "veien" med fusion, jo mere vi krymper jo bedre produkt får vi. tro når vi i år 2020 har en slik chip med sub 10nm cpu/gpu menakkurat dette med å låne GPU minne er neppe helt ideelt og bør vel løses for og ta dette helt ut. Lenke til kommentar
flowerpot Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 (endret) Oppdater testen deres asap med 2400+ MHz minne HW! de nye apu-ene er veldig sultet på minnebandbredde når det kommer til å mate gpu-en med nok bandbredde. hadde vært fint med en test for å se om ytelsen økte linjert med 1333 1600 1866 2133 og 2400mhz. http://www.xbitlabs....cs_8.html#sect0 Det er jo andre som har gjort det;-) Graphics core performance proved amazingly scalable as the memory frequency and bandwidth increased. By simply raising the memory frequency by 266 MHz, we could boost the fps rate by 10-15%. Of course, as the memory frequency increased, this dependence becomes less prominent, but nevertheless, if you are building a Trinity based system and intend to use its graphics core for 3D applications, you must pay special attention to finding high-speed DDR3 SDRAM Ikke drlig du. Hele 35-45% mer FPS i samtlige spill ved 2400MHz minne, med unntak av Borderlands 2 som har over 50% økning. kjekt å vite Endret 2. oktober 2012 av flowerpot Lenke til kommentar
Olestokk Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Dette med minnehastigheter betyr vel at AMDs APUer kommer til å like seg godt med DDR4? Og ting jeg lurer på er om de etterhvert vil prøve å legge mer minne i dem, så du slipper eget minne til grafikkortet og bare har det på selve die'en? Lenke til kommentar
Ruarcs Skrevet 2. oktober 2012 Del Skrevet 2. oktober 2012 Oppdater testen deres asap med 2400+ MHz minne HW! de nye apu-ene er veldig sultet på minnebandbredde når det kommer til å mate gpu-en med nok bandbredde. hadde vært fint med en test for å se om ytelsen økte linjert med 1333 1600 1866 2133 og 2400mhz. http://www.xbitlabs....cs_8.html#sect0 Det er jo andre som har gjort det;-) Graphics core performance proved amazingly scalable as the memory frequency and bandwidth increased. By simply raising the memory frequency by 266 MHz, we could boost the fps rate by 10-15%. Of course, as the memory frequency increased, this dependence becomes less prominent, but nevertheless, if you are building a Trinity based system and intend to use its graphics core for 3D applications, you must pay special attention to finding high-speed DDR3 SDRAM Ikke drlig du. Hele 35-45% mer FPS i samtlige spill ved 2400MHz minne, med unntak av Borderlands 2 som har over 50% økning. kjekt å vite Ja, ikke sant, da lønner det seg å betale litt ekstra for rammen, er vel ikke snakk om så mange kronene heller Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå