magnusavr Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Ashes of Singularity har nå blitt optimalisert for ryzen. Det ga en ytelse øking i 1080p på 26,9%, 1440p på 31,2% og 4K på 22,7%. Mer her: http://www.legitreviews.com/amd-ryzen-performance-update-released-ashes-singularity_193137 1 Lenke til kommentar
Betroz Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 (endret) Problemet er bare at det ikke er sant. Det er jeg, med min GTX 1060 som gamer i 1080p. En 1080 Ti-bruker gjør ikke det. Du gjør ikke CPU til en flaskehals i gaming-benchmark, når CPU ikke er en flaskehals, i hvert fall i like stor grad, for gamere. Punktum. Det er det vi har syntetiske benchmarks for. For Nizzen er kanskje hans 6900K like rask eller raskere enn 7700K. Men det vil han aldri vite, fordi alle tester der ut tester GTX 1080 Ti med 6900K, 7700K, Ryzen og andre prosessorer i 1080p. Den ene representative gruppen blir da 1080 Ti-eiere med 1920x1080-skjermer. Dem er det vel mange av der ute... Men jeg gir faen. La de bruke 1080p eller 720p, selv om verken jeg eller du blir noe mer klok av det og verken jeg eller du får nytte bruk for resultatene. Alt jeg og andre ber om er 1440p og 4K-tester og 1080p-tester med 1080-GPUer (GTX 1060?). Er det for mye å forlange? DigitalFoundry forklarer det kanskje bedre enn meg : https://youtu.be/TId-OrXWuOE?t=2m41s Kan jeg forresten spørre hvilket skjermkort du har og hvilken oppløsning du spiller i? Og så du videoen jeg linket? Har ikke du fått med deg at skjermkort-reviews tester masse forskjellige skjermkort på bare en CPU? Eller skal jeg forklare deg hvordan CPU-reviews og skjermkort-reviews fungerer og hva forskjellen mellom de er? Finn meg skjermkort-reviews der mange CPUer, deriblant min 2500K, er inkludert, så skal jeg innrømme at du har rett. Jeg har et GTX 980Ti og spiller i 1440p. Min hardware står i sigg. Nei, ikke sett den videoen enda, men skal det. De gangene det er flere CPU'er med i tester av skjermkort er for å teste CPU skalering med akkurat det kortet de tester. Ellers har alle testere en standarisert testbenk de bruker mellom alle skjermkort tester, og det for en grunn. Guru3D f.eks bruker en 5960X @ 4.4 Ghz nettopp for å utelukke CPU som flaskehals. Når jeg spiller mine spill i 1440p så ønsker jeg at CPU ikke begrenser ytelsen for skjermkortet, slik at de fps jeg får er det skjermkortet klarer i en gitt situasjon. Så når jeg snart får meg et GTX 1080Ti kort, så vet jeg at fps øker som følge av raskere GPU (logisk). Ved neste skjermkort kjøp, så kan det hende at min 5960X @ 4.2 Ghz begynner å bli en flaskehals, selv ved 1440p. Endret 30. mars 2017 av Betroz Lenke til kommentar
Christian Thork Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Betroz, kan du kjøre en runde med CB R15 på din 5960X ved 4200? Takk! :-) Lenke til kommentar
Mumriken Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Jeg syns han gjør et godt poeng ut av å si at 1080p-tester er helt idiotiske når de tester med GTX 1080 Ti og Titan XP. Hvor mange slike brukere gamer i 1080p? Han legger fram et godt argument i å si at disse sidene gjør det fordi å vise real-world benchmarks, dvs. benchmarks med innstillinger som vi faktisk spiller i med det utstyret vi har, så er forskjellen mellom den ene og andre prosessoren veldig liten. Og disse sidene lever av å lage tester, og da tester som er relevante. Om alle prosessorene er helt like i deres benchmarks, blir jo det ikke interessant. Nå er det mange som bruker slike kort på 1080p oppløsning å jeg kommer til å gjøre det selv. Må heller ikke glemme at flere produsenter har kommet med 240Hz og flere har slike på vei. Da trenger du en kraftig CPU/GPU kombo 1 Lenke til kommentar
Nizzen Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Betroz, kan du kjøre en runde med CB R15 på din 5960X ved 4200? Takk! :-) Minnehastighet og cache på? Lenke til kommentar
Nizzen Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Problemet er bare at det ikke er sant. Det er jeg, med min GTX 1060 som gamer i 1080p. En 1080 Ti-bruker gjør ikke det. Du gjør ikke CPU til en flaskehals i gaming-benchmark, når CPU ikke er en flaskehals, i hvert fall i like stor grad, for gamere. Punktum. Det er det vi har syntetiske benchmarks for. For Nizzen er kanskje hans 6900K like rask eller raskere enn 7700K. Men det vil han aldri vite, fordi alle tester der ut tester GTX 1080 Ti med 6900K, 7700K, Ryzen og andre prosessorer i 1080p. Den ene representative gruppen blir da 1080 Ti-eiere med 1920x1080-skjermer. Dem er det vel mange av der ute... Men jeg gir faen. La de bruke 1080p eller 720p, selv om verken jeg eller du blir noe mer klok av det og verken jeg eller du får nytte bruk for resultatene. Alt jeg og andre ber om er 1440p og 4K-tester og 1080p-tester med 1080-GPUer (GTX 1060?). Er det for mye å forlange? DigitalFoundry forklarer det kanskje bedre enn meg : https://youtu.be/TId-OrXWuOE?t=2m41s Kan jeg forresten spørre hvilket skjermkort du har og hvilken oppløsning du spiller i? Og så du videoen jeg linket? Har ikke du fått med deg at skjermkort-reviews tester masse forskjellige skjermkort på bare en CPU? Eller skal jeg forklare deg hvordan CPU-reviews og skjermkort-reviews fungerer og hva forskjellen mellom de er? Finn meg skjermkort-reviews der mange CPUer, deriblant min 2500K, er inkludert, så skal jeg innrømme at du har rett. Jeg har et GTX 980Ti og spiller i 1440p. Min hardware står i sigg. Nei, ikke sett den videoen enda, men skal det. De gangene det er flere CPU'er med i tester av skjermkort er for å teste CPU skalering med akkurat det kortet de tester. Ellers har alle testere en standarisert testbenk de bruker mellom alle skjermkort tester, og det for en grunn. Guru3D f.eks bruker en 5960X @ 4.4 Ghz nettopp for å utelukke CPU som flaskehals. Når jeg spiller mine spill i 1440p så ønsker jeg at CPU ikke begrenser ytelsen for skjermkortet, slik at de fps jeg får er det skjermkortet klarer i en gitt situasjon. Så når jeg snart får meg et GTX 1080Ti kort, så vet jeg at fps øker som følge av raskere GPU (logisk). Ved neste skjermkort kjøp, så kan det hende at min 5960X @ 4.2 Ghz begynner å bli en flaskehals, selv ved 1440p. Den videoen er faktisk verdt å se i sin fulle lengde Lenke til kommentar
Nizzen Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Jeg syns han gjør et godt poeng ut av å si at 1080p-tester er helt idiotiske når de tester med GTX 1080 Ti og Titan XP. Hvor mange slike brukere gamer i 1080p? Han legger fram et godt argument i å si at disse sidene gjør det fordi å vise real-world benchmarks, dvs. benchmarks med innstillinger som vi faktisk spiller i med det utstyret vi har, så er forskjellen mellom den ene og andre prosessoren veldig liten. Og disse sidene lever av å lage tester, og da tester som er relevante. Om alle prosessorene er helt like i deres benchmarks, blir jo det ikke interessant. Nå er det mange som bruker slike kort på 1080p oppløsning å jeg kommer til å gjøre det selv. Må heller ikke glemme at flere produsenter har kommet med 240Hz og flere har slike på vei. Da trenger du en kraftig CPU/GPU kombo Til ettertanke: GTX680: "It's overkill for 1080p" GTX780: "It's overkill for 1080p" GTX780 Ti: "It's overkill for 1080p" GTX980: "It's overkill for 1080p" GTX980 Ti: "It's overkill for 1080p" GTX 1080:"It's overkill for 1080p" GTX 1080Ti: "It's......" and so on. Lenke til kommentar
Betroz Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Betroz, kan du kjøre en runde med CB R15 på din 5960X ved 4200? Takk! :-) Here you go Kunne sikkert tweaket RAM mer menne. 1 Lenke til kommentar
mer-hw Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 (endret) Ashes of Singularity har nå blitt optimalisert for ryzen. Det ga en ytelse øking i 1080p på 26,9%, 1440p på 31,2% og 4K på 22,7%. Mer her: http://www.legitreviews.com/amd-ryzen-performance-update-released-ashes-singularity_193137 Tom's Hardware har også testet men de kom frem til kun 16% økning i 1080p. http://www.tomshardware.com/news/amd-ryzen-game-optimization-aots-escalation,34021.html Endret 30. mars 2017 av mer-hw Lenke til kommentar
Christian Thork Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Samme som 1700 på 3850mhz/2933. Tusen takk! :-) Lenke til kommentar
Betroz Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Samme som 1700 på 3850mhz/2933. Tusen takk! :-) Ja Ryzen er bra her. Etterhvert som det kommer bedre BIOS til hovedkortet ditt, så kan du jo vurdere deg et G.Skill 3600, CL15 kitt da. Du tjener litt ytelse på rask RAM med Ryzen. 1 Lenke til kommentar
nagina Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Da kan det se ut som dette (stort bilde) Lenke til kommentar
Cowboystrekk Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Da kan det se ut som dette (stort bilde) Imponerende! Lenke til kommentar
magnusavr Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 (endret) Ashes of Singularity har nå blitt optimalisert for ryzen. Det ga en ytelse øking i 1080p på 26,9%, 1440p på 31,2% og 4K på 22,7%. Mer her: http://www.legitreviews.com/amd-ryzen-performance-update-released-ashes-singularity_193137 Tom's Hardware har også testet men de kom frem til kun 16% økning i 1080p. http://www.tomshardware.com/news/amd-ryzen-game-optimization-aots-escalation,34021.html Digital testa vel R7 1700 mens tomshardware testa 1800x. Sikkert derfor det er litt forskjeller. Her fikk de 31% ytelse økning med 1800x i 1080p med 3200MHz minne med den nye patchen: https://www.pcper.com/reviews/Processors/Ashes-Singularity-Gets-Ryzen-Performance-Update Endret 30. mars 2017 av magnusavr Lenke til kommentar
magnusavr Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Minne ytelse forskjell fra 2133 til 3200 på ryzen: https://imgur.com/a/sbwqK Lenke til kommentar
Gjest Slettet-jQUdcq Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 (endret) DigitalFoundry forklarer det kanskje bedre enn meg : https://youtu.be/TId-OrXWuOE?t=2m41s "Longevity" sier han hos Digitalfoundry ja...så du så i ikke videoen jeg la ut altså... Der poengteres det to ting. Det ene er at flere kjerner ikke tas med i ligningen, eller andre faktorer som også spiller inn. Dette vises i at 8350 har tatt igjen 2500K over årene. Det andre er at longevity eller ei, folk vil vite hvordan CPUen deres er nå. Hvorfor har du problemer med å forstå det? Longevity er også bare piss mtp. at folk kommer til å game i høyere resolution framover i tid. Jeg har et GTX 980Ti og spiller i 1440p. Min hardware står i sigg. Nei, ikke sett den videoen enda, men skal det. Siden du har 1440p kan du ikke basere deg på disse testene, da de er for 1080p. Det er 1440p som er viktig for deg. Det samme gjelder med 1080 Ti. De tester 1080 Ti i 1080p. Du bruker det derimot i 1440p. Utrolig rart at du ikke er interessert i å vite hvordan ditt system taktisk yter i den oppløsningen du spiller i. Endret 30. mars 2017 av Slettet-jQUdcq Lenke til kommentar
Malvado Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Dette viser jo faktisk at det er en god del å hente i ytelsen til Ryzen om ting optimaliseres og det stadfestes også at raskere minne er veldig kjekt å ha.Bra at både nyere Bios'er og programvareoppdateringer ser ut til å forbedre både stabilitet og ytelsen til Ryzen familien. Lenke til kommentar
Betroz Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 snipp Jeg så den videoen du la ut etter jeg posta den til Digitalfoundry. Ja, han i den videoen har noen gode poenger. Mulig jeg forklarer meg uklart Sanjuro, men det du skriver her har jeg visst om i årevis. Det jeg vil poengtere med 1080p testing, er for å isolere CPU ytelse så godt vi kan innenfor rimelighetens grenser (altså ikke teste 720p). Når jeg leser tester av 1080Ti custom kort, så ser jeg selvfølgelig på 1440p resultater siden det er mest relevant for meg. Du får det til å virke som om CPU ytelse ikke spiller noen rolle i dag siden folk kommer bare til å game i høye oppløsninger uansett, noe som ikke stemmer. Tro hva du vil Lenke til kommentar
Gjest Slettet-jQUdcq Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 (endret) Dette viser jo faktisk at det er en god del å hente i ytelsen til Ryzen om ting optimaliseres og det stadfestes også at raskere minne er veldig kjekt å ha. Bra at både nyere Bios'er og programvareoppdateringer ser ut til å forbedre både stabilitet og ytelsen til Ryzen familien. Men men men mellom 7700K og Ryzen med 2400 MHz er det 7700K som blir gimpet. Det er 7700K som blir lobotomert! Endret 30. mars 2017 av Slettet-jQUdcq Lenke til kommentar
magnusavr Skrevet 30. mars 2017 Del Skrevet 30. mars 2017 Tenker jeg tar å bestiller meg G.Skill Flare X 16GB 3200MHz for å få opp speeden på minnet. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå