Nizzen Skrevet 30. september 2018 Forfatter Del Skrevet 30. september 2018 (endret) Hvordan går det med tanke på Raytracing? Var ikke det som var greia med kortene? Greia med korta er at vi er drittlei 10 serien. Derfor trengte vi noe nytt. Takk gud for at det endelig kom noen nye skjermkort. Endret 30. september 2018 av Nizzen 4 Lenke til kommentar
funkweb Skrevet 30. september 2018 Del Skrevet 30. september 2018 Greia med korta er at vi er drittlei 10 serien. Derfor trengte vi noe nytt. Takk gud for at det endelig kom noen nye skjermkort. 2 Lenke til kommentar
Gabri3L Skrevet 30. september 2018 Del Skrevet 30. september 2018 (endret) Greia med korta er at vi er drittlei 10 serien. Derfor trengte vi noe nytt. Takk gud for at det endelig kom noen nye skjermkort. Som 2080Ti som er hele 4% raskere enn 1080Ti? Endret 30. september 2018 av Gabri3L 1 Lenke til kommentar
Mentagor Skrevet 30. september 2018 Del Skrevet 30. september 2018 (endret) Som 2080Ti som er hele 4% raskere enn 1080Ti? Stemmer ikke overens med benchmarks. Hvor har du sett dette? Endret 30. september 2018 av Mentagor Lenke til kommentar
Gabri3L Skrevet 30. september 2018 Del Skrevet 30. september 2018 Stemmer ikke overens med benchmarks. Hvor har du sett dette? Nizzen som postet denne testen. Han skulle vise hvor rævva Ryzen er til gaming i 1080p, men kom visst i fare for å vise at det samme gjelder 2080Ti. 1 Lenke til kommentar
Nizzen Skrevet 30. september 2018 Forfatter Del Skrevet 30. september 2018 Stemmer ikke overens med benchmarks. Hvor har du sett dette? Gabriel glemte å fortelle deg at det er en cputest 2080ti blir veldig cpubound/minne (hastighet) i 1080p. 3 Lenke til kommentar
Tåkefyrste Skrevet 30. september 2018 Del Skrevet 30. september 2018 Så når den skal vise ytelsen til skjermkortet så er den irrelevant, men når den skal vise hvor "dårlig" Ryzen er, så er den alt som teller? Cherrypicking på sitt beste. 5 Lenke til kommentar
Nizzen Skrevet 30. september 2018 Forfatter Del Skrevet 30. september 2018 (endret) Så når den skal vise ytelsen til skjermkortet så er den irrelevant, men når den skal vise hvor "dårlig" Ryzen er, så er den alt som teller? Cherrypicking på sitt beste. Høres ut som om du har Ryzen cpu Ingen ting galt med det, man får bare ytelsen betaler for. InteL mere Endret 30. september 2018 av Nizzen 1 Lenke til kommentar
Tåkefyrste Skrevet 30. september 2018 Del Skrevet 30. september 2018 Har i5 8400 akkurat nå om det på noe vis er relevant. Kan være allergisk mot BS selv om man ikke har Ryzen vettu. 6 Lenke til kommentar
Emile the rat Skrevet 30. september 2018 Del Skrevet 30. september 2018 (endret) Så når den skal vise ytelsen til skjermkortet så er den irrelevant, men når den skal vise hvor "dårlig" Ryzen er, så er den alt som teller? Cherrypicking på sitt beste. Flere av dagens skjermkort er så kraftige at de når taket på max fps i dagens spill på 1080p. Skal du vise hele potensialet til et skjermkort må du derfor opp på høyere oppløsning som 1440p og 4K for å vise alt kortet kan. At både 2080 og 2080ti er sterke nok til å nå fps limiten i flere spill i 1080p betyr ikke at 2080 er like kraftig. Se på 1440p så ser man at 2080ti drar fra 2080/1080ti. Det er ikke cherrypicking bare fordi DU ikke forstår hvordan ulike tester brukes for å få frem ulike aspekter. Denne testen er for å måle CPUer, skal du måle skjermkort ser du på 1440p og 4K. Endret 30. september 2018 av Emile the rat 1 Lenke til kommentar
Emile the rat Skrevet 30. september 2018 Del Skrevet 30. september 2018 Har i5 8400 akkurat nå om det på noe vis er relevant. Kan være allergisk mot BS selv om man ikke har Ryzen vettu. Forskjell på bs og det å ikke forstår hvordan en test fungerer -_- 1 Lenke til kommentar
Nizzen Skrevet 30. september 2018 Forfatter Del Skrevet 30. september 2018 (endret) Flere av dagens skjermkort er så kraftige at de når taket på max fps i dagens spill på 1080p. Skal du vise hele potensialet til et skjermkort må du derfor opp på høyere oppløsning som 1440p og 4K for å vise alt kortet kan. At både 2080 og 2080ti er sterke nok til å nå fos limiten i 1080p betyr ikke at 2080 er like kraftig. Se på 1440p så ser man at 2080ti drar fra 2080/1080ti. Det er ikke cherrypicking bare fordi DU ikke forstår hvordan ulike tester brukes for å få frem ulike aspekter. Denne testen er for å måle CPUer, skal du måle skjermkort ser du på 1440p og 4K. Han og Gabriel forstår, de bare troller. Greitt nok når vi venter på 2080(ti) korta. Det er akkurat som når man er sulten. Det er lett å bli litt "toxic" Vi er nok innerst inne glad i hverandre alle sammen Threadrippermaskinen er gjort klar for 2080ti testing den også. Optane 900p med spill sitter klar i den Endret 30. september 2018 av Nizzen 3 Lenke til kommentar
Tåkefyrste Skrevet 30. september 2018 Del Skrevet 30. september 2018 Det er ikke cherrypicking bare fordi DU ikke forstår hvordan ulike tester brukes for å få frem ulike aspekter. Denne testen er for å måle CPUer, skal du måle skjermkort ser du på 1440p og 4K. Jeg er 100% klar over hvordan ting fungerer, men takk for forsøket. Dere bruker tester der CPU er flaskehals for å vise hvor dårlig Ryzen er, men dere spiller ikke i denne oppløsningen uansett så den er totalt irrelevant. Også bruker dere høyere oppløsning for å teste skjermkort, og da blir valg av CPU gjerne mindre relevant. Prakteksempel på cherrypicking. Lenke til kommentar
Nizzen Skrevet 30. september 2018 Forfatter Del Skrevet 30. september 2018 Jeg er 100% klar over hvordan ting fungerer, men takk for forsøket. Dere bruker tester der CPU er flaskehals for å vise hvor dårlig Ryzen er, men dere spiller ikke i denne oppløsningen uansett så den er totalt irrelevant. Også bruker dere høyere oppløsning for å teste skjermkort, og da blir valg av CPU gjerne mindre relevant. Prakteksempel på cherrypicking. Synn at for Ryzen med 2080ti, at 1440p er den nye 1080p Hvorfor griner du over at Ryzen blir fremstilt slik cpuen er? Den er ikkje bedre enn den yter. 1 Lenke til kommentar
Lakus Skrevet 30. september 2018 Del Skrevet 30. september 2018 Gjeeeeeeeeeeesp. Få tilbake snakken om pris a. Det var bedre. 2 Lenke til kommentar
MrHorgen Skrevet 30. september 2018 Del Skrevet 30. september 2018 Synn at for Ryzen med 2080ti, at 1440p er den nye 1080p Hvorfor griner du over at Ryzen blir fremstilt slik cpuen er? Den er ikkje bedre enn den yter. Man kan kanskje ta med at man må over 60fps som for mange er en barriere de kanskje ikke er helt klar over. Lenke til kommentar
Gjest Slettet+6132 Skrevet 30. september 2018 Del Skrevet 30. september 2018 Hehe... knaske-knaske (potetgull).Elsker slike krangletråder. Lenke til kommentar
Gabri3L Skrevet 30. september 2018 Del Skrevet 30. september 2018 Synn at for Ryzen med 2080ti, at 1440p er den nye 1080p Hvorfor griner du over at Ryzen blir fremstilt slik cpuen er? Den er ikkje bedre enn den yter. Ja, jeg bare ertet litt, 2080Ti skal jo selvsagt ikke brukes i 1080p... Vel du vet... Utenom til RT. Men jeg tror du skulle ha lest testen du linket til, og ikke bare kikket på de pene grafene. I begynnelsen av testen skriver de nemlig formålet med testen; De har testet 2080/Ti med overklokket 8700K tidligere, så hva om de lot være å overklokke den? Lets find out! Til sammenlikning har de så puttet inn et par andre CPU'er, også fullstendig u-optimalisert. Jeg har sett testen poppe opp på andre forum tidligere, og visstnok kan man enten finne ut fra test konfigurasjons informasjonen at de kjørt Ryzen CPU'ene ikke bare på 2933MHz RAM, men også med CL19 (de skriver at de ikke har rørt timings, og det er visst et 4266MHz kit), eller så har artikkelforfatteren bekreftet det på Twitter. Jeg husker ikke i farta. Det holder uansett å se på grafene, og sammenlikne med andre tester av 2700X, så ser man at det ikke nødvendigvis er så ille i virkeligheten, som i denne "testen". Ser vi på GTA5 for eksempel hos Computerbase, så klarer 8700K stock 12% høyere fps enn 2700X med 1080Ti. Her er en litt eldre test av memory timings på 2700X som Cowboystrekk nettopp postet i Ryzen tråden. Der har testeren ikke testet med CL 19 på 2933MHz, men med CL14 på alle frekvenser fra 2133MHz opp til 3333MHz. I GTA5 fikk man da 12% høyere fps ved å gå fra 2933MHz til 3333MHz, og igjen; det var med 2933MHz på CL14. Forestill deg forskjellen om det hadde vært 2933MHz@CL19 vs 3333MHz@CL14. I Rise of the Tomb Raider er forskjellen hele 24,5%... Men som sagt; Computerbase testet ikke CPU'er, de testet hvor ille det kunne blitt, dersom man ikke optimaliserte CPU'en man tenker å bruke... 2 Lenke til kommentar
Gjest Slettet+6132 Skrevet 30. september 2018 Del Skrevet 30. september 2018 (endret) Kom med noen tester her da (Ojjj!! Nesten ingen som har bestilt har fått!)Kan vi ikke være enige om at denne tråden er for de som skal det beste uansett pris.Og at det skal klokkes og moddes (øøøhhh.... er det virkelig noen *hw-moddere* her i tråden, nå som Nvida har sperret det meste alt i hw/bios?).Alle argumenter som f.eks. at man kjøper noe nå.. og ikke tenker på om det blir bra i framtiden.. gjelder ikke.(Se over.. om "Jeg skal ha det beste!!! Betaler hva det skal være!!).Hvorfor "noen" alltid skal dra inn Ryzen i enhver tråd er litt spesielt.. Ref over.. Endret 30. september 2018 av Slettet+6132 Lenke til kommentar
Gabri3L Skrevet 30. september 2018 Del Skrevet 30. september 2018 Hvorfor "noen" alltid skal dra inn Ryzen i enhver tråd er litt spesielt.. Ref over.. Jeg håper du mente Nizzen nå? Det var jo faktisk han som halte de inn denne gangen.. 3 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå