Gabri3L Skrevet 25. april 2019 Del Skrevet 25. april 2019 (endret) Rykte om Intel CPU'er 2019: https://wccftech.com/intel-desktop-mobile-cpu-roadmap-leak-14nm-comet-lake-10nm-ice-lake-tiger-lake/ https://www.tomshardware.com/news/intel-roadmap-10nm-14nm-gpu-cpu,39163.html Dette kan være dårlige nyheter for 16 kjerner på AM4 i sommer. Ikke umulig at AMD heller maksimerer margin på 12c, og sparer 16c til Intel prøver seg frempå med 10c 2Q20... Håper jeg tar feil selvsagt. Jeg har trodd Intels 10c var nærmere, og kanskje de kan rushe den ved behov? Men så er det det da. Hva skal være incentivet for Intel til å rushe ut en CPU som kommer til å få dask? Ja ja, slik går det når Intel ikke vil konkurrere. Endret 25. april 2019 av Gabri3L 1 Lenke til kommentar
Betroz Skrevet 25. april 2019 Del Skrevet 25. april 2019 Ok, flått. men var ikke det du skrev i forrige post: Synes du 25% er lite eller mye i F@H? post nr 6959 Slik jeg tolket det Nizzen skrev, var at for ham betyr 25% mer ytelse i spill mye, og derfor velger han Intel over AMD CPU. Hvis valget var mellom Intel og AMD til F@H der forskjellen også var 25%, så ville nok du Kjetil også valgt løsningen som var raskest. Ergo Intel er raskere i spill og ikke bare i test programmer, som du antar. Dette er der skjermkortet ikke er flaskehalsen så klart. 1 Lenke til kommentar
Nizzen Skrevet 25. april 2019 Del Skrevet 25. april 2019 (endret) Men som vi så så bruker Radeon VII mindre strøm i Crysis 3 enn 2080Ti. Og samtidig vet vi at Radeon VII rett ut grisebanker 2080Ti i Dirt 4. Jeg kunne gjort et poeng av det, men i stedet sier jeg som sant er at det varierer fra spill til spill (noe svært få ser ut til å ha fått med seg). Og at man derfor ikke kan si noe om strømforbruk i gjennomsnitt, uten å teste og måle i alle spillene i gjennomsnittet. Åpenbart er jeg altså ikke enig med deg... Gjennomsnitt av 21 spill: " Power efficiency still far worse than NVIDIA's" Jeg vet at du ikkje er enig med meg, fordi det strider mot din "natur". Jeg poster disse bildene, så kan du bare ha feil... Endret 25. april 2019 av Nizzen 1 Lenke til kommentar
Betroz Skrevet 25. april 2019 Del Skrevet 25. april 2019 (endret) Gjennomsnitt av 21 spill: Ikke særlig oppløftende at 2080Ti gir bare 14% mer ytelse per watt over 1080Ti ved 1440p, og i tillegg må vi betale den stive prisen. Faktisk ên av grunnene til at jeg la gaming interessen på hylla (for nå). Endret 25. april 2019 av Betroz 1 Lenke til kommentar
Gabri3L Skrevet 25. april 2019 Del Skrevet 25. april 2019 Gjennomsnitt av 21 spill: power.PNG performance watt.PNG " Power efficiency still far worse than NVIDIA's" Jeg vet at du ikkje er enig med meg, fordi det strider mot din "natur". Jeg poster disse bildene, så kan du bare ha feil... Som jeg sa, så er det ingen i tech pressen som gidder å måle korrekt lenger. Det gjelder selvsagt TPU også, skjønt de har vel aldri målt korrekt så vidt jeg vet. Det du viser her er ikke et gjennomsnittlig forbruk målt i 21 spill, og så delt på 21. Det er en måling tatt fra spillet Metro: Last Light. Det kan du se selv dersom du kikker på toppen av siden der det står "Power consumption testing details": Average (Gaming): Metro: Last Light at 1920x1080 because it is representative of a typical gaming power draw. We report the average of all readings (12 per second) while the benchmark is rendering (no title/loading screen). In order to heat up the card, the benchmark is run once first without measuring its power consumption. Deretter tar de altså den verdien, fra ett spill, og fordeler på alle spillene, uavhengig av ytelsen i hvert av spillene... Jeg vet ikke om du skjønner betydningen for beregningen som følge av dette? Jepp, den er verdiløs. En "morsom" ting her, og på dette punktet er ikke Steven Walton heller noe "bedre". Er at spillet de bruker til å måle strømforbruket i, ikke en gang er med i test suiten deres lenger! Vi vet altså ikke en gang hvordan Radeon VII yter i M:LL vs RTX2080/Ti. Alt vi vet er at det bruker nesten 25% mer strøm enn 2080 i det spillet... Men for alt vi vet, så kan det jo også være 25% raskere enn 2080 i dette spillet, og dermed gi nøyaktig lik ytelse per Watt... Vi vet heller ikke om RTX2080Ti var CPU begrenset i denne tittelen, jeg mener, 1080p, i et så gammelt spill, med et 2080Ti? Jeg har mine tvil. Det kan altså godt være strømforbruket for 2080Ti ville vært høyere om de hadde testet i en høyere oppløsning. Men som sagt; de gidder ikke. Grunnen er vel at "ingen" bryr seg, og de har alle disse datapunktene fra eldre skjermkort som de ikke gidder gjøre om igjen i nyere spill, og innstillinger som gir litt mer mening... Vi har også et litt annet problem, som går på hvordan man egentlig korrekt måler ytelse per Watt? For hva er det vi er interessert i når vi spiller? Altså, vi vil jo ha en så god spillopplevelse som mulig, så da må vi jo ha masse fps ikke sant? Men hvilken fps skal vi ta utgangspunkt i da? Altså, det hjelper jo ikke å ha 400 fps average, om vi bare klarer 50 fps i gjennomsnitt på de 1% tregeste fps'ene. Og de fleste vet at det er de laveste fps tallene man får fra en benchmark som potensielt er de viktigste. Det er jo de tallene som forteller om man får en spillbar opplevelse eller ikke. Hva vil du heller spille på? 200 fps average med 1% low på 40 fps, eller 150 fps average med 1% low på 60 fps? Jeg ville valgt det siste 24/7... I Dirt 4 er altså Radeon VII's 1% low fps ~41% høyere enn RTX2080 sin. Man skulle kanskje tro det var greit å bruke 25% mer strøm på å gi 41% mer ytelse? Noen ville kanskje til og med påstått at Radeon VII sånn sett er mer effektiv enn RTX2080 i denne tittelen... Men så var det det da, det er jo ikke slik de beregner strømforbruket. Det deles i stedet på antall produserte fps, og de driter i hvordan de produseres... Som igjen gjør verdien om mulig enda mer verdiløs... Men uansett, så får dette være nok OT om grafikk kort fra meg i denne tråden. 3 Lenke til kommentar
G Skrevet 25. april 2019 Del Skrevet 25. april 2019 Du virker jo over snittet interessert i dette. Kan ikke du lage en test for oss? Lenke til kommentar
Nizzen Skrevet 25. april 2019 Del Skrevet 25. april 2019 Du virker jo over snittet interessert i dette. Kan ikke du lage en test for oss? Han har aldri kommet med noe egenprodusert, og kommer aldri til å komme med det heller. Han gidder ikkje Lenke til kommentar
Gabri3L Skrevet 25. april 2019 Del Skrevet 25. april 2019 Du virker jo over snittet interessert i dette. Kan ikke du lage en test for oss? For ikke så lenge siden delte jeg her på forumet litt av mine erfaringer med overklokking av 3 forskjellige RTX2070 kort, så som vanlig tar Nizzen feil. Men for en gangs skyld skal han få litt rett også; dette er ikke noe jeg ser noen vits i å teste. Og selv om jeg hadde sett vitsen, så på grunn av folk som Nizzen, er det slett ikke sikkert jeg ville tatt meg bryet med å dele her lenger... 4 Lenke til kommentar
N o r e n g Skrevet 25. april 2019 Del Skrevet 25. april 2019 Både AMDs og Nvidias boost prøver å maksimere ytelsen innenfor en gitt effekt og temperatur. Med mindre Metro Last Light er flaskehalser av CPU vil alle kortene ligge på sin effektgrense og man vil få en brukbar verdi for å sammenligne effekt mellom kort. Guru3D har en mindre presis metode, men selv det burde ikke bomme med stort mer enn 5% Konklusjon: AMD bruker betraktelig mer effekt for tilsvarende spillytelse enn NVIDIA, selv med en betraktelig bedre prosess. 2 Lenke til kommentar
Malvado Skrevet 25. april 2019 Del Skrevet 25. april 2019 Både AMDs og Nvidias boost prøver å maksimere ytelsen innenfor en gitt effekt og temperatur. Med mindre Metro Last Light er flaskehalser av CPU vil alle kortene ligge på sin effektgrense og man vil få en brukbar verdi for å sammenligne effekt mellom kort. Guru3D har en mindre presis metode, men selv det burde ikke bomme med stort mer enn 5% Konklusjon: AMD bruker betraktelig mer effekt for tilsvarende spillytelse enn NVIDIA, selv med en betraktelig bedre prosess. Tja, kanskje gjennomsnittlig, men har hatt en aha opplevelse med et Rx 580 og chill I noen spill der ytelsen er så og si den samme , men temperatur og viften er målbart lavere. Lenke til kommentar
Nizzen Skrevet 25. april 2019 Del Skrevet 25. april 2019 Tja, kanskje gjennomsnittlig, men har hatt en aha opplevelse med et Rx 580 og chill I noen spill der ytelsen er så og si den samme , men temperatur og viften er målbart lavere. Spill med vsync og 60 hz, så har man enda kaldere skjermkort Eller hva med å få gpuload ned på 30% Lenke til kommentar
Nizzen Skrevet 25. april 2019 Del Skrevet 25. april 2019 Både AMDs og Nvidias boost prøver å maksimere ytelsen innenfor en gitt effekt og temperatur. Med mindre Metro Last Light er flaskehalser av CPU vil alle kortene ligge på sin effektgrense og man vil få en brukbar verdi for å sammenligne effekt mellom kort. Guru3D har en mindre presis metode, men selv det burde ikke bomme med stort mer enn 5% Konklusjon: AMD bruker betraktelig mer effekt for tilsvarende spillytelse enn NVIDIA, selv med en betraktelig bedre prosess. Dette vet Gabri3L også godt, men han er jo på sin vante trollerunde... 1 Lenke til kommentar
N o r e n g Skrevet 25. april 2019 Del Skrevet 25. april 2019 Tja, kanskje gjennomsnittlig, men har hatt en aha opplevelse med et Rx 580 og chill I noen spill der ytelsen er så og si den samme , men temperatur og viften er målbart lavere. Chill introduserer en flaskehals, i form av et begrenset antall bilder per sekund. AMD justerer deretter spenning og klokkefrekvens slik at kortet bruker mindre effekt. Du kan få en tilsvarende effekt med Nvidia-skjermkort om du justerer power target til -30% Lenke til kommentar
koford Skrevet 25. april 2019 Del Skrevet 25. april 2019 (endret) Nei jeg vet ikke jeg, jeg har alltid tenkt at AMD burde legge GPU på hylla og heller overføre pengene til CPU bingen, for så deretter ta griseballe på Intel. Det er ikke slik at hvis AMD ligger en liten hestehode bak Intel/Nvidia etter ytelsetester så vil vi ikke kjøpe det? selvfølgelig ikke !!!! Endret 25. april 2019 av koford Lenke til kommentar
Cowboystrekk Skrevet 25. april 2019 Del Skrevet 25. april 2019 Både AMDs og Nvidias boost prøver å maksimere ytelsen innenfor en gitt effekt og temperatur. Med mindre Metro Last Light er flaskehalser av CPU vil alle kortene ligge på sin effektgrense og man vil få en brukbar verdi for å sammenligne effekt mellom kort. Guru3D har en mindre presis metode, men selv det burde ikke bomme med stort mer enn 5% Konklusjon: AMD bruker betraktelig mer effekt for tilsvarende spillytelse enn NVIDIA, selv med en betraktelig bedre prosess. Om man justerer klokkefrekvens\volt til optimalt punkt er faktisk faktisk RX 470\480\570\580 ganske like 1060 3gb\6gb (når de og er justert) når man ser på ytelse pr watt. Problemet er at AMD har gitt alt for å matche ytelsa til Nvidia og da har kjørt opp volt noe sinnsykt for å få litt høyere klokkehastighet og marginalt høyere ytelse. Har testa endel og optimal ytelse pr watt for f.eks RX 480 og 580 er når klokkefrekvensen er rundt 1200MHz og volt rundt 850-900mv, for 470 og 570 omtrent det samme, men på litt lavere klokkefrekvens. Ytelsa er ca ca 95% av stock 480 og litt over 90% av stock RX 580, men strømforbruket er redusert med ca 50% for 580 og til ca 35% med 480. Tilsvarende undervolting\evt powerlimit på pascal gir og forbedringer, men ikke i nærheten av det jeg har greid med AMD sine kort. Nvidia er mye mer fornuftige når det gjelder å tilpasse ytelsa med tanke på strømforbruk selv om det finnes noen tredjepartskort som ikke akkurat skinner med ekstrem overklokk og overvolting. Nvidia bruker mye smartere justering av klokkefrekvens vs volt enn AMD som i praktisk bare har 7 states mens Nvidia har minst 30-40. 1 Lenke til kommentar
G Skrevet 25. april 2019 Del Skrevet 25. april 2019 Nei jeg vet ikke jeg, jeg har alltid tenkt at AMD burde legge GPU på hylla og heller overføre pengene til CPU bingen, for så deretter ta griseballe på Intel. Det er ikke slik at hvis AMD ligger en liten hestehode bak Intel/Nvidia etter ytelsetester så vil vi ikke kjøpe det? selvfølgelig ikke !!!! Jeg er uenig, dersom AMD behøver de samme grafikkmusklene internt i CPU, da bør absolutt ikke grafikkavdelingen nedlegges. Snakk om å få AMD til å skyte seg selv i begge føtter og i hode etterpå. Lenke til kommentar
TheKims Skrevet 25. april 2019 Del Skrevet 25. april 2019 Nei jeg vet ikke jeg, jeg har alltid tenkt at AMD burde legge GPU på hylla og heller overføre pengene til CPU bingen, for så deretter ta griseballe på Intel. Det er ikke slik at hvis AMD ligger en liten hestehode bak Intel/Nvidia etter ytelsetester så vil vi ikke kjøpe det? selvfølgelig ikke !!!! Hadde det skjedd at AMD la ned GPU avdelingen så hadde prisene vært enda høyere enn det vi ser i dag fra Nvidia leiren. AMD har nok råd til å holde på med både CPU og GPU utvikling. 2 Lenke til kommentar
koford Skrevet 25. april 2019 Del Skrevet 25. april 2019 Hadde det skjedd at AMD la ned GPU avdelingen så hadde prisene vært enda høyere enn det vi ser i dag fra Nvidia leiren. AMD har nok råd til å holde på med både CPU og GPU utvikling. Klart jeg håper AMD fortsetter :-) Lenke til kommentar
N o r e n g Skrevet 25. april 2019 Del Skrevet 25. april 2019 Om man justerer klokkefrekvens\volt til optimalt punkt er faktisk faktisk RX 470\480\570\580 ganske like 1060 3gb\6gb (når de og er justert) når man ser på ytelse pr watt. Problemet er at AMD har gitt alt for å matche ytelsa til Nvidia og da har kjørt opp volt noe sinnsykt for å få litt høyere klokkehastighet og marginalt høyere ytelse. Har testa endel og optimal ytelse pr watt for f.eks RX 480 og 580 er når klokkefrekvensen er rundt 1200MHz og volt rundt 850-900mv, for 470 og 570 omtrent det samme, men på litt lavere klokkefrekvens. Ytelsa er ca ca 95% av stock 480 og litt over 90% av stock RX 580, men strømforbruket er redusert med ca 50% for 580 og til ca 35% med 480. Tilsvarende undervolting\evt powerlimit på pascal gir og forbedringer, men ikke i nærheten av det jeg har greid med AMD sine kort. Nvidia er mye mer fornuftige når det gjelder å tilpasse ytelsa med tanke på strømforbruk selv om det finnes noen tredjepartskort som ikke akkurat skinner med ekstrem overklokk og overvolting. Nvidia bruker mye smartere justering av klokkefrekvens vs volt enn AMD som i praktisk bare har 7 states mens Nvidia har minst 30-40.Du kan påstå dette, men les denne artikkelen:https://www.tomshardware.com/reviews/nvidia-geforce-gtx-1060-pascal,4679-7.html Som du fort ser kan man klokke med et 1060 til å dra 60W med 85% av normal ytelse. Får du virkelig et 580 til å komme i nærheten blir jeg sterkt overrasket Lenke til kommentar
koford Skrevet 25. april 2019 Del Skrevet 25. april 2019 Skjønner ikke hvorfor dere klager på ytelse pr watt. Er det noe brukere opplever når de spiller? NEI, er det noe brukerne måler? NEI. Gir det magisk høy strømregning? Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå