Kyrre S. Skrevet 20. mars 2019 Del Skrevet 20. mars 2019 Ja .. Lurer på hvor lenge vi sitter å tukler med disse overprisede kassene våre, som må oppgraderes annen hvert år. Tipper guttungene mine vil se teit på meg når jeg sier at jeg monterte sammen en PC selv for å game på. "Men pappa, hvorfor kobla du ikke bare TV'n mot internett og streama spillet fra en server?" 1 Lenke til kommentar
Gabri3L Skrevet 20. mars 2019 Del Skrevet 20. mars 2019 (endret) Digital Foundry testet, og målte total inputlag til å ligge rundt samme tid som på en vanlig Xbox One X (~166ms)! Det er slett ikke galt, selv om det gir noen åpenbare begrensninger da. Og avhengig av hvordan man ser på det så er det kanskje ikke bare godt nytt. Akkurat som jeg synes det er litt trist at Netflix og konkurrentene med sin dritt streame kvalitet tar livet av fysiske medier som UHD BluRay, som tillater mye høyere bildekvalitet (Tror det var Samsung som nettopp meldte at de kom til å slutte å produsere UHD BluRay spillere?). Eller rettere sagt gjør disse formatene uforholdsmessig dyre i forhold til vanlig BluRay i sin tid var. Så kan jo slike spill streame servicer også potensielt ta livet av både dedikerte skjermkort, eller til og med hele maskiner som du er inne på. Det store volumet av skjermkort solgt, som strengt tatt helt sikkert er overkill for bruken til en haug av kjøperne, har jo til nå vært med å ta en bit av regningen for entusiaster også. Om disse brukerne nå slutter å kjøpe skjermkort/maskiner fullstendig, så kan det fort bli dyrere for oss som setter pris på litt bilde kvalitet. Pluss de som uansett ikke egentlig kan bruke streame servicer på grunn av spillene de spiller ikke er egnet for det, slikt som "twitch" FPS'er, og andre spill som er avhengige av kortere inputlag... Men det "artige" med disse nyhetene er å se litt i kroner og øre (eller dollar og cent da) hva denne avtalen er verdt for AMD. Om Aksjene er korrekt "priset", så sier altså aksje analytikerne at denne avtalen alene var verdt rundt 2,7 Mrd dollar, og om AMD ble så mye mer verdt av denne handelen, så snakker vi altså om fortjeneste, ikke omsetning. Ved annonseringen ble det gitt litt mer tekniske spesifikasjoner. Bl.a. At serverne skal bruke Pro Vega 56, og da snakker vi nok gjerne om V340 som er dual GPU på en PCB, det vil spare plass, som er viktig i datasentre. Disse kortene ligger på ~11 000 USD per stykk! Skjønt, Google får nok en heftig rabatt, så mange som de handler, for ikke snakke om verdien for AMD i å være leverandør for både Microsoft og Google nå. Så, for å sette denne handelen litt i perspektiv; om vi la til grunn at AMD tjener 100 USD per Vega 56, noe de selvsagt ikke gjør når de nå selges rundt 350USD med 3 spill på kjøpet. Men bare for å være godt "innenfor", og de skulle tjent 2,7 Mrd. USD på forbrukere, så måtte altså AMD solgt... 27 millioner Vega 56! Men når AMD altså kan selge 1 GPU med 8GB HBM for 350 USD, men nå i stedet får kanskje 7 - 8 000 USD per 2 GPU'er og 32GB HBM, så er det plutselig ikke så veldig rart analytikerne mener AMD kommer til å tjene masse penger på denne avtalen! Det var fristende å tro at AMD også ville vært foretrukken CPU leverandør for disse serverne, men Dr. Lisa Su gikk ut på Twitter og annonserte avtalen, der hun sa at AMD var stolte over å være GPU partner... Et litt merkelig ordvalg om de også leverer CPU, så det tviler jeg på de gjør da... Så uansett, om AMD skal være med i fremtidens kamp om High end forbruker GPU'er, så må de ha penger, og nå fikk de nettopp en butt load til med akkurat det! Vi får bare håpe de fremdeles er interessert i det markedet. Ellers er fremtidens topp kort Nvidia's 2 000 USD skjermkort... Endret 20. mars 2019 av Gabri3L Lenke til kommentar
Kyrre S. Skrevet 20. mars 2019 Del Skrevet 20. mars 2019 Jeg tror interessen for å satse på high-end maskinvare til enkeltindivider er i ferd med å forsvinne. Det foregår nok heftige diskusjoner på fremtidig satningsområde, og jeg vil tippe det lener mot serverbaserte tjenester. Lenke til kommentar
Cowboystrekk Skrevet 20. mars 2019 Del Skrevet 20. mars 2019 Jeg tipper cloudgaming eller hva man skal kalle det vil bli populært blant de som spiller litt til moderat, mens det fremdeles vil være mer lønnsomt å kjøpe bra hardware og spille på eget utstyr for de som spiller mye. Input-lag og behov for svært raske linjer er og problemstillinger. Om cloud-gaming innebærer at man må betale en god del mer i året for å få ei bedre internettlinje pluss betale høye abonnementspriser for tjenesten vil nok det å kjøpe utstyr selv fremdeles være den beste dealen. Lenke til kommentar
Gabri3L Skrevet 20. mars 2019 Del Skrevet 20. mars 2019 (endret) Jeg tror interessen for å satse på high-end maskinvare til enkeltindivider er i ferd med å forsvinne. Det foregår nok heftige diskusjoner på fremtidig satningsområde, og jeg vil tippe det lener mot serverbaserte tjenester. Enkelte vil kanskje huske hvordan AMD skrev på roadmap angående fremtidige "Navi", et par stikkord som; "Scalability", og "Next Gen Memory"? I det lengste var det de av oss som trodde at "Scalability" betydde at Navi skjermkortene ville bli skalerbare ved at man "bygde" flere modeller vha. GPU "chiplets". På samme måte som Zen chiplet'ene brukes til å "bygge" flere modeller av Ryzen, Threadripper, og Epyc... Men dette ble til slutt dementert av AMD selv. Så hva betyr "Scalability" da? Nye rykter har hevdet at Navi arkitekturen rett og slett bare er til PS5 i første omgang. Og da ved forlengelse åpenbart også til neste Xbox. Men hva er det eventuelt som er så skalerbart med det? Det forklarer ihvertfall ingenting. Om ikke nettopp at de eventuelt på sikt planlegger å bruke Navi baserte GPU'er i datasentre for game streaming? Hva vil vel være bedre til å streame Playstation og Xbox spill, enn GPU'er som faktisk er basert på samme arkitektur som GPU'en i konsollene de skal streame spillene for? Det blir ihvertfall ikke mer kompatibelt, og potensielt optimalisert enn det. Og om vi snakker om et datasenter som begynner med f.eks. 100 000 Navi GPU'er. Som så etter hvert som flere kunder strømmer til, vokser til 200 000 GPU'er, og senere kanskje 500 000 GPU'er... Kan vi kalle det for skalering kanskje? Det spennende med dette, er at dette i så fall kan være et GPU design som for en gangs skyld ikke er designet for proffbruk først, og gaming som en bi-effekt etter. Eller ihvertfall vesentlig flyttet mot spilling først og fremst. Folk er kanskje ikke klar over det, men til og med bittelille RX550 har flere Radeon Pro "brødre" som fikk alle de beste GPU'ene fra samlebåndet. Og at i enkelte av arbeids oppgavene til proffkortet som tilsvarer RX550, så vil den til og med slå en GTX1070. Det er masse "søppel" inni alle dagens "spill" GPU'er som ikke har en dritt med spilling å gjøre. Men som er der på grunn av arbeids typene GPU'en først og fremst ble designet for, og som åpenbart ikke er "søppel" når de blir brukt til sin hovedoppgave. Når vi nå ser Google inngår en avtale som i første omgang er verdt 2,7 Mrd. for AMD... For skjermkort til å spille på... Og om vi forestiller oss at Sony og Microsoft ønsker å bli minst like store. Vel, plutselig ble all "søpla" i proff kortene fullstendig ubrukelig til det skjermkortene kommer til å bli brukt til, plutselig tar faktisk all den "søpla" opp verdifull plass i chip'en, som kunne blitt bedre brukt til spill orienterte komponenter., eller bare krymping av die size. Om Navi er først og fremst designet for spilling... Og de har byttet ut mesteparten av "søpla" med spill komponenter... Sweet Jesus for et potensial de kan ha! Endret 20. mars 2019 av Gabri3L Lenke til kommentar
ExcaliBuR Skrevet 21. mars 2019 Forfatter Del Skrevet 21. mars 2019 19.3.3 Optional er ute, se førstepost! 1 Lenke til kommentar
ExcaliBuR Skrevet 1. april 2019 Forfatter Del Skrevet 1. april 2019 19.4.1 Optional ble gitt ut på selveste 1. april. Installer på eget ansvar! Se førstepost. Lenke til kommentar
ExcaliBuR Skrevet 15. april 2019 Forfatter Del Skrevet 15. april 2019 19.4.2 Optional er ute, se førstepost. Lenke til kommentar
Gabri3L Skrevet 25. april 2019 Del Skrevet 25. april 2019 Sånn, så er vi ihvertfall i en GPU tråd. Jeg svarte Nizzen på en post der han mente det var dårlig av AMD å ikke klare bedre på 7nm enn Nvidia klarer på 12nm. Mens jeg svarte på den posten så endret han posten sin til å handle om strøm effektivitet. Det hadde imidlertid ingen påvirkning på mitt argument, så jeg brydde meg ikke med det. Argumentet er ganske enkelt at Radeon VII er et nedkuttet MI50 som aldri var tiltenkt gaming oppgaver. Da går det ikke an å argumentere med at AMDs 7nm gaming skjermkort ikke kan konkurrere mot Nvidias 12nm gaming skjermkort, ganske enkelt fordi AMD ikke har noe 7nm gaming skjermkort. De har et 7nm proff kort, som man kan game på, som de selger drit billig i forhold til hvor kraftig det er. Med det er ikke, har aldri vært, og kommer aldri til å bli et "gaming" skjermkort. Men det hindrer ikke R7 i likevel å skinne i enkelte spill titler. I dette tilfellet tok jeg frem Dirt 4, der det matcher selv 2080Ti på average, og slår det på 1% low. Gitt at R7 og 2080Ti trekker like mye strøm i denne tittelen har vi da et spill der man kan hevde at R7 til og med trekker det lengste strået i å være strøm effektivt. Jeg påpekte altså feilen med TPU's måte å regne ut effektiviteten på, og man skjønner jo fort at det kan bli veldig galt, ellers skulle man ikke hatt noe imot at man brukte verdiene fra Dirt 4 i stedet. Som riktignok vil gi RTX2080 en liten fordel over R7 fremdeles. Men uten at det har noe å si for mitt argument om at måten TPU vurderer strøm effektiviteten på er fullstendig feil. Både AMDs og Nvidias boost prøver å maksimere ytelsen innenfor en gitt effekt og temperatur.Med mindre Metro Last Light er flaskehalser av CPU vil alle kortene ligge på sin effektgrense og man vil få en brukbar verdi for å sammenligne effekt mellom kort.Guru3D har en mindre presis metode, men selv det burde ikke bomme med stort mer enn 5%Konklusjon: AMD bruker betraktelig mer effekt for tilsvarende spillytelse enn NVIDIA, selv med en betraktelig bedre prosess. Dette er teorien, praksisen er ikke helt enig med deg. Men jeg må hoppe litt tilbake i tid siden det er det eneste jeg har eksempel på. Som du sikkert "vet" så var GTX970 et vesentlig mer strømgjerrig skjermkort enn R9 390 som det endte opp med å kjempe mot ytelses messig. TPU, og de fleste andre tech sider fant at strømforbruket lå sånn cirka heromkring. Med R9 390 altså trekkende nesten 70W mer. ~15 - 20 av de Watt'ene kan vi kanskje tillegge de 4GB ekstra VRAM på 390? Litt urettferdig å klandre 390'en for strøm som den ikke selv bruker? Men uansett, hva om dette er en tittel der AMD kortene av en eller annen merkelig grunn trekker mye strøm, men likevel yter dårlig? Vil ikke R9 390 kortet da potensielt bli urettferdig straffet i alle andre titler når TPU ikke tester strømforbruket i mer enn en tittel? Vel, det er hva jeg tror har skjedd, for når Steven Walton tok et tilbakeblikk på GTX970 vs R9 390 ~2 år senere, så trakk plutselig ikke R9 390 mer enn 37W mer! Og igjen, husk på at 390 har 4GB VRAM ekstra som også står for en del av de 37W'ene. Men, ikke bare trakk kortet nå kun 37W mer, det var også nesten 7% raskere. Mot TPU's 3% seier til GTX970. Nå, Steven har ingen måte å måle kun skjermkort forbruket på. Men om vi går ut fra at GTX970'en hans trekker 163W slik som TPU's, så skulle det bety at 390'en trakk ~200W. Altså 22,7% mer enn GTX970. TPU derimot har R9 390 på 231W, altså nesten 42% mer strøm enn GTX970 i deres test. Vi snakker altså om en forskjell på nesten 20%, ikke 5% som du mener er maks feilmargin. Så, hvem har målt feil? Eller hvem har gjort det riktigst? Jeg tviler nemlig ikke på at TPU's tall er korrekt. Det er helt sikkert helt korrekt for akkurat det spillet. Men hva om man spiller noe annet da? Slik som Steven Walton gjorde? Nå finner jeg det ikke i farten, men jeg mener han faktisk benyttet et gjennomsnitt fra 4 forskjellige spill. Mulig han sier noe om det i videoen, om han lagde det for HWUB, eller om han presiserte det i en av kommentarene. Men om han gjorde samme feil som TPU (jeg vet han gjør det i dag), og målte i bare ett spill. Vil ikke det være vel så riktig/feil som TPU? Uansett; feilmarginen din var... Feil. 1 Lenke til kommentar
Cowboystrekk Skrevet 25. april 2019 Del Skrevet 25. april 2019 Gabri3l: Ekstra minne på skjermkort medfører omtrent nada på ekstra strømforbruk. Se forskjellen på RX 580 og 1060, da er i tillegg minnehastighet på 580 lavere på 4gb og deler av chippen deaktivert på 1060 3gb, allikevel er strømforbruket svært likt. Litt av problemet til AMD ligger i at de reklamerer for spillytelse på nivå med 2080 og stort sett ikke leverer. 1 Lenke til kommentar
Gabri3L Skrevet 25. april 2019 Del Skrevet 25. april 2019 Nå halte jeg ikke akkurat 15 - 20W ut av ræva heller, det var et tall som ble brukt av en eller annen publikasjon den gang dette ble diskutert, altså for 4 år siden (og 4 år siden er mer enn nok til å være sterkt medvirkende til at jeg ikke husker hvor jeg har tallet fra). At strømforbruket er ganske likt på 1060 3GB har igjen nok heller med et totalt power "budget" å gjøre. Altså, om kortet får lov til å bruke 130W, så gjør det det, om det blir i form av økt boost frekvens på GPU, eller om det går til 1060 6GB's 3 ekstra GB med VRAM er ikke noe vi ser mye til, men det er det som skjer. Det vil ellers riktignok være vanskelig å måle, da silisiums kvaliteten vil variere, slik at en chip bruker mer strøm på å klare samme frekvenser som en annen. Ellers viser Dirt 4 at AMD leverer i bøtter og spann. Flere Vulkan og DX12 titler viser det samme. Problemet er at veldig mange utviklere bruker Unreal engine, at Sweeney er en Nvidia fanboy, og at folk ikke vet at det er det som er problemet... Lenke til kommentar
RRhoads Skrevet 25. april 2019 Del Skrevet 25. april 2019 Jeg svarte Nizzen på en post der han mente det var dårlig av AMD å ikke klare bedre på 7nm enn Nvidia klarer på 12nm. Mens jeg svarte på den posten så endret han posten sin til å handle om strøm effektivitet. Det hadde imidlertid ingen påvirkning på mitt argument, så jeg brydde meg ikke med det. Argumentet er ganske enkelt at Radeon VII er et nedkuttet MI50 som aldri var tiltenkt gaming oppgaver. Da går det ikke an å argumentere med at AMDs 7nm gaming skjermkort ikke kan konkurrere mot Nvidias 12nm gaming skjermkort, ganske enkelt fordi AMD ikke har noe 7nm gaming skjermkort. De har et 7nm proff kort, som man kan game på, som de selger drit billig i forhold til hvor kraftig det er. Med det er ikke, har aldri vært, og kommer aldri til å bli et "gaming" skjermkort. AMD kaller det et gaming-skjermkort. https://www.amd.com/en/products/graphics/amd-radeon-vii 5 Lenke til kommentar
nagina Skrevet 25. april 2019 Del Skrevet 25. april 2019 Bummer, hvordan skal man ro den der til lands vet egentlig svaret, den er vel rundt hjørnet, se; wall of text 3 Lenke til kommentar
Malvado Skrevet 25. april 2019 Del Skrevet 25. april 2019 Ikke akkurat vanskelig om man leser teksten til AMD : " Extraordinary Creation. Extreme Gaming. Lenke til kommentar
TheKims Skrevet 26. april 2019 Del Skrevet 26. april 2019 (endret) Ser ut som ytelsen til Radeon 7 har kommet seg litt siden launch. Skip til 9:55 for benchmark https://www.youtube.com/watch?v=5eMl4j_lkTg For de som ser hele videoen så er ikke strømforbruket så ille på R7 som mange skal ha det til. 10-15 watt forskjell mellom R7 og 2080. Endret 26. april 2019 av TheKims 2 Lenke til kommentar
N o r e n g Skrevet 26. april 2019 Del Skrevet 26. april 2019 Dette er teorien, praksisen er ikke helt enig med deg. Men jeg må hoppe litt tilbake i tid siden det er det eneste jeg har eksempel på. Som du sikkert "vet" så var GTX970 et vesentlig mer strømgjerrig skjermkort enn R9 390 som det endte opp med å kjempe mot ytelses messig. TPU, og de fleste andre tech sider fant at strømforbruket lå sånn cirka heromkring. Med R9 390 altså trekkende nesten 70W mer. ~15 - 20 av de Watt'ene kan vi kanskje tillegge de 4GB ekstra VRAM på 390? Litt urettferdig å klandre 390'en for strøm som den ikke selv bruker? Men uansett, hva om dette er en tittel der AMD kortene av en eller annen merkelig grunn trekker mye strøm, men likevel yter dårlig? Vil ikke R9 390 kortet da potensielt bli urettferdig straffet i alle andre titler når TPU ikke tester strømforbruket i mer enn en tittel? Vel, det er hva jeg tror har skjedd, for når Steven Walton tok et tilbakeblikk på GTX970 vs R9 390 ~2 år senere, så trakk plutselig ikke R9 390 mer enn 37W mer! Og igjen, husk på at 390 har 4GB VRAM ekstra som også står for en del av de 37W'ene. Men, ikke bare trakk kortet nå kun 37W mer, det var også nesten 7% raskere. Mot TPU's 3% seier til GTX970. Nå, Steven har ingen måte å måle kun skjermkort forbruket på. Men om vi går ut fra at GTX970'en hans trekker 163W slik som TPU's, så skulle det bety at 390'en trakk ~200W. Altså 22,7% mer enn GTX970. TPU derimot har R9 390 på 231W, altså nesten 42% mer strøm enn GTX970 i deres test. Vi snakker altså om en forskjell på nesten 20%, ikke 5% som du mener er maks feilmargin. Så, hvem har målt feil? Eller hvem har gjort det riktigst? Jeg tviler nemlig ikke på at TPU's tall er korrekt. Det er helt sikkert helt korrekt for akkurat det spillet. Men hva om man spiller noe annet da? Slik som Steven Walton gjorde? Nå finner jeg det ikke i farten, men jeg mener han faktisk benyttet et gjennomsnitt fra 4 forskjellige spill. Mulig han sier noe om det i videoen, om han lagde det for HWUB, eller om han presiserte det i en av kommentarene. Men om han gjorde samme feil som TPU (jeg vet han gjør det i dag), og målte i bare ett spill. Vil ikke det være vel så riktig/feil som TPU? Uansett; feilmarginen din var... Feil. Du sammenligner epler og bananer når du bruker resultatene fra Techpowerup og Techspot: Techpowerup brukte et referansekort som "skal" bruke 170W: https://www.techpowerup.com/vgabios/163007/evga-gtx970-4096-140910 Techspot brukte et fabrikkoverklokket kort som "skal" bruke 180W: https://www.techpowerup.com/vgabios/167509/gainward-gtx970-4096-150123 Det er dermed rimelig å anta at Techspots resultater har et 970 som bruker minst 10W ekstra. Ut fra det jeg kan finne ut har vanlige 390 et budsjett på 208W for kjernen, som burde plassere totalt forbruk for kortet rundt 220-240W avhengig av hvor mye data som sendes til og fra VRAM. Techpowerup testet et lignende kort (BIOS har i det minste samme 180W og det er samme produsent): https://www.techpowerup.com/reviews/Palit/GeForce_GTX_970_JetStream/26.html Som du ser fikk Techpowerup dårligere ytelse i forhold til effekt fra dette kortet sammenlignet med stock 970. Uansett er det en nyere test på Techspot av 970 mot 290: https://www.techspot.com/review/1822-geforce-gtx-970-vs-radeon-r9-290/ Her er plutselig forskjellen hele 90W mellom de to maskinene! Riktignok er 290 litt tregere enn 390, men de hadde omtrent lik effekt. Det kan fort hende at testen de gjorde i 2017 var et spill der 390 rett og slett ikke trakk så mye som det gjør ellers? Så feilmarginen er kanskje 10% i enkelte tester, poenget er at det er nok mer enn nok målinger til å få et godt bilde av hva forskjellige kort bruker og krever for alle praktiske formål. 3 Lenke til kommentar
ExcaliBuR Skrevet 27. april 2019 Forfatter Del Skrevet 27. april 2019 (endret) Litt sent ute etter en liten reise, men bedre sent enn aldri. 19.4.3 Optional er ute, se førstepost. For de som har AMD chipset så er det oppdaterte drivere til det og her. Endret 27. april 2019 av ExcaliBuR Lenke til kommentar
Cowboystrekk Skrevet 29. april 2019 Del Skrevet 29. april 2019 Etter at Afterburner fikk tilgang til voltkurvene i siste oppdatering så har jeg lekt meg øitt videre med undervolting. Kjører må 1264MHz@950mv på 580 Nitro+. Strømforbruk/ytelse Heaven 4: 1411@stock 69.5fps 154W 1264@950mv 65.5fps 90W 94% ytelse 58% W 1185@870mv 62.6fps 79W 90% ytelse 51% W Tror jeg holder meg på 1264@950mv da Afterburner kan tvinges til å kjøre det på boot, mens wattman ofte resetter uten grunn og må aktiveres på nytt hver gang samt at den resetter spenning på minne til 950mv selv på lagra profil som gjør at forbruket blir likt som 1264@950mv. Trist å se hvordan AMD presser en egentlig strømgjerrig arkitektur til langt over komfortsona for å få et lite overtak på de grønne på ytelse, men tape på støy, varme og forbruk. Samma greia med Vega 56 og, med powerlimit på ca 180W har man i praksis 1070 ytelse med marginalt høyere forbruk, eller stock med 80-100W høyere forbruk og 5% mer ytelse. 1 Lenke til kommentar
Cowboystrekk Skrevet 29. april 2019 Del Skrevet 29. april 2019 https://www.hardocp.com/article/2019/02/24/amd_radeon_vii_chilling_undervolting/ Undervolting vs chill på Radeon 7. 10-15% lavere strømforbruk, ca samme til litt bedre ytelse. UV gjør omtrent samme nytta som chill, men kan kanskje være lurt å endre litt på viftekurva med tanke på varme. Chill+UV må jo være en vinnerkombo i spill hvor det passer med gameplay? Lenke til kommentar
TheKims Skrevet 29. april 2019 Del Skrevet 29. april 2019 (endret) Samma greia med Vega 56 og, med powerlimit på ca 180W har man i praksis 1070 ytelse med marginalt høyere forbruk, eller stock med 80-100W høyere forbruk og 5% mer ytelse. Mitt Vega 56 yter ca det samme som 1080 med undervolt og +100 på minne. Kunne sikkert ha overklokket kortet litt mere, men da blir det mere varme i mitt allerede varme kabinett, så da går vinninga opp i spinninga. Endret 29. april 2019 av TheKims 1 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå