Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

AMD har store planer: FreeSync over HDMI og HDR-for spill


Anbefalte innlegg

Jeg er en av de få som har hart fury x her på forumet, så jeg vet hva som er bra, og hva som er bedre ;)

 

Nå er det flere enn deg som har Fury X Nizzen , Apox har et han også, dog med litt ekstra lyd for ekstra julestemning , slå den du!

Du rakk heller aldri å teste eventuelt potensielt overklokking på Fury X nå som de nye driverne begynner å komme på plass, disse åpner for justering av spenning på flere nivå og ikke minst overklokking av HBM minnet.

Endret av Malvado
huff greier aldri å skrive julenissen's navn riktig :P
Lenke til kommentar
Videoannonse
Annonse

Du kunne bare gjort som du gjorde på de andre kortene du sammenlignet, altså linke til hele oversikten. Ba deg ikke velge en spesifikk modell, så du trenger ikke bli sinna. Var bare en åpenbar forskjell på sammenligningsmetodene dine. I snitt er 980Ti dyrere enn Fury X på grunn av tredjepartsmodellene :)

 

Ja, det er en forskjell, og grunnen kan du se her:

https://prisguiden.no/sok?q=R9%20fury%20x&f[c][]=30&s=price%20asc

Legg merke til at her er det Fury kort blandet inn. Samtidig har du kort som er merket tilbud. Det er og et som selges 500 kr billigere, som er bare i en nettbutikk, og skjedde nå i dag, eller i går. Det samme skjer forøvrig litt med 980 Ti også. Du må bla gjennom 980 kort.

 

Men jeg så litt mer på tallene, og ville faktisk sagt at 6500 kr er mer korrekt pris for Fury X nå. Akkurat samme pris som for GTX 980 Ti. Og gjett hva? Den billigste Fury X er et Sapphire kort. Og du får fint Fury X kort opptil 7500 kroner. Altså 1000 kroner forskjell. Et EVGA classified som du har går for rundt 8000 kr. Hvordan kan du si basert på dette at folk i snitt kjøper 980 Ti for høyere pris enn Fury X?

 

Det blir jo og feil å sammenligne med kort som Classified. Når de er så high end så kjøper du dem ikke for ytelsen ut av boksen. Da kjøper du noe som Superclocked f.eks. Calssified er jo hvis du har tenkt å overklokke. Og på Fury modellene er det jo ikke et valg du har. Du har ikke mulighet til noe custom, så da kommer ikke de veldig dyre kortene heller. Jeg ville ikke sagt at muligheten for å kjøpe dyre kort betyr at AMD generelt har lavere prisen enn Nvidia? Ja du kan bruke mer penger på et 980 Ti enn på et Fury X, men det gjør den ikke dyrere, når grunnmodellen koster det samme.

 

Hvis noen vet hva som er ekvialenten til GTX 950 kan jeg gjerne ta en prissammenligning med det kortet også, men slik det er nå så er 980 Ti likt, 980 dyrere, 970 billigere og 960 billigere. Så selv om 950 er dyrere, så ligger jo AMD og NVIDIA generelt likt i pris. Jeg er klar over at AMD er tradisjonelt sett billigere, men det betyr ikke at de er det nå.

 

AMD har jo massevis av VRAM, vannkjøling og HBM, så de kan ikke ha lave priser. Det er helt klart mye bedre å stappe inn mer VRAM, eller HBM gen 1 som ikke ga noe veldig utslag, eller vannkjøling, enn å faktisk kunne prise lavere slik at de får solgt. Det synes hvertfall AMD. Så da går både marginer og salgstall ned, mens de står og skryter over massive mengder VRAM. Med hvordan kortene er nå, så tror jeg rett og slett ikke AMD klarer å selge dem billigere og fortsatt ha penger igjen. Og Nvidia er ikke opptatt av å senke marginer. De selger veldig godt til like priser, selv med høyere priser selger de bedre.

Lenke til kommentar

Du rakk heller aldri å teste eventuelt potensielt overklokking på Fury X nå som de nye driverne begynner å komme på plass, disse åpner for justering av spenning på flere nivå og ikke minst overklokking av HBM minnet.

 

 Har de åpnet for overklokking nå?

Har det kommet tester som viser resultatene av dette?

 

I forhold til temperatur og kjøling så burde jo Fury X i teorien kunne overklokke ganske bra, muligens på høyde med 980 Ti?

Lenke til kommentar

 

 

Jeg er en av de få som har hart fury x her på forumet, så jeg vet hva som er bra, og hva som er bedre ;)

Nå er det flere enn deg som har Fury X Nizzen , Apox har et han også, dog med litt ekstra lyd for ekstra julestemning , slå den du!

Du rakk heller aldri å teste eventuelt potensielt overklokking på Fury X nå som de nye driverne begynner å komme på plass, disse åpner for justering av spenning på flere nivå og ikke minst overklokking av HBM minnet.

Minner kunne jeg overklokke med beta trixx programware. Hjalp ikkje en dritt i spill. Oc med mere soenning gi ca 1200mhz vs 1150 som jeg klarte. Vrm ble for varm i lengden
Lenke til kommentar

 

Og jeg har bæsja på leggen... Oppgraderte PC'en for ca en måned siden med nVidia 960GTX... Hade ingen planer om å bytte ut skjermen som jeg har hatt i mange år... Men så ville jeg plutselig det allikevel og kjøpte den skjermen jeg mente passet meg best i forhold til mitt budsjett og behov. Denne skjermen har FreeSync... Så nå sitter jeg med nytt grafikkort og ny skjerm som ikke "funker" med hverandre... Jeg spiller ikke spesielt mye, så det er nok ikke noe jeg kommer til å oppleve som noe stort problem, men det er jo fryktelig irriterende å vite at både skjermkort og skjerm har funksjoner som jeg ikke får benyttet pga proprietære løsninger....

 

Både skjerm og grafikkort ses i signaturen under, om noen skulle lure...

 

Du har 2 valg :

Beholde skjermen og selge skjermkortet og kjøpe et Amd skjermkort som støtter det / eller kjøpe Amd skjermkort og bruke begge skjermkortene (noe som faktisk går an i DX12).

 

Men vil ikke det bare fungere for spill som faktisk støtter DX12? I så fall blir det endel venting før det skjer, og bare i noen titler. Så jeg ville tro at for å få brukt det, så vil det beste alternativet være å bare selge for en R9 380. Eventuelt, siden 960 kortet er 4GB, og han vil ha 4 GB kan jo 380X være et alternativ.

 

Er eller ikke AdaptiveSync ellers best på kort som ligger i underkant av 60, eller alltid over. Gjerne kort som varier mye i fps, altså svakere kort, ikke de kraftige kortene som 970/390? Jeg trodde nettopp dette var best på kort som 370/380/950/960 ?

Lenke til kommentar

Og jeg har bæsja på leggen... Oppgraderte PC'en for ca en måned siden med nVidia 960GTX... Hade ingen planer om å bytte ut skjermen som jeg har hatt i mange år... Men så ville jeg plutselig det allikevel og kjøpte den skjermen jeg mente passet meg best i forhold til mitt budsjett og behov. Denne skjermen har FreeSync... Så nå sitter jeg med nytt grafikkort og ny skjerm som ikke "funker" med hverandre... Jeg spiller ikke spesielt mye, så det er nok ikke noe jeg kommer til å oppleve som noe stort problem, men det er jo fryktelig irriterende å vite at både skjermkort og skjerm har funksjoner som jeg ikke får benyttet pga proprietære løsninger....

 

Både skjerm og grafikkort ses i signaturen under, om noen skulle lure...

Nvidia kommer nok med freesync støtte etter hvert...men det vil kanskje ta noen år.

 

I mellomtiden kommer DirectX12 med støtte for multi-gpu-rendering. Mulig man kan benytte seg av Freesync med et Nvidia kort dersom man har et AMD kort i maskinen. Men spillet må ta i bruk DirectX12 og sikkert støtte multi-gpu-rendering også (?)

Ikke akkurat optimal løsning. Crossfire eller SLI vil nok være raskere, men det er kanskje en løsning (selv om en dårlig en) for å få freesync med Nvidia kort.

 

Edit: ser noen var før meg :p

Endret av mozaix
Lenke til kommentar

Anandtech har faktisk testet AMD+NVIDIA i CrossSLI (?) og tallene for AMD + Nvidia er ikke dårlige i det hele tatt. Så lenge du har riktig rekkefølge på dem (det betyr mye hvem som er slot 1 og hvem som er slot 2). Hvis utviklingen fortsetter som de tidlige tallene viser, så burde det ikke være forskjell på 2x970 og 390+970 i ytelse.

 

 

78164.png

 

Endret av TKongen
  • Liker 1
Lenke til kommentar

 

Du kunne bare gjort som du gjorde på de andre kortene du sammenlignet, altså linke til hele oversikten. Ba deg ikke velge en spesifikk modell, så du trenger ikke bli sinna. Var bare en åpenbar forskjell på sammenligningsmetodene dine. I snitt er 980Ti dyrere enn Fury X på grunn av tredjepartsmodellene :)

 

Ja, det er en forskjell, og grunnen kan du se her:

https://prisguiden.no/sok?q=R9%20fury%20x&f[c][]=30&s=price%20asc

Legg merke til at her er det Fury kort blandet inn. Samtidig har du kort som er merket tilbud. Det er og et som selges 500 kr billigere, som er bare i en nettbutikk, og skjedde nå i dag, eller i går. Det samme skjer forøvrig litt med 980 Ti også. Du må bla gjennom 980 kort.

 

Men jeg så litt mer på tallene, og ville faktisk sagt at 6500 kr er mer korrekt pris for Fury X nå. Akkurat samme pris som for GTX 980 Ti. Og gjett hva? Den billigste Fury X er et Sapphire kort. Og du får fint Fury X kort opptil 7500 kroner. Altså 1000 kroner forskjell. Et EVGA classified som du har går for rundt 8000 kr. Hvordan kan du si basert på dette at folk i snitt kjøper 980 Ti for høyere pris enn Fury X?

 

Det blir jo og feil å sammenligne med kort som Classified. Når de er så high end så kjøper du dem ikke for ytelsen ut av boksen. Da kjøper du noe som Superclocked f.eks. Calssified er jo hvis du har tenkt å overklokke. Og på Fury modellene er det jo ikke et valg du har. Du har ikke mulighet til noe custom, så da kommer ikke de veldig dyre kortene heller. Jeg ville ikke sagt at muligheten for å kjøpe dyre kort betyr at AMD generelt har lavere prisen enn Nvidia? Ja du kan bruke mer penger på et 980 Ti enn på et Fury X, men det gjør den ikke dyrere, når grunnmodellen koster det samme.

 

Hvis noen vet hva som er ekvialenten til GTX 950 kan jeg gjerne ta en prissammenligning med det kortet også, men slik det er nå så er 980 Ti likt, 980 dyrere, 970 billigere og 960 billigere. Så selv om 950 er dyrere, så ligger jo AMD og NVIDIA generelt likt i pris. Jeg er klar over at AMD er tradisjonelt sett billigere, men det betyr ikke at de er det nå.

 

AMD har jo massevis av VRAM, vannkjøling og HBM, så de kan ikke ha lave priser. Det er helt klart mye bedre å stappe inn mer VRAM, eller HBM gen 1 som ikke ga noe veldig utslag, eller vannkjøling, enn å faktisk kunne prise lavere slik at de får solgt. Det synes hvertfall AMD. Så da går både marginer og salgstall ned, mens de står og skryter over massive mengder VRAM. Med hvordan kortene er nå, så tror jeg rett og slett ikke AMD klarer å selge dem billigere og fortsatt ha penger igjen. Og Nvidia er ikke opptatt av å senke marginer. De selger veldig godt til like priser, selv med høyere priser selger de bedre.

 

Jeg kan si at folk kjøper dyrere 980Ti enn 6499,- fordi det er ytterst få modeller som koster dette. Samt at jeg jobber i en butikk som selger 980Ti, og det er i tillegg ganske enkelt å sjekke hva som er mest solgt på f.eks Komplett. De mest populære 980Ti-kortene koster stort sett over 7000 kroner. Hele poenget med å linke til 980Ti-søket var jo for at får en grei oversikt over snittprisen, iallefall.

 

Fury X-kortet er det samme kortet uansett hvilket merke man kjøper, så her vil man kjøpe det billigste man får tak i. Det blir noe annet med custom 980Ti, da de yter forskjellig ut fra eska. Classified-kortet mitt booster for eksempel til 1414mhz, noe som gir vesentlig høyere ytelse enn både Fury X og referansekort fra Nvidia. Dette gjør 980Ti til et mye bedre kjøp enn Fury X, men disse kortene vil da koste noen hundrelapper mer.

 

Er ikke uenig med deg på noen måte, men reagerte bare på at framstillinga ikke var lik. Ser også argumentene dine og det er greit nok, men jeg mener nok fortsatt at det ville vært bedre å hatt samme type sammenligning på alle tre korttypene.

Lenke til kommentar

Jeg ville først å fremst unngå å få 5 svar av typen "jamen Fury X er klart billigere, bare nvidia fanboys ville kjøpt et 980 Ti" Eller lignende. Selv når jeg plukker ut de to modellene som er de billigste får jeg kommentarer, som du er et bevis på (her ble jeg lurt av prisguide sin "tilbud" merking, så jeg linket faktisk til feil kort). Derfor gjorde jeg det, for å unngå å måtte diskutere akkurat prisen på de aktuelle kortene, og forklare hvorfor Fury X koster det samme som 980 Ti osv. (Hvis du skulle kjøpt i dag og ikke overklokket og ikke trenger det til jul er nok Fury X til 6000 kr det beste valget derimot).

 

Jeg vil heller ikke sammenligne kort av ulik ytelse. Hvis jeg skal sammenligne overkokklede 980 Ti kort må jeg begynne med ytelse/krone. Og det blir MYE jobb. Og kort som Classified er ikke verdt det med factory clock. Bare når du klokker ekstra høyt selv er de verdt det. Du får mer for penga med et superclocked, men det er dårligere til ekstrem OC. Derfor jeg ikke har med Fury (non-X), 380X osv. De har ingen Nvidia ekvialenter.

 

Det å se hva som selger mest på komplett, betyr ikke at det selger mest overalt. Det at det selges mange rundt 7000 kr, betyr ikke at det mest solgte er rundt 7000 kr. Det selges og massevis av Fury X modeller rundt 7000 kr (relativt). Hvordan vet vi at ikke MSI Fury X til i overkant av 7000 kr selger mest? Mens et 980 Ti til akkurat 7000 kr selger mest. Da er det som selger mest dyrere for Fury X. Det blir for mye spekualsjon og variabler, og da kan man plutselig ikke si at noe er billigst eller dyrest.

 

Jeg synes det får være opp til folk selv når de skal kjøpe å se på forskjellige priser. Hvilken modeller har de i hvilken butikk til hvilken pris. Si at du elsker den typen MSI kort, og du vil ha det levert raskt fra komplett. Da ser du på prisene der. Der kan plutselig et Asus kort være langt rimeligere, selv om MSI var billigst på CDON, så da går du gjerne for det, eller du kjøper MSI kortet ho CDON. Om det ble 980 Ti eller Fury X avhenger gjerne og av dette. Men jeg føler det funker bra for et personlig nivå, ikke i en generell prissammenligning. I begrepet generell ligger det jo at du ignorerer masse faktorer, og vise er mindre nyansert og forenklet bilde av virkeligheten. Slike mer nyanserte bilder du viser til blir ofte veldig vanskelig i slike diskusjoner, da alle ikke er med på helt hvordan nyansene er ol. Og da ender du opp med å diskutere masse rundt det. Akkurat som nå. Det er det jeg prøvde å unngå med en enkel modell. Med Fury X og 980 Ti betydde det at jeg måtte ta to enkeltkort for å få en enkel modell for pris.

Endret av TKongen
Lenke til kommentar

Jeg ville først å fremst unngå å få 5 svar av typen "jamen Fury X er klart billigere, bare nvidia fanboys ville kjøpt et 980 Ti" Eller lignende. Selv når jeg plukker ut de to modellene som er de billigste får jeg kommentarer, som du er et bevis på (her ble jeg lurt av prisguide sin "tilbud" merking, så jeg linket faktisk til feil kort). Derfor gjorde jeg det, for å unngå å måtte diskutere akkurat prisen på de aktuelle kortene, og forklare hvorfor Fury X koster det samme som 980 Ti osv. (Hvis du skulle kjøpt i dag og ikke overklokket og ikke trenger det til jul er nok Fury X til 6000 kr det beste valget derimot).

 

Jeg vil heller ikke sammenligne kort av ulik ytelse. Hvis jeg skal sammenligne overkokklede 980 Ti kort må jeg begynne med ytelse/krone. Og det blir MYE jobb. Og kort som Classified er ikke verdt det med factory clock. Bare når du klokker ekstra høyt selv er de verdt det. Du får mer for penga med et superclocked, men det er dårligere til ekstrem OC. Derfor jeg ikke har med Fury (non-X), 380X osv. De har ingen Nvidia ekvialenter.

 

Det å se hva som selger mest på komplett, betyr ikke at det selger mest overalt. Det at det selges mange rundt 7000 kr, betyr ikke at det mest solgte er rundt 7000 kr. Det selges og massevis av Fury X modeller rundt 7000 kr (relativt). Hvordan vet vi at ikke MSI Fury X til i overkant av 7000 kr selger mest? Mens et 980 Ti til akkurat 7000 kr selger mest. Da er det som selger mest dyrere for Fury X. Det blir for mye spekualsjon og variabler, og da kan man plutselig ikke si at noe er billigst eller dyrest.

 

Jeg synes det får være opp til folk selv når de skal kjøpe å se på forskjellige priser. Hvilken modeller har de i hvilken butikk til hvilken pris. Si at du elsker den typen MSI kort, og du vil ha det levert raskt fra komplett. Da ser du på prisene der. Der kan plutselig et Asus kort være langt rimeligere, selv om MSI var billigst på CDON, så da går du gjerne for det, eller du kjøper MSI kortet ho CDON. Om det ble 980 Ti eller Fury X avhenger gjerne og av dette. Men jeg føler det funker bra for et personlig nivå, ikke i en generell prissammenligning. I begrepet generell ligger det jo at du ignorerer masse faktorer, og vise er mindre nyansert og forenklet bilde av virkeligheten. Slike mer nyanserte bilder du viser til blir ofte veldig vanskelig i slike diskusjoner, da alle ikke er med på helt hvordan nyansene er ol. Og da ender du opp med å diskutere masse rundt det. Akkurat som nå. Det er det jeg prøvde å unngå med en enkel modell. Med Fury X og 980 Ti betydde det at jeg måtte ta to enkeltkort for å få en enkel modell for pris.

Skjønner. Sier jo heller ikke at det er eksakte summer eller spesifikke modeller det dreier seg om, men et inntrykk. Mitt poeng var iallefall at det blir annerledes på 980Ti og Fury X da det ikke finnes custommodeller av Fury X. Det blir altså en ytelsesforskjell som vil rettferdiggjøre en høyere pris.

 

Når det gjelder overklokking klokker ikke customkort noe høyere enn referanse. Alt er lotteri når det kommer til Maxwell. Kjøpte kun Classified fordi det ble billigere da jeg allerede hadde vannblokk som passa.

Lenke til kommentar

Classified er forskjellig fra de andre modellene til EVGA. I rene klokkefrekvenser er FTW versjonen til EVGA best, og yter best. Classified koster derimot mest, så hva får du?

 

De har gjort forbedringer til blant annet strøm, og forsyningen av strøm, og diverse andre tiltak som gjør den bedre å overklokke. Den er rett å slett laget for å gjøre på så høy klokkefrekvens som mulig, med ingen begrensning for strømuttak ol. Jeg tror de og påstår at de velger ut kjerner som er ekstra gode (De pleier å bli kategorisert på fabrikken, så si at de kjøper blant de 3 øverste av si 10 kategorier), slik at du skal få en som hvertfall er ganske god å overklokke, selv om det vil være variasjoner der også. Er Classified ol produkter fra andre verdt det? Er de generelt langt bedre på å OC? Jeg vet ikke, det må nesten folk som kjøper dem svare på. De skal hvertfall være designet og derfor bedre på OC enn andre.

Lenke til kommentar

Classified er forskjellig fra de andre modellene til EVGA. I rene klokkefrekvenser er FTW versjonen til EVGA best, og yter best. Classified koster derimot mest, så hva får du?

 

De har gjort forbedringer til blant annet strøm, og forsyningen av strøm, og diverse andre tiltak som gjør den bedre å overklokke. Den er rett å slett laget for å gjøre på så høy klokkefrekvens som mulig, med ingen begrensning for strømuttak ol. Jeg tror de og påstår at de velger ut kjerner som er ekstra gode (De pleier å bli kategorisert på fabrikken, så si at de kjøper blant de 3 øverste av si 10 kategorier), slik at du skal få en som hvertfall er ganske god å overklokke, selv om det vil være variasjoner der også. Er Classified ol produkter fra andre verdt det? Er de generelt langt bedre på å OC? Jeg vet ikke, det må nesten folk som kjøper dem svare på. De skal hvertfall være designet og derfor bedre på OC enn andre.

Jeg har hatt 780 Classy, 780Ti Classy, 780Ti KingPin, 980 Kingpin og nå 980Ti Classified. Som du kanskje skjønner vet jeg godt hva jeg får når jeg kjøper et Classy-kort :) Det siste kjøpet var kun fordi jeg allerede hadde vannblokk, hadde jeg ikke hatt den ville jeg bare beholdt referansekortet jeg hadde fra ASUS, da det klokka bra. Folk kan tro hva de vil, men hverken 980 eller 980Ti Classified er binna av EVGA (utvelgelse av brikker som klokker bra).

 

Man kan heller ikke si at den og den modellen i rene klokkefrekvenser er best, på grunn av hvordan Boost 2.0 fungerer. Det finnes nok FTW-kort som ikke booster like høyt som Classified, og motsatt såklart.

 

Jeg kjøpte kortet fordi jeg overklokker. Det er det ikke mange som gjør, og ergo vil et customkort som er klokket mye høyere enn referanse fra fabrikk yte en god del bedre. Det er hele poenget med tredjepartskortene. Nå er Classifiedkortet i den dyrere enden av skalaen, det er andre customkort som også er klokket høyt fra fabrikk som koster den del mindre.

Lenke til kommentar

Hva legger de i HDR? Er dette ekte HDR, som da krever støtte i skjermen? Eller såkalt komprimert HDR, som var veldig i skuddet innen fotografering for en stund siden?

Vel, for å få "ekte HDR" så påstås det at du må ha en skjerm som kan vise fra 0 til 1000 nits. Der de fleste ligge i 0.2 -300 nits i dag. Samtidig oppgir wikipedia 0 til 10000 nits. Så her er det nok alt etter hvor bra du skal ha det. Vanlige LCD skjermer vil nok ikke gi den mest utrolige HDR opplevelsen derimot.  Om et par år derimot vil jeg tro vi kan få OLED som kan klare 0-700/800+ med ganske bra HDR, da den lille forskjellen 0 til ~0.2 faktisk utgjør en veldig stor forskjell for bildet. Og LCD kan ikke få 0. 0.2 er faktisk utrolig bra.

 

Så det er jo begrenset hav du kan gjøre, uten skjermer som fult ut støtter god HDR. Er ikke sikker på om AMD satser på HDR for skjermer som støtter det. Jeg har en følelse av at det blir litt venting om det er målet. Så ville tro de prøver seg på en slags variant som skal funke på alle skjermer. Ikke like bra da, selvfølgelig. Men jeg vet ikke.

Lenke til kommentar

 

 

AMD ser for seg at 2016 blir året hvor HDR vil tas i bruk i spill, i tillegg til på film.

 

Hva er HDR i spillsammenheng? Burde ikke et bilde i spill tegnes opp perfekt uten noen form for etterbearbeiding som man ser i digitalfotografering? Jeg skjønner ikke helt hva de kan tilføre av lys i skygger og liknende som ikke allerede ble tegnet opp av spillet i starten. Spill er jo en kunstig produksjon av bilder fra grunnen av.  :hmm:

 

Noen som kan forklare hva det går ut på?

Lenke til kommentar

Nvidia kommer nok med freesync støtte etter hvert...men det vil kanskje ta noen år.

Kommer nok ikke til å ta så lang tid, jeg tipper iløpet av 2016.

Spørs litt på om Intel kommer med Adaptive Sync støtte på Kaby Lake eller om det drøyer til Cannonlake i 2017.

 

Husk at Nvidia bruker allerede VESA Adaptive Sync til G-Sync på laptoper (G-Sync Mobile).

 

Nvidia kommer heller ikke til å kalle det FreeSync, tipper de kaller det "G-Sync Lite" eller noe sånt.

Intel kommer forresten heller ikke til å kalle demmes versjon for FreeSync.

Lenke til kommentar

 

 

 

AMD ser for seg at 2016 blir året hvor HDR vil tas i bruk i spill, i tillegg til på film.

 

Hva er HDR i spillsammenheng? Burde ikke et bilde i spill tegnes opp perfekt uten noen form for etterbearbeiding som man ser i digitalfotografering? Jeg skjønner ikke helt hva de kan tilføre av lys i skygger og liknende som ikke allerede ble tegnet opp av spillet i starten. Spill er jo en kunstig produksjon av bilder fra grunnen av.  :hmm:

 

Noen som kan forklare hva det går ut på?

 

Det finnes spillmotorer som rendrer i HDR i dag. Det finnes spill som kan rendres med HDR, men bare rendres for SDR (Standard Dynamic range). Noen spillmotorer klarer ikke å utnytte HDR skikkelig slik de er i dag. Men uansett blir alt som er HDR remappet tilbake til SDR. Det å sende ut signal med HDR er poengløst, det blir rett og slett ganske dårlig.

 

Du har jo RBG som er det de fleste skjermer går etter, og du har AdobeRBG. AdobeRBG er et utvidet fargerom, og bedre enn RBG. Hvis du derimot tester for nøyaktighet i forhold til RBG med en skjerm stilt inn på AdobeRGB så blir resultatet dårlig. Galaxy telefoner kan jo velge "bilde" eller "standard". Bilde er adobeRBG og standard er RBG. I tester der de tester for RBG spekteret kommer "bilde" modusen dårlig ut. Samme med HDR for skjermer som ikke støtter det. Det klarer ikke å vise det, og alt blir bare feil. Da er det bedre med SDR fra starten.

 

HDR burde absolutt ha 10-bit. Altså, istedenfor å ha 256 skygger av hver farge, så har du 1024. Den virkelige verden har jo ikke et bestemt antall rød, så målet er jo å få det digitale antallet rød så høyt at du ikke kan se forskjell. Det er og noe som trengs for skikkelig god HDR. (Finnes det et bestemt antall rød? Atomer har jo energinivåer der de sender ut fotoner, så er det slik at du faktisk har et bestemt antall?) Dette er grunnen til at HDR krever mer båndbredde. 10 bit vs 8 bit.

 

Samtidig trenger HDR skjermer lokal lyskontroll. Altså enten OLED eller lokal dimmet LCD. Ikke kantbelyst. Den må og klare å komme opp mot 1000 nits i enkelte områder av skjermen. De fleste makser ut på 300 i dag, med rundt 600 nits for mobil.

 

Så alt AMD gjør er å legge til rette for dette. De har SW for å hjelpe utviklere og lignende. Til slutt derimot så kreves det skjermer som støtter et utvidet fargerom (enda mer enn AdobeRBG, og nærme det som brukes i film tror jeg). De trenger 10-bit skjermer. Skjermer som har lokal lyskontroll, samtidig som de kan nå lysstyrker opp mot 1000 nits. Når det kommer, så har vi skikkelige HDR skjermer. Vi får nok skjermer som er litt mer beskjedne og tilbyr halvveis HDR i mellomtiden. En ting er hvertfall sikkert, kommer de i år så vil de være ekstremt dyre. Bare se på hvor mye du må ut med for den billigste AdobeRBG skjermen i dag (tror det er rundt 6K), og her kreves altså langt mer.

 

Kanskje AMD trenger litt fart i skjermkorta før de snakker om HDR i spill :p

http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#abschnitt_empfehlungen_von_full_hd_bis_ultra_hd

Hva er det som gjør at HDR er tyngre å kjøre enn SDR?

 

Jeg så grafen og leste avsnittet linken viste meg til, men jeg så ikke helt noe om at AMD hadde dårlige skjermkort der?

Lenke til kommentar

 

...

 

 

Kunne noen tatt en nybegynnertilnærming også. For jeg forstod sånn ca. 1/20 kvekk av dette  :)

 

 

Hva er det du ikke forstår? Ikke vær redd for å spørre direkte her , mange flinke og vennlige medlemmer her , Tkongen , Effikan , Nizzen , Gabri3l , Duran har alle sammen mye innsikt i hvordan skjermkort fungerer og vi kan trolig svare på det meste du lurer på. Husk derimot at man kan aldri bli helt klokt og vi har alle våre meninger , men det er jo det som gjør at det er morsomt å delta i diskusjoner :)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...