Gå til innhold

TEST: Blindtest: 4K


Anbefalte innlegg

Som nevnt så vil ikke det fungere, ettersom 4k-skjermen automatisk oppskalerer 1080p-materialet for å kunne vise det på bildepanelet. Altså kildematerialet vil riktignok være i 1080p, men testen vil da være å avgjøre forskjellen mellom ekte 4k videomateriale vist på en 4k skjerm, og 1080p materiale vist på en 4k-skjerm (oppskalert). Det er ikke mulig å "skru av"/deaktivere oppskalering i en tv-skjerm. En UHDTV består av et bildepanel på 3840 x 2160 bildepunkter/piksler. Dette er en fysisk egenskap / hardware. For å kunne vise et bilde på 1080p MÅ bildet oppskaleres.

Det må da være mulig å oppskalere bildet FØR det sendes til skjermen. Da kan man rett og slett duplikere pikslene i oppskaleringen, slik at fire og fire piksler er identiske. Man ender da opp med et bilde som i praksis ser ut som 1080P, men som inneholder flere piksler.
Lenke til kommentar
Videoannonse
Annonse

Med andre ord har valg av oppskaleringsalgoritme veldig mye å si for det oppskalerte resultatet. Kanskje Fantefilm kan bidra med noen klipp oppskalert med ulike algoritmer så tek kan teste algoritmene mot hverandre og ekte 4K? Den enkleste algoritmen bør være simpel piksel-dobling (2x2) uten noen form for glatting eller mønstergjenkjenning, deretter simpel bikubisk oppskalering osv.

 

Edit: Det blir en tørr teoretisk test av algoritmer, ikke skjermer eller hva folk kan forvente av TVen sin.

Endret av Simen1
  • Liker 1
Lenke til kommentar

 

Som nevnt så vil ikke det fungere, ettersom 4k-skjermen automatisk oppskalerer 1080p-materialet for å kunne vise det på bildepanelet. Altså kildematerialet vil riktignok være i 1080p, men testen vil da være å avgjøre forskjellen mellom ekte 4k videomateriale vist på en 4k skjerm, og 1080p materiale vist på en 4k-skjerm (oppskalert). Det er ikke mulig å "skru av"/deaktivere oppskalering i en tv-skjerm. En UHDTV består av et bildepanel på 3840 x 2160 bildepunkter/piksler. Dette er en fysisk egenskap / hardware. For å kunne vise et bilde på 1080p MÅ bildet oppskaleres.

Det må da være mulig å oppskalere bildet FØR det sendes til skjermen. Da kan man rett og slett duplikere pikslene i oppskaleringen, slik at fire og fire piksler er identiske. Man ender da opp med et bilde som i praksis ser ut som 1080P, men som inneholder flere piksler.

 

 

Det var jo det sverreB foreslo, men stevie misforsto hva han skrev.

 

AtW

Lenke til kommentar

 

Som nevnt så vil ikke det fungere, ettersom 4k-skjermen automatisk oppskalerer 1080p-materialet for å kunne vise det på bildepanelet. Altså kildematerialet vil riktignok være i 1080p, men testen vil da være å avgjøre forskjellen mellom ekte 4k videomateriale vist på en 4k skjerm, og 1080p materiale vist på en 4k-skjerm (oppskalert). Det er ikke mulig å "skru av"/deaktivere oppskalering i en tv-skjerm. En UHDTV består av et bildepanel på 3840 x 2160 bildepunkter/piksler. Dette er en fysisk egenskap / hardware. For å kunne vise et bilde på 1080p MÅ bildet oppskaleres.

Det må da være mulig å oppskalere bildet FØR det sendes til skjermen. Da kan man rett og slett duplikere pikslene i oppskaleringen, slik at fire og fire piksler er identiske. Man ender da opp med et bilde som i praksis ser ut som 1080P, men som inneholder flere piksler.

 

Det er fullt mulig ja. Det vil fortsatt være større pikseltetthet, men ikke mer bildeinformasjon. Jeg vet ikke om dette vil gjøre at bildet oppleves skarpere eller ikke, men det er vel det nærmeste man kommer dersom man ikke kan sammenligne skjermpaneler med full HD og UHD som ellers er identiske bortsett fra oppløsningen.

Lenke til kommentar

 

 

Som nevnt så vil ikke det fungere, ettersom 4k-skjermen automatisk oppskalerer 1080p-materialet for å kunne vise det på bildepanelet. Altså kildematerialet vil riktignok være i 1080p, men testen vil da være å avgjøre forskjellen mellom ekte 4k videomateriale vist på en 4k skjerm, og 1080p materiale vist på en 4k-skjerm (oppskalert). Det er ikke mulig å "skru av"/deaktivere oppskalering i en tv-skjerm. En UHDTV består av et bildepanel på 3840 x 2160 bildepunkter/piksler. Dette er en fysisk egenskap / hardware. For å kunne vise et bilde på 1080p MÅ bildet oppskaleres.

Det må da være mulig å oppskalere bildet FØR det sendes til skjermen. Da kan man rett og slett duplikere pikslene i oppskaleringen, slik at fire og fire piksler er identiske. Man ender da opp med et bilde som i praksis ser ut som 1080P, men som inneholder flere piksler.

 

 

Det var jo det sverreB foreslo, men stevie misforsto hva han skrev.

 

AtW

 

Det var ikke det han foreslo, i hvert fall var det ikke det han skrev, så jeg misforstod ikke. Jeg siterer: "Jeg vil foreslå et annet eksperimentellt oppsett: Få tre identiske skjermer sett en til 4k, en til nedsamplet 1080p kjør så den siste i enten 4k eller 1080p og be forsøkspersonen si om bildet ligner mest på 4k skjermen eller 1080p skjermen, gjenta 20-40 ganger med tilfeldig valg av om den tredje skjermen viser 4k eller 1080p". Som jeg har skrevet flere ganger nå: hvis skjermene er identiske så er det 4K-panaler alle sammen, så bildet må oppskaleres på en eller annen måte. Enten FØR det sendes til displayet (hvilken kan by på problemer i forhold til enkodering/dekodering av videomaterialet (bør man bruke H.264 f.eks?), eller av selve displayet etterpå. Når han skriver "4k skjermen eller 1080p skjermen" så var det nettopp det jeg pekte på at blir feil, ettersom alle skjermene er 4K/UHD - ingen av skjermene er 1080p.

Lenke til kommentar

Det du svarte på var jo dette:

 

"Du nedsampler kildematrialet før du sender det til skjermen. I.e. ta orginal 4k kildematriale, nedsample til 1080p, så produserer du 1080p emulerende 4k matriale ved å duplisere pixlene i både høyde og bredde. Du har nå 2 sett med 4k kilder en som har en reell 4k oppløsning og en som gjør at skjermen viser samme oppløsning som en 1080p skjerm.

"

 

AtW

Lenke til kommentar

 

 

 

Som nevnt så vil ikke det fungere, ettersom 4k-skjermen automatisk oppskalerer 1080p-materialet for å kunne vise det på bildepanelet. Altså kildematerialet vil riktignok være i 1080p, men testen vil da være å avgjøre forskjellen mellom ekte 4k videomateriale vist på en 4k skjerm, og 1080p materiale vist på en 4k-skjerm (oppskalert). Det er ikke mulig å "skru av"/deaktivere oppskalering i en tv-skjerm. En UHDTV består av et bildepanel på 3840 x 2160 bildepunkter/piksler. Dette er en fysisk egenskap / hardware. For å kunne vise et bilde på 1080p MÅ bildet oppskaleres.

Det må da være mulig å oppskalere bildet FØR det sendes til skjermen. Da kan man rett og slett duplikere pikslene i oppskaleringen, slik at fire og fire piksler er identiske. Man ender da opp med et bilde som i praksis ser ut som 1080P, men som inneholder flere piksler.

 

 

Det var jo det sverreB foreslo, men stevie misforsto hva han skrev.

 

AtW

 

Det var ikke det han foreslo, i hvert fall var det ikke det han skrev, så jeg misforstod ikke. Jeg siterer: "Jeg vil foreslå et annet eksperimentellt oppsett: Få tre identiske skjermer sett en til 4k, en til nedsamplet 1080p kjør så den siste i enten 4k eller 1080p og be forsøkspersonen si om bildet ligner mest på 4k skjermen eller 1080p skjermen, gjenta 20-40 ganger med tilfeldig valg av om den tredje skjermen viser 4k eller 1080p". Som jeg har skrevet flere ganger nå: hvis skjermene er identiske så er det 4K-panaler alle sammen, så bildet må oppskaleres på en eller annen måte. Enten FØR det sendes til displayet (hvilken kan by på problemer i forhold til enkodering/dekodering av videomaterialet (bør man bruke H.264 f.eks?), eller av selve displayet etterpå. Når han skriver "4k skjermen eller 1080p skjermen" så var det nettopp det jeg pekte på at blir feil, ettersom alle skjermene er 4K/UHD - ingen av skjermene er 1080p. Men innholdet eller kildematerialet kan være 4K eller 1080p (oppskalert)

 

Lenke til kommentar

Det du svarte på var jo dette:

 

"Du nedsampler kildematrialet før du sender det til skjermen. I.e. ta orginal 4k kildematriale, nedsample til 1080p, så produserer du 1080p emulerende 4k matriale ved å duplisere pixlene i både høyde og bredde. Du har nå 2 sett med 4k kilder en som har en reell 4k oppløsning og en som gjør at skjermen viser samme oppløsning som en 1080p skjerm.

"

 

AtW

Hvem skrev dette? Var det det jeg svarte på så beklager jeg. Da må jeg ha lest feil eller ikke lest hele innlegget.

Lenke til kommentar

 

Det du svarte på var jo dette:

 

"Du nedsampler kildematrialet før du sender det til skjermen. I.e. ta orginal 4k kildematriale, nedsample til 1080p, så produserer du 1080p emulerende 4k matriale ved å duplisere pixlene i både høyde og bredde. Du har nå 2 sett med 4k kilder en som har en reell 4k oppløsning og en som gjør at skjermen viser samme oppløsning som en 1080p skjerm.

"

 

AtW

Det var ikke det jeg svarte på nei. Hvis du går tilbake og ser så ble det innlegget du siterer skrevet ETTER mitt innlegg, så det var altså ikke det jeg svarte på. Det jeg svarte på var innlegget til sverreb, den 07 Des 2015 - 14:25:

 

 

"Jeg synes ikke konklusjonen støttes av forsøket. Dere konkluderer med at det er vanskelig å se forskjell, men forsøket viser en sterk bias mot en av skjermene (1080p) Hvis det ikke var mulig å se forskjell burde fordelingen blitt bortimot tilfeldig. Jeg har ikke regnet på det men 14/20 lukter statistisk signifikant noe som innebærer at det var mulig å se forskjell.

 

At det var en bias for å foretrekke den lavere oppløsningen er ikke relevant for å vurdere om det er mulig å se forskjellen. Dette er mer et psykologispørsmål.

 

Jeg vil foreslå et annet eksperimentellt oppsett: Få tre identiske skjermer sett en til 4k, en til nedsamplet 1080p kjør så den siste i enten 4k eller 1080p og be forsøkspersonen si om bildet ligner mest på 4k skjermen eller 1080p skjermen, gjenta 20-40 ganger med tilfeldig valg av om den tredje skjermen viser 4k eller 1080p"

 

Sitatet ovenfor representerer hele innlegget til sverreb, og det var det jeg svarte på.

Lenke til kommentar

Ok, greit nok, men innlegget jeg siterer bre skrevet før ditt innlegg, og du siterer det innlegget i ditt eget innlegg. Det er ikke så rart det er det folk tror du svarer på. (dessuten er det litt underlig å snakke om at oppsett han foreslå 7 desember ikke fungerer når han 10 desember foreslår et oppsett som fungerer)

 

AtW 

Lenke til kommentar

Ok, greit nok, men innlegget jeg siterer bre skrevet før ditt innlegg, og du siterer det innlegget i ditt eget innlegg. Det er ikke så rart det er det folk tror du svarer på. (dessuten er det litt underlig å snakke om at oppsett han foreslå 7 desember ikke fungerer når han 10 desember foreslår et oppsett som fungerer)

 

AtW 

 

Beklager, min feil.. Jeg ser nå at jeg i innlegget du viser til (#160) så har jeg oversett det siste han skrev og da ble det dessverre litt "god dag mann-økseskaft"-svar. Så du har helt rett. Apropos det oppsettet han foreslår 10. desember, så vil nok dette være bedre, og gi undersøkelsen høyere intern validitet ettersom man opererer med likere betingelser. Men som nevnt oppstår det annet problem i forhold til hvordan man velger å enkodere videomaterialet på forhold. Det kan dessuten argumenteres for at dette vil være en kunstig måte å vise/sammenligne videomateriale/displaykvalitet på ettersom det kan avvike mye fra hvordan man normalt benytter slike TV-aparater i virkeligheten, og således gi redusert økologisk validitet. Dette er også en ting man må ta i betraktning ettersom det viktigste målet med en slik undersøkelse vel må sies å være høy generaliserbarhet. Ellers har jo testen liten/ingen praktisk relevans for forbrukere. Jeg tenker da på at det nok i virkeligheten er vanligere å la skjermen stå for oppskaleringen, enn at man spiller av 1080p-innhold som på forhånd (noe kunstig) er oppskalert til 4K oppløsning. Men av disse to alternativene mener også jeg at forhånds-oppskalering likevel er å foretrekke. Selv om det ideelle hadde vært om man kunne skaffe skjermpaneler fra samme produsent som var helt like, og kalibrert helt likt, bortsett fra at ett hadde et 4K-panel og ett hadde et 1080p-panel.

Lenke til kommentar

 

 

HDR finnes jo allerede, som SW oppdatering til nåværende TVer. Det er jo tross alt high digital range. Så det går fint an å legge inn som oppdatering.

 

High Dynamic Range...

Jeg vet helt ærlig ikke hva jeg tenkte på der.... Det er selvfølgelig helt riktig med High Dynamic Range. For å få det til derimot, så bruker de digitale virkemidler og behandler bildet. Det er jo slikt det er.
Les og lær:

http://flatpanels.dk/fokusartikel.php?subaction=showfull&id=1435041319

 

Exposure synthesis er en populær måte å øke DR på i stillbildekamera men det har ikke noe direkte å gjøre med HDR i TV verden. Sistnevnte åpner bare for å sende og gjengi mørkere skygger og lysere highlights. Jeg tror at vi vil få se mye faking og kluss med interop i et par generasjoner før HDR blir en god og fornuftig TV feature. Jeg gleder meg.

Endret av knutinh
Lenke til kommentar

 

Ja, det blir vel som retina-skjermen på macbook pro, hvor oppløsningen er halvert i forholdt til "native", såkalt "pixel doubling", for at ikke alt skal bli alt for smått på skjermen. Men det blir jo oppskalert uansett, siden selve displayet har høyere "native" oppløsning.

 

Jeg tror du misforstår hva oppskalering innebærer. Å vise et lavoppløst bilde på en høyoppløst skjerm ved hjelp av pikseldobling (2x2) er ikke oppskalering. Oppskalering er en egen algoritme som tolker det lavoppløste bildet og prøver å skape eller gjenskape detaljer som ikke er der. For eksempel ved å tolke linjer i originalbildet og forsøke å glatte ut den hakkede linjen det ville blitt ved ren pikseldobling. En annen måte er at støy eller finkornede detaljer som gress på en fotballbane, forfines kunstig i behandlingen fra lavoppløst til høyoppløst. Oppskalering er altså en måte å tolke og konstruere detaljer som ikke var der i utgangspunktet. Som regel fungerer det bra, mye bedre enn pikseldobling, men ikke så bra som ekte høyoppløste detaljer.
Pixeldobling er oppskalering med et dårlig filter.

 

Bedre filtre har gjerne flere tapper og ligner mer på en sin(x)/x funksjon som antydet av samplingsteori.

 

Det blir mer komplisert av at video benytter ulineær gamma (tallet er ikke en lineær funksjon av lys) og at kilde og skjerm kan ha ymse svakheter som noen prøver å kompensere i skaleringen. Lanczos er en populær tradeoff mellom kompakt kernel (lite ringing) og gode romlig-spektrale egenskaper.

 

Se også

http://www.imagemagick.org/Usage/filter/nicolas/

 

Det er mulig å skalere bilder og video med helt andre (ulineære) metoder. Jeg tror ikke det er så vanlig til TV bruk pga kost og uforutsigbare artifakter.

 

K

Endret av knutinh
Lenke til kommentar

 

Ok, greit nok, men innlegget jeg siterer bre skrevet før ditt innlegg, og du siterer det innlegget i ditt eget innlegg. Det er ikke så rart det er det folk tror du svarer på. (dessuten er det litt underlig å snakke om at oppsett han foreslå 7 desember ikke fungerer når han 10 desember foreslår et oppsett som fungerer)

 

AtW 

 

Beklager, min feil.. Jeg ser nå at jeg i innlegget du viser til (#160) så har jeg oversett det siste han skrev og da ble det dessverre litt "god dag mann-økseskaft"-svar. Så du har helt rett. Apropos det oppsettet han foreslår 10. desember, så vil nok dette være bedre, og gi undersøkelsen høyere intern validitet ettersom man opererer med likere betingelser. Men som nevnt oppstår det annet problem i forhold til hvordan man velger å enkodere videomaterialet på forhold. Det kan dessuten argumenteres for at dette vil være en kunstig måte å vise/sammenligne videomateriale/displaykvalitet på ettersom det kan avvike mye fra hvordan man normalt benytter slike TV-aparater i virkeligheten, og således gi redusert økologisk validitet. Dette er også en ting man må ta i betraktning ettersom det viktigste målet med en slik undersøkelse vel må sies å være høy generaliserbarhet. Ellers har jo testen liten/ingen praktisk relevans for forbrukere. Jeg tenker da på at det nok i virkeligheten er vanligere å la skjermen stå for oppskaleringen, enn at man spiller av 1080p-innhold som på forhånd (noe kunstig) er oppskalert til 4K oppløsning. Men av disse to alternativene mener også jeg at forhånds-oppskalering likevel er å foretrekke. Selv om det ideelle hadde vært om man kunne skaffe skjermpaneler fra samme produsent som var helt like, og kalibrert helt likt, bortsett fra at ett hadde et 4K-panel og ett hadde et 1080p-panel.

 

Poenget med oppsettet jeg foreslo var å elliminere så mange variable som mulig og redusere eksperimentet til noe som med så høy gyldighet som mulig lar en svare på om man ser forskjell på en 1080p og en 4k skjerm. Ikke preferanse, ikke bias av forutkunnskap, men kun om man ser forskjell. Metodikken er lagd for å elliminere behovet for forskjellige paneler og forskjellig signalgang gjennom apparatene. At dette ikke er noe man i praksis vil gjøre med skjermene er ikke så viktig. Poenget var å avdekke om det er sebar forskjell på en 1080p skjerm og en 4k skjerm med tilhørende signal.

 

At pixeldobling er et dårlig filter er heller ikke noen motforestilling. Valget av pixeldobling for oppskaleringen av 1080p signaler til 4k er for at 4k skjermen skal opptre som en 1080p skjerm. I.e. dette er en enkel måte å realisere en 4k skjerm og en '1080p' skjerm som er så like som mulig (Men p.g.a. samplevariasjon anbefaler jeg å kalibrere alle skjermene uansett.

 

Det aller viktigste med metodikken er imidlertid blindingen av eksperimentet ved å bruke en ABX observasjonmetode fremfor å vise samme signal samme sted hele tiden. Dette lar deg teste flere ganger med samme persom og gir langt større statistisk konfidens i resultatene.

Lenke til kommentar

Les og lær:

http://flatpanels.dk/fokusartikel.php?subaction=showfull&id=1435041319

 

Exposure synthesis er en populær måte å øke DR på i stillbildekamera men det har ikke noe direkte å gjøre med HDR i TV verden. Sistnevnte åpner bare for å sende og gjengi mørkere skygger og lysere highlights. Jeg tror at vi vil få se mye faking og kluss med interop i et par generasjoner før HDR blir en god og fornuftig TV feature. Jeg gleder meg.

 

Jeg refererte til hvordan de gjør det i stillbilder :) Klar over at TV er forskjellig, men takk for linken :)

 

Sannsynligvis bør du har OLED for god HDR, da du ikke får skikkelig kontrast og lokal lyskontroll med LCD. Heller ikke lav nok lysstyrke. Så mangler det jo en del på fargerommet også... og spesielt content for TV. På PC blir det lett. Der har du spill. Spill bruker alle nye teknologier ekstremt raskt.

Lenke til kommentar

 

Les og lær:

http://flatpanels.dk/fokusartikel.php?subaction=showfull&id=1435041319

Exposure synthesis er en populær måte å øke DR på i stillbildekamera men det har ikke noe direkte å gjøre med HDR i TV verden. Sistnevnte åpner bare for å sende og gjengi mørkere skygger og lysere highlights. Jeg tror at vi vil få se mye faking og kluss med interop i et par generasjoner før HDR blir en god og fornuftig TV feature. Jeg gleder meg.

 

Jeg refererte til hvordan de gjør det i stillbilder :) Klar over at TV er forskjellig, men takk for linken :)

 

Sannsynligvis bør du har OLED for god HDR, da du ikke får skikkelig kontrast og lokal lyskontroll med LCD. Heller ikke lav nok lysstyrke. Så mangler det jo en del på fargerommet også... og spesielt content for TV. På PC blir det lett. Der har du spill. Spill bruker alle nye teknologier ekstremt raskt.

Jeg har lokal lyskontroll i min Sony TV. Men siden den er noen år gammel så har den hverken hdmi hw eller sw som lar den bruke disse evnene til å vise HDR innhold. Det fikk meg til å trigge når du skrev at hdr bare var en sw oppgradering.

 

Det virker som om spill og mobil pusher teknologien fortere enn TV ja. På tross av at TV nok har størst potensiale bildemessig. Får håpe at UHD Blu-ray skaper litt blæst.

 

K

  • Liker 1
Lenke til kommentar

Vel, LG kom med HDR som en SW oppdatering til sin TV. Men en kan jo og spørre hva som er HDR. Det finnes en ideell definisjon, men jeg tror nok LG er langt unna det. Den er nok bedre enn SDR, men du kan jo ikke oppgradere HDMI, 8 til 10 bit og utvide fargerom uten videre med en oppdatering.

 

Ellers vil jo fortsatt oled være bedre enn lcd med lokal lyskontroll. Det er en grense for hvor god kontroll du kan ha med lcd.

Lenke til kommentar
  • 1 måned senere...

 

Det var vel en blindtest for en stund siden som viste at "folk flest" ikke ser forskjell på 720p og 1080p også.

 

På den andre siden... "folk flest" spiser på Egon og er happy med det.

Vet du hva en blindtest er?

 

 

Er det noen grunn til å tro han ikke gjør det utifra innlegget?

 

AtW

  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...