tommyb Skrevet 9. desember 2015 Del Skrevet 9. desember 2015 Jeg må stille meg sammen med dem som sier at testen viser at folk ser forskjell. Så må jeg heller innrømme at det er en betenkelig forskjell. En full HD-TV vil altså forsterke og tydeliggjøre bildet på lengre avstand mens en 4K-TV gir et mer realistisk, kjedelig og hverdagsgrått bilde som man sitter for langt unna til å sette pris på detaljene i. Sant nok, men husk at feks kalibrerte skjermer også er "hverdagsgrå" og folk ikke liker de like godt. Det er ikke nødvendigvis noe dårlig skussmål for de som er opptatt av kvalitet. AtW Ja, og da er vi vel egentlig enige, og det blir et spørsmål om preferanser. Avstanden til TV'n jevner ut omriss og detaljer, mens en Full HD-TV først har forsterket noen av disse slik at man ser dem tydeligere. Virkeligheten er litt grå mens mange TVer presenterer den i Disney-farger. Og avhengig av egne preferanser så vil noen kjenne igjen og foretrekke en høykvalitets realistisk framstilling mens andre vil ønske å drømme seg bort og foretrekker at filmer er larger than life og at hudormene til filmstjerna er glattet ut med aggressiv støyfjerning. 1 Lenke til kommentar
BizzyX78 Skrevet 9. desember 2015 Del Skrevet 9. desember 2015 Ut i fra bildene i artikkelen... Om det var gjort med hensikt eller ikke...,så er det veldig lett å se at skjermen til høyre skiller seg ut. Om det var skjermen med det beste bildet kan jeg ikke svare på...,siden jeg ikke deltok i testen selv. Men ut i fra bildene så er det lett forståelig å skjønne hvorfor så mange valgte den fremfor de andre. Granted... Bildekvaliteten på bildene i artikkelen har selvsagt en god del å si også. En gang i fremtiden når standarden for 8k blir fullbyrdet..., så blir det spennende å se en blindtest mellom TV-2k, TV-4k og TV-8k. TV-2k (1920*1080) = 22,94"(22")(96 DPI) TV-4k (3840*2160) = 45,89"(45")(96 DPI) TV-8k (7680*4320) = 91,79"(91")(96 DPI) Alle skjermbildene er praktisk talt identiske ved overnevnte oppløsninger...,except for the obvious. Størrelsesforskjellen mellom 22,94"(22") og 91,79"(91") er ganske drastisk. Hadde det blitt utført en blindtest på en 91"-TV-8k-skjerm der det blir vist test-materiale i TV-2k-oppløsning, TV-4k-oppløsning og TV-8k-oppløsning. Som en bonus så hadde det vært kult om det hadde blitt tatt med DVD(720*576/480)-testmateriale også. Med det sagt...,så vil jeg...,som andre her på forumet allerede har gjort...,påpeke at det da blir testet både film og stillbilde-materiale i de forskjellige oppløsningene som jeg har nevnt i teksten over. Og at en slik test blir utført ifølge THX-Standardene "THX-I/S Plus" som tilsvarer en sitteavstand 6 Fot (1,828800 Meter), "THX-SELECT-2" som tilsvarer en sitteavstand 10 Fot (3,048000 Meter), "THX-ULTRA-2" som tilsvarer en sitteavstand 12 Fot (3,657600 Meter)...,og Snellen-Test-Standarden som tilsvarer en sitteavstand 20 Fot (6,096000 Meter) Mulig at det bare er meg...,men det hadde vært ineresant å se resultatene av en slik blindtest. PS...: I en lignende test av Data-skjermer med spill også...,på lik linje med stillbilder og film. Dåg i en slik test...,så hadde det vært spennende å se at det hadde blitt tatt med flere oppløsninger. Som f.eks. Kino-2k(2048*1152), Kino-1k(1024*576), TV-1k(960*540), Kino-0,50k(512*288), TV-0,50k(480*270), Kino-0,25k(256*144), TV-0,25k(240*135)...,and anything in between... Som f.eks. H.D-HD(5120*2880),QHD(2560*1440), HD(1280*720), qHD(640*360),.nHD(320*180), pHD(160*90), fHD(80*45). Og at det hadde blitt utført ifølge "THX-Multimedia"-Standarden som tilsvarer en sitteavstand på 28 Tommer (0,711200 Meter). Ok..., I know..., normalt sett så er qHD(960*540) og nHD(640*360)..., but for the sake of argument...så fungerer det bra. Lenke til kommentar
Stevie Ryggen Skrevet 9. desember 2015 Del Skrevet 9. desember 2015 (endret) Bra at noen tar seg bryet med å prøve å teste dette litt mer vitenskapelig enn ren synsing. Jeg må imidlertid påpeke noen svakheter med designet av denne undersøkelsen. For det første er utvalgsstørrelsen noe lav (20 personer er litt lite til å kunne trekke sikre konklusjoner fra). Det andre er at utvalget ikke nødvendigvis er representativt (de representerer et bekvemmelighetsutvalg: folk i nærheten som ønsker å delta). Testresultatene kunne vært annerledes dersom man hadde forsøkt å få inn et større utvalg, som var mer representative for hele den tv-tittende befolkningen (de man ønsker å generalisere resultatene til). I et slikt utvalg hadde det vært naturlig å inkludere eldre (kanskje med redusert syn) og yngre testpersoner. En annen faktor som er en meget vanlig feilkilde, og som også hadde vært enkelt å gjøre noe med, er dette med å forsøke å kontrollere for alle mulige forventningseffekter. En vanlig forventningseffekt som man alltid bør ta høyde for i vitenskapelige eksperimenter, er den såkalte "experimenter expectancy effekt", eller "observer-expectancy" effekten. Det er blant annet denne man forsøker å annulere i såkalte dobbeltblindede RCT-studier som brukes mye innenfor medisin. Dersom en studie er dobbeltblindet innebærer at hverken testpersonen eller eksperimentator / testleder er kjent med betingelsene for studien (i dette tilfellet, hvilken tv-som bruker hvilken teknologi). Dersom eksperimentator kjenner til testbetingelsene kan han/hun la sin egen oppfatning av studieobjektet (hvilken teknologi som er best/ på hvilken av stand) påvirke avgjørelsen til testpersonen(e). Denne effekten kan være svært subtil og virke både bevisst og ubevisst, (altså at eksperimentator selv ikke klar over hvilke signaler han/hun sender ut). Det beste er derfor at de som skal ha kontakt med testpersonene ikke har kjennskap til testens betingelser, eller hypoteser. Ved å bruke egne personer til denne interaksjonen unngår man en SVÆRT viktig feilkilde. I denne studien kan man f.eks tenke seg at testlederen(e) i forkant hadde en oppfatning av hva utfallet av studien ville bli (noe man omtrent alltid har når man holder på med forskning) av at full hd oppfattes like skarpt som 4k på vanlige titteavstander. Uten kontroll over denne effekten blir det dessverre svært vanskelig å tolke resultatene på noen meningsfull måte.Nå har dere riktignok ikke oppgitt spesifikt at undersøkelsen er IKKE er dobbelblindet, men jeg regner med at dere hadde opplyst om at den var dobbeltblindet hvis den hadde vært det. I det hele tatt hadde det vært ønskelig med litt mer informasjon om metoden deres. Men takk for et godt forsøk, som kanskje kan anses som en slags pilotstudie! Hadde vært svært interessant om dere hadde gjennomført undersøkelsen på nytt med litt høyere kvalitetskrav! OBS: kom også på at det i en slik setting hadde vært naturlig å gjennomføre en synstest på deltakerne, både med og uten synskorrigerende hjelpemidler (briller/linser). Selv om mange bruker briller/linser så kan det fort gå lang tid mellom synsundersøkelsene, så det er ikke sikkert at synet er optimalt korrigert. Det hadde dessuten vært naturlig å spørre deltakerne om det var under slike betingelser testpersonene vanligvis så på tv, altså hadde de på seg linser eller briller som de vanligvis benyttet ved tv-titting. Hvis noen hadde glemt hjelpemidler, eller brukte andre hjelpemidler enn vanlig kan det være en feilkilde. Videre: hvor representativt var dette utvalget i forhold til synsevne generelt (hvor stor prosentandel brukte briller/linser i dette utvalget vs prosentandel som bruker slike i befolkningen for øvrig). Videre kunne dere eliminert den feilkilden dere selv benevner med at folk investerer i og forplikter seg til en beslutning (i dette tilfelle valg av hvilken tv som ga skarpest bilde) dersom dere hadde brukt ulike testpersoner i de ulike betingelsene (titteavstander). Med et større utvalg kunne dere ha randomisert ulike testpersoner til å sitte på de ulike avstandende, og da hadde man unngått en slik "øvelseseffekt". For ikke å nevne at dere burde ha kalibrert alle tv-ene skikkelig med ordentlig måleutstyr, for å ha likest mulig utgangspunkt (slik flere har tatt til orde for). Ellers blir dette også en betydelig feilkilde. Og til slutt var det nok heller ingen god løsning å benytte H.264 formatet siden dette ikke er designet for 4K-innhold. Da kommer ikke 4K-innholdet til sin rett. Jeg kjøper forresten poenget deres med Netflix, og variabel bitrate ved streaming, men dette kan man på flere måter ta høyde for ved først å "tvinge" netflix til å spille av i høyeste kvalitet inne på kontoinnstillinger, og deretter ha oppe "info" ved avspilling slik at man kan se bitraten til enhver tid (mulig på flere avspillingsenheter men ikke alle). Endret 9. desember 2015 av Stevie Ryggen 2 Lenke til kommentar
Stevie Ryggen Skrevet 9. desember 2015 Del Skrevet 9. desember 2015 Jeg synes ikke konklusjonen støttes av forsøket. Dere konkluderer med at det er vanskelig å se forskjell, men forsøket viser en sterk bias mot en av skjermene (1080p) Hvis det ikke var mulig å se forskjell burde fordelingen blitt bortimot tilfeldig. Jeg har ikke regnet på det men 14/20 lukter statistisk signifikant noe som innebærer at det var mulig å se forskjell. At det var en bias for å foretrekke den lavere oppløsningen er ikke relevant for å vurdere om det er mulig å se forskjellen. Dette er mer et psykologispørsmål. Jeg vil foreslå et annet eksperimentellt oppsett: Få tre identiske skjermer sett en til 4k, en til nedsamplet 1080p kjør så den siste i enten 4k eller 1080p og be forsøkspersonen si om bildet ligner mest på 4k skjermen eller 1080p skjermen, gjenta 20-40 ganger med tilfeldig valg av om den tredje skjermen viser 4k eller 1080p Greit forslag for så vidt, men jeg tror ikke det er teknisk mulig å gjennomføre. Man kan ikke "nedsample" en 4K-TV. Dvs. en 4K TV har en såkalt "native resolution" i 4K, det vil si antall piksler eller bildepunkter som bildepanelet består av er ikke en variabel som kan manipuleres. Uansett hvilken oppløsning man velger å vise på skjermen (som kun kan styres ut fra kildeenheten) vil skjermen uansett oppskalere bildet til 4K. Lenke til kommentar
Stevie Ryggen Skrevet 9. desember 2015 Del Skrevet 9. desember 2015 Bakgrunn historie: I 2003 laget jeg en excel kalkulator som skulle brukes til å finne optimal sitte avstand basert på DPI (skjerm størrelse vs skjerm oppløsning) Når jeg setter inn test eksemplarene (55" @ 1080 og 55" @ 2160), sier kalkulatoren at: Optimal avstand er :- 2,18 meter for 55" @ 1080 1,09 meter for 55" @ 2160 Klarer ikke å huske matten bak dokumentet (var tydligvis smartere før enn nå - pow! right in the feels), men tror det var hvilken avstand en måtte ha til skjermen for å få optimal utnyttelse av oppløsning ved normalt syn.. Ukens nøtt : Er det noen som klarer å "reverse engineer" denne, og forklare hva jeg tenkte på før? Hvis du har laget dette i excel så burde det være en enkel sak å sjekke hvilke formel du har brukt for å regne det ut? Lenke til kommentar
tommyb Skrevet 9. desember 2015 Del Skrevet 9. desember 2015 Greit forslag for så vidt, men jeg tror ikke det er teknisk mulig å gjennomføre. Man kan ikke "nedsample" en 4K-TV. Dvs. en 4K TV har en såkalt "native resolution" i 4K, det vil si antall piksler eller bildepunkter som bildepanelet består av er ikke en variabel som kan manipuleres. Uansett hvilken oppløsning man velger å vise på skjermen (som kun kan styres ut fra kildeenheten) vil skjermen uansett oppskalere bildet til 4K. 4K-oppløsningen 3840x2160 er 2x1920x2x1080, så man trenger i alle fall ikke gjøre ekstra interpolering eller prosessering. Man trenger bare vise hver hele pixel fra FullHD på 2x2 hele pixler. Det vil naturligvis bli helt annerledes enn dersom man hadde en hel pixel på samme fysiske område, så jeg tviler på resultatet hadde vært spesielt interessant på noen måte. Lenke til kommentar
TKongen Skrevet 9. desember 2015 Del Skrevet 9. desember 2015 HDR finnes jo allerede, som SW oppdatering til nåværende TVer. Det er jo tross alt high digital range. Så det går fint an å legge inn som oppdatering. High Dynamic Range... Jeg vet helt ærlig ikke hva jeg tenkte på der.... Det er selvfølgelig helt riktig med High Dynamic Range. For å få det til derimot, så bruker de digitale virkemidler og behandler bildet. Det er jo slikt det er. Lenke til kommentar
Stevie Ryggen Skrevet 9. desember 2015 Del Skrevet 9. desember 2015 Greit forslag for så vidt, men jeg tror ikke det er teknisk mulig å gjennomføre. Man kan ikke "nedsample" en 4K-TV. Dvs. en 4K TV har en såkalt "native resolution" i 4K, det vil si antall piksler eller bildepunkter som bildepanelet består av er ikke en variabel som kan manipuleres. Uansett hvilken oppløsning man velger å vise på skjermen (som kun kan styres ut fra kildeenheten) vil skjermen uansett oppskalere bildet til 4K. 4K-oppløsningen 3840x2160 er 2x1920x2x1080, så man trenger i alle fall ikke gjøre ekstra interpolering eller prosessering. Man trenger bare vise hver hele pixel fra FullHD på 2x2 hele pixler. Det vil naturligvis bli helt annerledes enn dersom man hadde en hel pixel på samme fysiske område, så jeg tviler på resultatet hadde vært spesielt interessant på noen måte. Ja, det blir vel som retina-skjermen på macbook pro, hvor oppløsningen er halvert i forholdt til "native", såkalt "pixel doubling", for at ikke alt skal bli alt for smått på skjermen. Men det blir jo oppskalert uansett, siden selve displayet har høyere "native" oppløsning. Lenke til kommentar
Simen1 Skrevet 9. desember 2015 Del Skrevet 9. desember 2015 Ja, det blir vel som retina-skjermen på macbook pro, hvor oppløsningen er halvert i forholdt til "native", såkalt "pixel doubling", for at ikke alt skal bli alt for smått på skjermen. Men det blir jo oppskalert uansett, siden selve displayet har høyere "native" oppløsning. Jeg tror du misforstår hva oppskalering innebærer. Å vise et lavoppløst bilde på en høyoppløst skjerm ved hjelp av pikseldobling (2x2) er ikke oppskalering. Oppskalering er en egen algoritme som tolker det lavoppløste bildet og prøver å skape eller gjenskape detaljer som ikke er der. For eksempel ved å tolke linjer i originalbildet og forsøke å glatte ut den hakkede linjen det ville blitt ved ren pikseldobling. En annen måte er at støy eller finkornede detaljer som gress på en fotballbane, forfines kunstig i behandlingen fra lavoppløst til høyoppløst. Oppskalering er altså en måte å tolke og konstruere detaljer som ikke var der i utgangspunktet. Som regel fungerer det bra, mye bedre enn pikseldobling, men ikke så bra som ekte høyoppløste detaljer. Lenke til kommentar
Pseudopod Skrevet 9. desember 2015 Del Skrevet 9. desember 2015 (endret) HDR finnes jo allerede, som SW oppdatering til nåværende TVer. Det er jo tross alt high digital range. Så det går fint an å legge inn som oppdatering. High Dynamic Range... Jeg vet helt ærlig ikke hva jeg tenkte på der.... Det er selvfølgelig helt riktig med High Dynamic Range. For å få det til derimot, så bruker de digitale virkemidler og behandler bildet. Det er jo slikt det er. Høy dynamisk rekkevidde er avhengig av at displayet er i stand til å vise denne høyere dynamiske rekkevidden. Med andre ord den må ha laver minimumslysstyrke og høyere maksimumslysstyrke enn skjermer som sender ordinære bilder. Om dette kan endres med en softwareoppdatering kommer vel veldig an på hver enkelt modell. Om du har digitale virkemidler som gjengir dette på en skjerm som ikke har nødvendige spesifikasjoner, så ender man opp med det man har i dataspill, hvor bildestyrken justeres når du går fra et mørkt til lyst område. Disse spillene har HDR-rendring, men ikke noen måte å vise hele denne dynamiske rekkevidden de rendrer på skjermen samtidig Endret 9. desember 2015 av Pseudopod Lenke til kommentar
TKongen Skrevet 9. desember 2015 Del Skrevet 9. desember 2015 Høy dynamisk rekkevidde er avhengig av at displayet er i stand til å vise denne høyere dynamiske rekkevidden. Med andre ord den må ha laver minimumslysstyrke og høyere maksimumslysstyrke enn skjermer som sender ordinære bilder. Om dette kan endres med en softwareoppdatering kommer vel veldig an på hver enkelt modell. Om du har digitale virkemidler som gjengir dette på en skjerm som ikke har nødvendige spesifikasjoner, så ender man opp med det man har i dataspill, hvor bildestyrken justeres når du går fra et mørkt til lyst område. Disse spillene har HDR-rendring, men ikke noen måte å vise hele denne dynamiske rekkevidden de rendrer på skjermen samtidig Ja, stemmer det. Akkurat som du må ha et kamera med mulighet for ulik eksponering (er det noen som ikke har egentlig?) for å sette dem sammen til ett. LG sin OLED er jo en TV som overgår den vanlige 300 nits. Forsåvidt gjør mange LCD toppmodeller også det. De kan nå ganske høye lysstyrker. Dermed kan du få HDR på dem, som LG har gjort i en SW oppdatering til sin OLED TV. Likevel så jeg på wikipedia at de oppga 0 til 10.000 nits som spekteret for å få full, 100% HDR. Der er vi nok ikke enda, så HDR kommer nok til å bli bedre med OLED teknologien, og en sterk økning i maksimal lysstyrke. OLED klarer jo høyere lysstyrker hvis mindre felt trenger å ha høy lysstyrke. Er hele skjermen hvit, kontra en prikk med hvitt og resten svart kan forskjellen være 2 ganger høyere lysstyrke. Folk klarer jo å måle Samsung AMOLED i alt fra ~350 nits til ~850 nits. Dette vil jo fungere fint for HDR, da bildet i si en film, TV-show ol vil være ved en APL der den fint kan oppnå svært høye verdier i områder, og 0 i andre områder. Sammen med uendelig kontrast. Jeg tror HDR har langt mer potensiale på OLED enn LCD. Lenke til kommentar
misanthrope Skrevet 10. desember 2015 Del Skrevet 10. desember 2015 Nå synes jeg folk skriver mye rart. Det er åpenbart visuell forskjell på 2160P og 1080P - men det spørs også på avstand og hva man leter etter. Oppskalert eller remastered filmer i 4K ser jeg ærlig talt ikke noen forskjell på. De kan faktisk virke kornete, fordi det ser ut som man har forsøkt å fylle tomrommet med piksler uten innhold. Men ekte 4K materiale, f.eks naturvideoer på YouTube, ser man veldig lett forskjell. Det blir som forskjellen mellom å se naturen med egne øyne, eller å se den på video. Skygger, vann, lys, kanter og andre ting som har lett for å komprimeres blir mye mer detaljerte og levende i 4K.Men igjen... det hjelper å sitte nærme skjermen. Lenke til kommentar
tsetsefluen Skrevet 10. desember 2015 Del Skrevet 10. desember 2015 Det som vi ikke har, er 4k-TVer på markedet som har to eller flere hdmi-innganger som er klare for å spille av ekte 4k-underholdning. Nå har vi kun Netflix og ikke dekodere eller bluray-avspiller som kan sende 4k. Dermed så betyr det at deltakerne i testen så bare små forskjeller. Lenke til kommentar
sverreb Skrevet 10. desember 2015 Del Skrevet 10. desember 2015 (endret) Jeg vil foreslå et annet eksperimentellt oppsett: Få tre identiske skjermer sett en til 4k, en til nedsamplet 1080p kjør så den siste i enten 4k eller 1080p og be forsøkspersonen si om bildet ligner mest på 4k skjermen eller 1080p skjermen, gjenta 20-40 ganger med tilfeldig valg av om den tredje skjermen viser 4k eller 1080pGreit forslag for så vidt, men jeg tror ikke det er teknisk mulig å gjennomføre. Man kan ikke "nedsample" en 4K-TV. Dvs. en 4K TV har en såkalt "native resolution" i 4K, det vil si antall piksler eller bildepunkter som bildepanelet består av er ikke en variabel som kan manipuleres. Uansett hvilken oppløsning man velger å vise på skjermen (som kun kan styres ut fra kildeenheten) vil skjermen uansett oppskalere bildet til 4K. Du nedsampler kildematrialet før du sender det til skjermen. I.e. ta orginal 4k kildematriale, nedsample til 1080p, så produserer du 1080p emulerende 4k matriale ved å duplisere pixlene i både høyde og bredde. Du har nå 2 sett med 4k kilder en som har en reell 4k oppløsning og en som gjør at skjermen viser samme oppløsning som en 1080p skjerm. Endret 10. desember 2015 av sverreb Lenke til kommentar
entername Skrevet 10. desember 2015 Del Skrevet 10. desember 2015 Ganske bra test. Det einaste eg ville gjort annarledes var gjerne å flytte på TV-ene og kjørt 2-3 runder på kver avstand. Då vil man fort sitt kem av forsøkskaninene som valgte samme skjerm meir konsekvent. Dette ville igjen gjort det lettare å sjå kem som var i stand til og oppfatte detaljene i bildet. Kjøpte sjøl ny 55" med 4K, men for min del handla det mindre om oppløysningen og meir om andre genskaper. Eksempelvis ville eg gjerne ha HDMI 2.0, ein ekstra kraftig prosessor, Ambilight og meir internminne til Android OS-et. Altso kan man sei at 4K panelet er ein bonus men "smart" funksjonane er det eg egentlig kjøper 1 Lenke til kommentar
entername Skrevet 10. desember 2015 Del Skrevet 10. desember 2015 <blockquote class="ipsBlockquote" data-author="icc" data-cid="22937993" data-time="1449498555"><p>Det hadde vært spennende å visst om man blir mer sliten av å se på UHD eller lavere oppløsninger. Forsåvidt også hvor godt man får med seg det som skjer og til hvilken detalj. Kunne dere ha kjørt kjørt en test som ligner mer på den virkelige verden? Jeg mener, her i huset har vi ikke noen 5k-opptak eller noe lignende med den bitraten, det går stort sett i Netflix og gaming på TVen, og vi merker stor forskjell på om det er vanlig HD eller UHD på Netflix.<p>(For ordensskyld; sitterLinustechtips har ein bra video om dette fenomenet. Det dei fant ut var at YouTube konverterer fila di til en bedre bitrate om du laster opp 4K filer enn om du laster opp 1080p filer. So sjølv om den som speler av fila velger 1080p alternativet vil fortsatt ei fil lasta opp i 4K sjå bedre ut enn ei fil lasta opp i 1080p. For Netflix sin del blir ikkje ting helt det samme ettersom dei sjøl faktisk konverterer deler av katalogen sin frå 1080p innhald til 4K. Noke som YouTube foreløbig ikkje har gjort. Dette blir jo mykje av det samme som TV-en gjer, men potensielt sett med endå bedre sluttresultat ettersom Netflix ikkje gjer det i real-time, som man ser i testen kan denne oppskaleringa faktisk produsere eit bilde som er umulig å skille fra 1080p ved alt anna enn ekstremt tette avstander.kilde: Lenke til kommentar
TKongen Skrevet 10. desember 2015 Del Skrevet 10. desember 2015 Du har sitert feil person her, eller tatt feil tekst i sitatet. Ellers ville jeg ikke akkurat kalt det et fenomen. Det er jo ganske lett. Når du laster opp ved høyere oppløsning, så øker youtube grensen for maksimal bitrate. Du kan ellers ikke konvertere noe til høyere bitrate i dette tilfellet. Lenke til kommentar
tylo Skrevet 12. desember 2015 Del Skrevet 12. desember 2015 Som andre har vært inne på er testmetodikken dere brukte ganske ubrukelig. I en audiotest ville man aldri spurt "hva låter best av disse tre lydklippene?". En korrekt utført ABX test er eneste akseptere testmetode på slike ting og kunne vært følgende: 1. Sett opp 3 identiske 4K skjermer: [A] [X] 2. [A] viser 4K innhold, viser samme oppskalert fra 1080p. 3. [X] viser tilfeldig enten [A] eller innhold. (ingen i rommet skal vite hva [X] viser). Spørsmålet: Hva viser [X]: [A] eller ? Deltakerne må ha 10/10, evt 14/15 riktige for at det skal være høy sannsynlighet for at de ser klar forskjell. 1 Lenke til kommentar
Super-Stian Skrevet 12. desember 2015 Del Skrevet 12. desember 2015 Har dere mulighet for å gjøre denne testen med PC spill? Full-HD vs. 4K? Tror det vil bli helt andre resultater da :-) Lenke til kommentar
Stevie Ryggen Skrevet 16. desember 2015 Del Skrevet 16. desember 2015 (endret) Jeg vil foreslå et annet eksperimentellt oppsett: Få tre identiske skjermer sett en til 4k, en til nedsamplet 1080p kjør så den siste i enten 4k eller 1080p og be forsøkspersonen si om bildet ligner mest på 4k skjermen eller 1080p skjermen, gjenta 20-40 ganger med tilfeldig valg av om den tredje skjermen viser 4k eller 1080pGreit forslag for så vidt, men jeg tror ikke det er teknisk mulig å gjennomføre. Man kan ikke "nedsample" en 4K-TV. Dvs. en 4K TV har en såkalt "native resolution" i 4K, det vil si antall piksler eller bildepunkter som bildepanelet består av er ikke en variabel som kan manipuleres. Uansett hvilken oppløsning man velger å vise på skjermen (som kun kan styres ut fra kildeenheten) vil skjermen uansett oppskalere bildet til 4K. Du nedsampler kildematrialet før du sender det til skjermen. I.e. ta orginal 4k kildematriale, nedsample til 1080p, så produserer du 1080p emulerende 4k matriale ved å duplisere pixlene i både høyde og bredde. Du har nå 2 sett med 4k kilder en som har en reell 4k oppløsning og en som gjør at skjermen viser samme oppløsning som en 1080p skjerm. Som nevnt så vil ikke det fungere, ettersom 4k-skjermen automatisk oppskalerer 1080p-materialet for å kunne vise det på bildepanelet. Altså kildematerialet vil riktignok være i 1080p, men testen vil da være å avgjøre forskjellen mellom ekte 4k videomateriale vist på en 4k skjerm, og 1080p materiale vist på en 4k-skjerm (oppskalert). Det er ikke mulig å "skru av"/deaktivere oppskalering i en tv-skjerm. En UHDTV består av et bildepanel på 3840 x 2160 bildepunkter/piksler. Dette er en fysisk egenskap / hardware. For å kunne vise et bilde på 1080p MÅ bildet oppskaleres. Det blir derfor ikke det samme som å vise et 1080p-bilde på en 1080p skjerm. Et 1080p-bilde på en 1080p skjerm består av 1920 x 1080 bildepunkter, mens et 1080p-bilde på en 4K/UHDTV-skjerm består av 3840 x 2160 bildepunkter. Det blir for omfattende å forklare i detalj hvordan oppskalering foregår, men ta en titt på denne artikkelen om oppskalering av 1080p-innhold på 4K-TVer: (http://www.rtings.com/tv/learn/4k-ultra-hd-uhd-vs-1080p-full-hd-tvs-and-upscaling-compared). Hvis en 4K-TV skulle forsøkt å vise et 1080p bilde uten å oppskalere det hadde det blitt store sorte kanter rundt bildet, ettersom det bare ville fylt en mindre sektor av skjermen. Endret 16. desember 2015 av Stevie Ryggen Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå