Gå til innhold

Fjernsynssendinger i HDR


Anbefalte innlegg

Videoannonse
Annonse

Det er jo en besnærende tanke, men først må vi jo få kabelselskapene til å slutte å komprimere fargene. Det er mange stygge fargeskjolder å se i dagens kabeloverførte digitale TV, både med Canal Digital og Get.

Lenke til kommentar

Hvorfor tar det så mye større plass egentlig? Har bare prøvd HDR innen foto, og da ender jo sluttresultatet opp med ei fil som er ca like stor som de andre. Så kan man jo bare slette originalbildene man har brukt til å lage HDR-bildet med.

Lenke til kommentar

Hvorfor tar det så mye større plass egentlig? Har bare prøvd HDR innen foto, og da ender jo sluttresultatet opp med ei fil som er ca like stor som de andre. Så kan man jo bare slette originalbildene man har brukt til å lage HDR-bildet med.

Også innen foto tar HDR ekstra plass. Hvis du ender opp med noe som er omtrentlig like stort, så tyder jo det på at du enten ikke egentlig driver med HDR, men med tone-mapping eller CDR/CHDR (compressed dynamic range/compressed high dynamic range).

Lenke til kommentar

Hvorfor tar det så mye større plass egentlig? Har bare prøvd HDR innen foto, og da ender jo sluttresultatet opp med ei fil som er ca like stor som de andre. Så kan man jo bare slette originalbildene man har brukt til å lage HDR-bildet med.

Også innen foto tar HDR ekstra plass. Hvis du ender opp med noe som er omtrentlig like stort, så tyder jo det på at du enten ikke egentlig driver med HDR, men med tone-mapping eller CDR/CHDR (compressed dynamic range/compressed high dynamic range).

høres sånn ut ja, men det jeg lurer på er; er ikke grunnen til at man må gjennom den prosessen at det ikke finnes skjermer som klarer å vise ekte HDR? så selvom de ekte HDR-filene tar ekstra plass, hvordan skal vi få brukt dem til no i sin "opprinnelige" form?

Lenke til kommentar

høres sånn ut ja, men det jeg lurer på er; er ikke grunnen til at man må gjennom den prosessen at det ikke finnes skjermer som klarer å vise ekte HDR? så selvom de ekte HDR-filene tar ekstra plass, hvordan skal vi få brukt dem til no i sin "opprinnelige" form?

Janeitjo.

 

Det finnes skjermer som kan vise EDR (extended dynamic range), det finnes skjermer som kan vise flere farger enn de en gammel TV kan, og det er stor variasjon mellom en billig LCD og en dyr med justerbare LED-baklys.

 

I tillegg finnes det utstyr for trykk som gir fargerom og dynamisk omfang som er annerledes/større enn det som kan vises på skjerm.

 

Men hensikten med HDR er ikke bare å vise alt samtidig, det kan også være å få til et bilde med høyest mulig kvalitet og lavest mulig bildestøy, se f.eks. Guillermo Lujiks "Zero Noise".

Lenke til kommentar

Hvorfor tar det så mye større plass egentlig? Har bare prøvd HDR innen foto, og da ender jo sluttresultatet opp med ei fil som er ca like stor som de andre. Så kan man jo bare slette originalbildene man har brukt til å lage HDR-bildet med.

Også innen foto tar HDR ekstra plass. Hvis du ender opp med noe som er omtrentlig like stort, så tyder jo det på at du enten ikke egentlig driver med HDR, men med tone-mapping eller CDR/CHDR (compressed dynamic range/compressed high dynamic range).

Jeg setter sammen 3 ulike bilder til ett bilde. De 3 bildene er til sammen 70 MB, men tror ikke HDR-bildet tok noe mer plass enn 30, noe som er omtrent det samme som ett av de andre (rundt 23 MB pr stk). Det er hvertfall ikke samme størrelsesforhold som de nevner i artikkelen her(HDR: 42, vanlig: 9)

Lenke til kommentar

LCD-paneler klarer som regel å utnytte litt mer enn de 8 bitene per farge de har tilgjengelig fra HDMI, DVI osv. Det gjør at man kan kalibrere fargene uten å miste fargenivåer. De beste LCd-skjermene (Eizo Coloredge-serien) klarer reelt sett opp mot 11-12 bit per farge. Altså rundt 8-16 ganger flere fargenivåer enn HDMI og DVI kan levere.

 

Jeg synes det er en god idé å utnytte potensialet i flere fargenivåer, men man bør tenke på en del ting før man lager en HDR-standard for kabeloverføring, videoformat osv. TVenes kontrast økes ikke av HDR-signaler. Det er ikke noe problem å utnytte hele kontrastområdet i dag med dagens signaler. Det er bare å justere kontrastnivået via menyen på TVen. HDR går ut på å få flere farnenivåer mellom ytterpunktene lysest og mørkest.

 

Dagens signaler bruker allerede ganske stor båndbredde og man bør ikke øke dette veldig mye. Det vil si at det trengs smartere metoder for å øke antall fargenivåer enn å doble antall bit per farge, noe som forsåvidt er totalt overkill i forhold til det øyet kan oppfatte. Særlig i en normal stue med vanlige folk som ikke har trent øyet og hjernen i å se forskjell på ørsmå fargenyanser.

 

Problemet med dagens signaler er etter min mening at de er lineære i forhold til lysstyrke. Det er bakgrunnen for at fotografene bruker ETTR-teknikken. I mørke områder av bildet er det få sigifikante bit å beskrive fargene med, mens i lyse områder er det svært mange signifikante bit brukt per farge. Det gjør at det blir grove fargenivåer mellom ulike mørke farger, ofte oppfattet som grøtete sortfarge, mens lyse farger har usynlig små forskjeller mellom nærliggende farger. Jeg mener problemet kan løses ved å ha en ulineær skala for fargene slik at mørke områder blir beskrevet bedre på bekostning av lyse områder. Altså å forbedre der problemet er reelt og forverre der det er mye å gå på før det er merkbart.

 

Men da må hele signalgangen fra kamera, via redigering, lagring, distribusjon og ut på TVen støtte det ulineære systemet og helst både utnytte dagens skjermer og ha potensiale for litt mer. F.eks 12 bit per farge, ulineært. En ulempe er at plassen ikke vil øke lineært med antall bit på grunn av økende "entropi" i videoformatet. Man kan kanskje regne med at det nye systemet vil bruke 3-4 ganger mer plass per minutt enn dagens format.

 

Jeg håper ikke HDR gjør at produsentene glemmer å forbedre antall bilder per sekund i samme slengen. Det synes jeg er et større problem enn mangel på HDR. 30p eller 60i synes jeg er for lite. Det burde vært minst 60p også på full HD-oppløsning. Gjerne ennå mer og et tall som går opp i enten 50 eller 60 for å unngå flimring fra f.eks lysrør på film. 100p hadde vært fint for film tatt opp i europa (50 Hz lysflimring) og 120p for film tatt opp i USA (60Hz lysflimring). Både lagringsmediet, formatet og skjermen burde kunne justere antall bps til den videoen som blir spilt av. Da slipper man å tenke på at bps på skjermen bør ha et stort felles multiplum for å takle alle bps fra lagringsmediet.

  • Liker 1
Lenke til kommentar

Personlig hadde jeg nok heller ønsket at denne ikke-linæere varianten tas hånd om i komprimeringen i siste ledd. Det har skapt trøbbel før med slike ikke-ineære varianter som brukes igjennom hele produksjonen, og TV-bransjen er så treg at gamle standarder blir hengende igjen å forpeste i lang lang tid.

 

AtW

Lenke til kommentar

Jeg setter sammen 3 ulike bilder til ett bilde. De 3 bildene er til sammen 70 MB, men tror ikke HDR-bildet tok noe mer plass enn 30, noe som er omtrent det samme som ett av de andre (rundt 23 MB pr stk).

Flertallet av "anekdote" er ikke "bevis", men 30 MB er fortsatt signifikant mer enn 23.

 

Det er hvertfall ikke samme størrelsesforhold som de nevner i artikkelen her(HDR: 42, vanlig: 9)

Nei, men i artikkelen står det spesifikt om utstyret som akademikeren har brukt. Det kan tenkes at det har mindre effektiv komprimering (eller ingen komprimering!), at artikkelen gjengir originalmaterialet upresist (shock! horror!), eller at det er andre forhold vi ikke kjenner som spiller inn.

 

HDR er dessverre et begrep som er så utvannet og flertydig brukt at det ikke er en presis angivelse av hva teknologien egentlig innebærer.

 

Men se http://www.fxguide.com/article556.html for informasjon om HDRv, som visstnok er teknologien som brukes her.

Lenke til kommentar

Hvorfor tar det så mye større plass egentlig? Har bare prøvd HDR innen foto, og da ender jo sluttresultatet opp med ei fil som er ca like stor som de andre. Så kan man jo bare slette originalbildene man har brukt til å lage HDR-bildet med.

Også innen foto tar HDR ekstra plass. Hvis du ender opp med noe som er omtrentlig like stort, så tyder jo det på at du enten ikke egentlig driver med HDR, men med tone-mapping eller CDR/CHDR (compressed dynamic range/compressed high dynamic range).

Jeg setter sammen 3 ulike bilder til ett bilde. De 3 bildene er til sammen 70 MB, men tror ikke HDR-bildet tok noe mer plass enn 30, noe som er omtrent det samme som ett av de andre (rundt 23 MB pr stk). Det er hvertfall ikke samme størrelsesforhold som de nevner i artikkelen her(HDR: 42, vanlig: 9)

 

Etter det jeg vet så er ett HDR bilde 32-bit og ingen skjermer kan vise dette. Det er først etter tone-mappingen og omgjøring til 16-bit som får fram bildet.

 

32-bits HDR-fil = SVÆR fil.

Lenke til kommentar

Jeg synes det er en god idé å utnytte potensialet i flere fargenivåer, men man bør tenke på en del ting før man lager en HDR-standard for kabeloverføring, videoformat osv. TVenes kontrast økes ikke av HDR-signaler. Det er ikke noe problem å utnytte hele kontrastområdet i dag med dagens signaler. Det er bare å justere kontrastnivået via menyen på TVen. HDR går ut på å få flere farnenivåer mellom ytterpunktene lysest og mørkest.

Dette blir muligens filosofisk, men poenget med HDR er vel å tillate mer dynamikk i signalet. Pga begrensninger i kamera, formater og display så begrenses dynamikken i dag vanligvis ved å klippe i begge ender.

Dagens signaler bruker allerede ganske stor båndbredde og man bør ikke øke dette veldig mye. Det vil si at det trengs smartere metoder for å øke antall fargenivåer enn å doble antall bit per farge, noe som forsåvidt er totalt overkill i forhold til det øyet kan oppfatte. Særlig i en normal stue med vanlige folk som ikke har trent øyet og hjernen i å se forskjell på ørsmå fargenyanser.

Jeg tror at Microsoft har ting for å komprimere lossy HDR bilder. Man kan antagelig utnytte og utvide mange av de teknikkene som har fungert greit for LDR bilder/video. Som du sier så burde ikke fornuftig komprimert HDR ta så fryktelig mye mer båndbredde enn fornuftig komprimert LDR.

Problemet med dagens signaler er etter min mening at de er lineære i forhold til lysstyrke. Det er bakgrunnen for at fotografene bruker ETTR-teknikken. I mørke områder av bildet er det få sigifikante bit å beskrive fargene med, mens i lyse områder er det svært mange signifikante bit brukt per farge. Det gjør at det blir grove fargenivåer mellom ulike mørke farger, ofte oppfattet som grøtete sortfarge, mens lyse farger har usynlig små forskjeller mellom nærliggende farger. Jeg mener problemet kan løses ved å ha en ulineær skala for fargene slik at mørke områder blir beskrevet bedre på bekostning av lyse områder. Altså å forbedre der problemet er reelt og forverre der det er mye å gå på før det er merkbart.

 

Men da må hele signalgangen fra kamera, via redigering, lagring, distribusjon og ut på TVen støtte det ulineære systemet og helst både utnytte dagens skjermer og ha potensiale for litt mer. F.eks 12 bit per farge, ulineært. En ulempe er at plassen ikke vil øke lineært med antall bit på grunn av økende "entropi" i videoformatet. Man kan kanskje regne med at det nye systemet vil bruke 3-4 ganger mer plass per minutt enn dagens format.

Hva mener du med "dagens systemer"? Alle LDR-systemer (så som PC-bildet du ser på nå, JPEG, MPEG1,2,4, tv-sendinger,etc) benytter seg av ulineær enkoding av lysstyrke. Dette kalles gamma. Dette gjør at man med dagens 8 bit enkoder noe som perseptuelt ville kreve 12 bit eller noe slikt lineært.

 

http://www.poynton.com/PDFs/GammaFAQ.pdf

At a particular level of adaptation, human vision responds to about a

hundred-to-one contrast ratio of intensity from white to black. Call these

intensities 100 and 1. Within this range, vision can detect that two intensities

are different if the ratio between them exceeds about 1.01, corresponding

to a contrast sensitivity of one percent.

To shade smoothly over this range, so as to produce no perceptible steps,

at the black end of the scale it is necessary to have coding that represents

different intensity levels 1.00, 1.01, 1.02, and so on. If linear light coding is

used, the “delta” of 0.01 must be maintained all the way up the scale to

white. This requires about 9,900 codes, or about fourteen bits per component.

If you use nonlinear coding, then the 1.01 “delta” required at the black

end of the scale applies as a ratio, not an absolute increment, and

progresses like compound interest up to white. This results in about 460

codes, or about nine bits per component. Eight bits, nonlinearly coded

according to Rec. 709, is sufficient for broadcast-quality digital television

at a contrast ratio of about 50:1.

 

-k

Endret av knutinh
Lenke til kommentar

Jeg håper ikke HDR gjør at produsentene glemmer å forbedre antall bilder per sekund i samme slengen. Det synes jeg er et større problem enn mangel på HDR. 30p eller 60i synes jeg er for lite. Det burde vært minst 60p også på full HD-oppløsning. Gjerne ennå mer og et tall som går opp i enten 50 eller 60 for å unngå flimring fra f.eks lysrør på film. 100p hadde vært fint for film tatt opp i europa (50 Hz lysflimring) og 120p for film tatt opp i USA (60Hz lysflimring). Både lagringsmediet, formatet og skjermen burde kunne justere antall bps til den videoen som blir spilt av. Da slipper man å tenke på at bps på skjermen bør ha et stort felles multiplum for å takle alle bps fra lagringsmediet.

Husk at hver gang du dobler fps, må man også doble lysmengden. Så 100fps krever altså to stop mer lys enn 25fps. Personlig synes jeg 24fps er tilstrekkelig for spilelfilmer - iallefall om man ser på en TV som har har oppdateringsfrekvens som er delelig med 24 (altså helst 2448Hz, men 72, 96 og 120Hz fungerer også), eller på kino. Også kinofremviserene må ~firedoble lyset hvis de skal vise 100fps film kontra 24fps. 24fps er dog helt skrekkelig å se på en TV som ikke takler det på en grei måte, det kan jeg være den første til å innrømme.

 

Tror ikke gevinsten ved å gå såpass mye opp på fps ved framvisning er stor nok til at det kommer til å skje med det første. Først må isåfall høy-isoytelsen bedres betraktelig - siden firedobling av lysmengde i studioene neppe er aktuellt. Så må det lages kinofremvisere/prosjektorer som gir ut fire ganger så mye lys over lengre tid. For å ikke snakke om mengden filmruller som må sendes rundt om, allerde i dag er en typisk kinofilm fire-fem-seks ruller lang. Tror neppe det skjer før storparten av kinoene i verden er digitale, og til og med da kommer neppe alle til å støtte så høy fps.

 

Personlig synes jeg oppgraderinga av de norske kinoene som skjer nå er katastrofedårlig - de aller fleste kinoene får 2k-prosjektorer mens 4k burde vært minimum, særlig siden det ikke er sååå mye dyrere. Heldigvis kan vistnok prosjektorene oppgraderes til 4k etterhvert. Digital kino er dog et stort løft, siden cinematografene (på Mo iallefall) nok må være fulle på jobben - snart slipper de iallefall å spleise sammen filmruller for hver film.

Endret av Ole_Gunnar
Lenke til kommentar

Etter det jeg vet så er ett HDR bilde 32-bit og ingen skjermer kan vise dette. Det er først etter tone-mappingen og omgjøring til 16-bit som får fram bildet.

 

32-bits HDR-fil = SVÆR fil.

Det der var jo rimelig upresist, men det passer jo rett inn i den løselige omgangen med begrepet som finnes på nettet generelt.

 

HDR-pixler kan representeres med 16 bits per kanal (bpc) per pixel, 32 bpc, 48 bpc – henholdsvis 48, 96 eller 144 bits per pixel (bpp) – eller hva du måtte ønske som er mer enn "vanlig" dynamisk omfang, og du vil fortsatt ha dine ord i behold om du kaller formatet for HDR.

 

Så finnes det da også en drøss med HDR- eller EDR-filformater.

 

Rent teknisk sett er det nok bedre å snakke om hvor mange størrelsesordener intensitetsforskjeller (EV) som kan gjengis troverdig uten for mye tap av informasjon eller støy.

 

Wikipedias artikkel om HDRI er ikke akkurat supertydeliggjørende, men gir nå et visst overblikk likevel.

Lenke til kommentar

@Ole_Gunnar:

Spørsmålet må vel heller bli om kinoene har noe grunnlag å leve av, etter at vi har fått så mange andre måter å få sett film på.

 

- TV-sendinger om en har nok antall kanaler å velge mellom har typisk noen bedre filmer å vise per uke.

 

- DVD/Blueray leverer mye film per i dag.

 

- Streaming via Internett er jo ingen umulighet i dag.

 

- Piratkopiering via ymse fildelingsnettverk må vel også tas med i regnestykket over distributører av film (om enn så ulovlig).

Lenke til kommentar

.

.

Problemet med dagens signaler er etter min mening at de er lineære i forhold til lysstyrke. Det er bakgrunnen for at fotografene bruker ETTR-teknikken. I mørke områder av bildet er det få sigifikante bit å beskrive fargene med, mens i lyse områder er det svært mange signifikante bit brukt per farge. Det gjør at det blir grove fargenivåer mellom ulike mørke farger, ofte oppfattet som grøtete sortfarge, mens lyse farger har usynlig små forskjeller mellom nærliggende farger. Jeg mener problemet kan løses ved å ha en ulineær skala for fargene slik at mørke områder blir beskrevet bedre på bekostning av lyse områder. Altså å forbedre der problemet er reelt og forverre der det er mye å gå på før det er merkbart.

 

Men da må hele signalgangen fra kamera, via redigering, lagring, distribusjon og ut på TVen støtte det ulineære systemet og helst både utnytte dagens skjermer og ha potensiale for litt mer. F.eks 12 bit per farge, ulineært. En ulempe er at plassen ikke vil øke lineært med antall bit på grunn av økende "entropi" i videoformatet. Man kan kanskje regne med at det nye systemet vil bruke 3-4 ganger mer plass per minutt enn dagens format.

.

.

.

Tror du har ganske ret. :thumbup: En logaritmisk tilgang (som vi jo har i tonessytem) er nok meget tættere på hvordan øjet/hjernen biofysisk er skruet sammen.

Tror det ville betyde at man kunne få MEGET mere 'naturlig' information ud af de samme bit.

Og hvis man så ovenikøbet starter med at have en information om gennemsnitsniveau af billede (jvf vores pupiller der udvides efter lyset), og så bruge alle data bit som relativt til dette gennemsnit, så tror jeg vi nærmere os noget meget mere naturligt

 

Det kunne være sjovt hvis nogen havde et billede lavet med fx 20 bit per kanal, og så tage logaritmen af samtlige punkter, og så hårdt skære det ned til fx 6 bit(!) i forhold til 'gennemsnitspunkt' og derefter lave tilbage til normalt signal (exponential funktion) og så se hvor meget/lidt billedet var blevet forringet.

Man kunne så samenligne det med det originale billede reduceret til 6 bit per kanal.

 

Men det er jo en større revolution der skal til, hvis vi skal have indført en hel ny standard for transport/lagring af billedsignaler.

 

Når vi er i gang, så skal man vel også have ændret for bevægelse, så der bliver brugt flere billeder per sekund ved hurtige bevægelser end ved langsomme. Med lidt buffering, vil det nok kunne gå op med nogenlunde samme datamængde i gennemsnit.

Lidt som det system sony m.fl. (over 10 år efter jeg foreslog dem det!) indførte på CD-walkman, hvor data læses ind med den faktiske øjeblikkelige rotationshastighed, i stedet for at spilde strøm på at kæmpe for at holde rotationshastigheden konstant. I gennemsnit er det jo det samme, og der bruges ikke mere strøm end hvis den lå på et bord!

Måske man ligefrem kan lave det så data-hastigheden er forskellig for forskellige dele af billedet. Tænk på racerbane. Bilerne bevæger sig hurtigt i forhold til billedet, men kamera oftest langsomt i forhold til banen.

:)

Lenke til kommentar
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...