Gå til innhold

Krangletråd for akademiske foto-relaterte diskusjoner.


Anbefalte innlegg

Four Thirds har mange fordeler (og for den del ulemper) - har skrevet om dette tidligere:

Det Olympus' objektiver gir er en veldig god ytelse i forhold til størrelsen. De har en liten fatning, og trenger ikke tegne så stor bildesirkel. De kan lages små og kompakte (spesielt micro four thirds-objektivene), og med høye blendertall, med veldig god ytelse i forhold til størrelse og vekt.

(..)

En stor fordel 43 har er at fatningen er designet for den mindre bildesirkelen og sensoren - Nikon, Canon, Sony, Pentax m.fl. har fatninger designet for fullframe-sensor på cropsensor-objektivene sine, så mange av objektivene blir større og tyngre enn nødvendig. Vel - det har ikke noe å si for objektivene som har så stor blender at objektivene må være så store uansett, men flere objektiver er større enn de egentlig "behøver" å være, på grunn av den store fatningen.

Lenke til kommentar
  • 5 måneder senere...
Videoannonse
Annonse

Diskusjon om sensorstørrelse og støy, hentet fra tråd om Nikon nye "Nikon 1"-system.

 

Jeg har fortsatt ikke helt skjønt det der med støy og sensorstørrelse, kan noen forklare meg hva som er feil i følgende resonnement.

 

1. Jeg har en fullframe-sensor på 10 Megapixler, på iso 1600 så er 10% av pixlene støy.

2. Jeg klipper av 1/4 av sensoren, jeg har nå 2.5 megapixler, 10% av pixlene er støy.

3. jeg klager en 2crop-sensor med samme teknologi, den er 2,5 megapixler, vil ikke denne være eksakt lik som sensoren jeg lagde ved å klippe ut en fjerdepart punkt 2? Er ikke forskjellen på Fullframe og crop sensoren man kan få? Burde ikke støyen bli den samme? Burde ikke bildet bli som et utsnitt fra ett fullframebilde?

 

AtW

Ikke "10% av pikslene er støy", men heller "pikslene er 10% støyete" eller lignende.

Og svaret på spørsmålene er "Ja, det blir eksakt det samme om du cropper eller bruker cropsensor, og det er like mye støy pr piksel i alle tre eksemplene."

 

Men - mengden støy det er per piksel i forhold til størrelsen på hele bildet vil endre seg fra 10Mpx-bildet til 2.5Mpx-bildet. En støy-artifakt som er fem piksler i diameter vil dekke et fire ganger så stort område på det lille bildet enn på det store bildet i forhold til hele bildestørrelsen. På den store sensoren vil støyen nesten ikke være synlig alene, men hvis man hadde croppet enda mer, til 6x4 piksler, så ville støyflekken dekket hele bildet, fra hjørne til hjørne.

 

Men igjen - ting endrer seg ikke fra det croppede bildet til bildet fra crop-sensoren - de vil være identiske i alle henseender.

 

 

Edit: Hadde også bildeeksempler forrige gang jeg forsøkte å forklare deg det.

 

 

Man kan eventuelt si at "10% av pikslene har 100% støy" på det store bildet. Og det samme vil gjelde på det croppede bildet. Men - skalerer man så det store bildet så det blir like stort som det croppede bildet, så vil forenklet hvert av de 10% "100% støy"-pikslene få selskap av tre piksler uten støy i skaleringen, og dermed blir det skalerte bildet et bilde hvor 10% av pikslene har 25% støy.

Dette kan du se tydelig illustrert i bildene mine i tråden jeg linker til over.

Og derfor er det "mindre støy" i det store bildet enn i det croppede bildet - hvert støypunkt er mindre i forhold til hele bildet.

 

Problemet med bildeeksemplet, som jeg var inne på forrige gang, er at jeg er usikker på hvor godt det representerer realitetene. SOm jeg var inne på da, så er oppløsningen ikke spesielt høy, og delen av bildet der støy er mest iøyenfallene er forstørret. En gitt støyartikfakt vil dekke en større del av arealet, men det vil jo også være mye færre støyartifakter. Jeg skjønner jo at støy blir tydelig om man feks bare har 10 pixler, og en av de er støy, men er den ekstreme grenseverdien representativ for mere normale oppløsningsområder? Det er litt vanskelig for meg å forestille seg, fordi kvaliteten allerede er så ekstremt forringet med så lav oppløsning.

 

Jeg skjønner ikke helt logikken din i skaleringseksemplet ditt? Kan du forklare det en gang til?

 

Men uansett; vil ikke følgen av dette resonnementet være at vi bør lage sensorer med høyest mulig oppløsning, fordi da vil vi i mindre grad oppfatte støyen ved høy ISO? Strider ikke dette litt mot det som vanligvis blir sagt?

 

AtW

 

 

Dropp hele konseptet ditt om "10% av pikslene har støy" - det er det som forvirrer deg.

 

Tenk heller støyen som stygge flekker som kan dekke en eller flere piksler. Tar du et bilde på 5000 piksler i bredden med en støyflekk som er 10 piksler bred dekker flekken 0.2% av bildebredden. Cropper du ned til 2500 piksler i bredden, så dekker støyflekken 0.4% av bildebredden. Det blir altså mer støy i forhold til hele bildet - hele bildet får dårligere signal/støy-ratio når du cropper inn, selv om hvert piksel ikke får det.

Hvis du skalerer bildet på 5000 piksler ned til 2500 piksler, så blir støyen mindre, bare 5 piksler bred, og dekker fremdeles bare 0.2% av bildebredden.

Det er dette du ser når jeg i bildeeksemplene mine - når jeg nedskalerer i steden for å croppe, så blir støyen mindre i forhold til hele bildet.

 

Du kan godt også tenke deg at man cropper enda mer ned - til 250 (20x crop) piksler. Da dekker flekken fremdeles 10 piksler - men er nå hele 4% av bildebredden!!

Hvis vi derimot skalerer bildet på 5000px ned til 250 piksler bredt, så blir flekken kun 0.5 piksler bred, eller med andre ord en utydelighet som ikke en gang dekker en piksel, men heller at en piksel i riktig farge er litt lysere eller mørkere en den skulle vært - flekken dekker fremdeles bare 0.2% av bildebredden, i stedet for den inncroppede kjempeflekken på 4%.

 

 

 

Og - så blir ikke følgen av resonnementet at vi nødvendigvis bør lage sensorer med høyest mulig oppløsning - følgen av resonnementet blir derimot at støyflekkene bør være så små som mulig i forhold til størrelsen av bildet. Hvis du har en støyflekk to piksler bred på en sensor med 5000 piksler i bredden, en støyflekk to piksler bred på en sensor med 2500 piksler i bredden og en støyflekk en piksel bred på en sensor med 2500 piksler i bredden, så er det førstnevnte og sistnevnte som er attråverdig - så er støyen mindre i forhold til hele bildebredden. Det er irrelevant hvor stor støyen er i piksler - det viktige er hvor stor den er i forhold til størrelsen på hele bildet!

Endret av Trondster
Lenke til kommentar

Så spørs det så klart om støyen er ukorrelert mellom nabopiksler, og om mindre piksler nødvendigvis betyr at "støyflekken" blir mindre ;)

 

Bortsett fra det, så orker jeg egentlig ikke noen lengre diskusjon, men jeg skal bare dra frem denne tråden igjen. Støy er ikke bare støy, og størrelse på fotodioder (og andre elementer som tverrsnitt av kretsbaner etc.) kan ha en del å si for sensorstøy og termisk støy, selv om det ikke har noe å si for fotonstøy.

Lenke til kommentar

Svar på dette innlegget fra Atw: Med utgangspunkt i en fullformatsensor og en 2x crop sensor med samme aspektratio vil arealforskjellen være 4 ganger. Signalet (totalt fanget lysmengde) vil være 4 ganger større på den største sensoren. Men støynivået vil være f.eks 10% for hver piksel uansett sensorstørrelse. S/N-ratio vil altså bli 4 ganger bedre på den store sensoren. Per piksel eller per megapiksel blir det likt, men for den totale bildeflaten får man mer signal med en stor sensor enn med en liten.

 

Ta gjerne samme eksempel og skaler bildet fra den store sensoren på PCen sånn at 4 piksler blir til 1. Støyen reduseres til 1/4 ved at man tar gjennsomsnittsverdien av 4 piksler. (Jo flere målepunkter man har med en gitt statistisk støy jo sikrere blir det statistiske resultatet). Prøver man dette i praksis sitter man igjen med to bilder med samme oppløsning, men der det ene har 1/4 av støynivået. Skriver man ut begge bildene i samme (store) størrelse vil man kunne se forskjell.

Endret av Simen1
Lenke til kommentar

Så spørs det så klart om støyen er ukorrelert mellom nabopiksler, og om mindre piksler nødvendigvis betyr at "støyflekken" blir mindre ;)

 

Bortsett fra det, så orker jeg egentlig ikke noen lengre diskusjon, men jeg skal bare dra frem denne tråden igjen. Støy er ikke bare støy, og størrelse på fotodioder (og andre elementer som tverrsnitt av kretsbaner etc.) kan ha en del å si for sensorstøy og termisk støy, selv om det ikke har noe å si for fotonstøy.

Mitt innlegg var først og fremst (forsøkt å være) en enkel forklaring på hvorfor støy blir mindre tydelig når støyen er mindre i forhold til hele bildet, og hvorfor støy fra to forskjellige sensorstørrelser med samme pikseltetthet derfor oppleves som mindre støyende på den større sensoren. :)

Endret av Trondster
Lenke til kommentar

tech8: Bilder finner du som sagt i haugevis på nett. Gode sammenlignbare bilder side ved side fra ulike kamera kan jeg dessverre ikke hjelpe deg med og det er ikke så veldig lett å finne på nett heller.

 

Ingen vits i å gjøre det så komplisert. Er jo bare velge ut noen bilder du er svært godt fornøyd med.

Det er muligens flere enn meg som kunne være interessert i se bilder fra en av de mest aktive på forumet, og som har tildels sterke meninger om teknisk bildekvalitet, og ofte kommer med råd til kjøp av utstyr.

Ikke meningen å presse på her, men så lenge egenproduserte bilder ikke er tilgjengelig, føler jeg det blir som å høre på råd fra en ingeniør og ikke fra en fotograf. Selv har jeg publisert bilder her med middelmådig teknisk kvalitet uten å skamme meg over det, så listen er lagt lavt uansett.

Endret av tech8
Lenke til kommentar

 

 

 

Dropp hele konseptet ditt om "10% av pikslene har støy" - det er det som forvirrer deg.

 

Tenk heller støyen som stygge flekker som kan dekke en eller flere piksler. Tar du et bilde på 5000 piksler i bredden med en støyflekk som er 10 piksler bred dekker flekken 0.2% av bildebredden. Cropper du ned til 2500 piksler i bredden, så dekker støyflekken 0.4% av bildebredden. Det blir altså mer støy i forhold til hele bildet - hele bildet får dårligere signal/støy-ratio når du cropper inn, selv om hvert piksel ikke får det.

Hvis du skalerer bildet på 5000 piksler ned til 2500 piksler, så blir støyen mindre, bare 5 piksler bred, og dekker fremdeles bare 0.2% av bildebredden.

Det er dette du ser når jeg i bildeeksemplene mine - når jeg nedskalerer i steden for å croppe, så blir støyen mindre i forhold til hele bildet.

 

Du kan godt også tenke deg at man cropper enda mer ned - til 250 (20x crop) piksler. Da dekker flekken fremdeles 10 piksler - men er nå hele 4% av bildebredden!!

Hvis vi derimot skalerer bildet på 5000px ned til 250 piksler bredt, så blir flekken kun 0.5 piksler bred, eller med andre ord en utydelighet som ikke en gang dekker en piksel, men heller at en piksel i riktig farge er litt lysere eller mørkere en den skulle vært - flekken dekker fremdeles bare 0.2% av bildebredden, i stedet for den inncroppede kjempeflekken på 4%.

 

Jeg kan godt droppe konseptet med 10% av pixlene har søty, om du klarer å overbevise meg om at det faktisk er feil. Eksemplet ditt er jo greit nok, men du går utifra kun ett støyområde, hvorfor blir ikek antallet "støyflekker" også 1/4 når du har en 1/4 så stor sensor? Hvorfor skal man ha like mange "flekker" på en mindre sensor?

 

AtW

Lenke til kommentar

Svar på dette innlegget fra Atw: Med utgangspunkt i en fullformatsensor og en 2x crop sensor med samme aspektratio vil arealforskjellen være 4 ganger. Signalet (totalt fanget lysmengde) vil være 4 ganger større på den største sensoren. Men støynivået vil være f.eks 10% for hver piksel uansett sensorstørrelse. S/N-ratio vil altså bli 4 ganger bedre på den store sensoren. Per piksel eller per megapiksel blir det likt, men for den totale bildeflaten får man mer signal med en stor sensor enn med en liten.

 

Ta gjerne samme eksempel og skaler bildet fra den store sensoren på PCen sånn at 4 piksler blir til 1. Støyen reduseres til 1/4 ved at man tar gjennsomsnittsverdien av 4 piksler. (Jo flere målepunkter man har med en gitt statistisk støy jo sikrere blir det statistiske resultatet). Prøver man dette i praksis sitter man igjen med to bilder med samme oppløsning, men der det ene har 1/4 av støynivået. Skriver man ut begge bildene i samme (store) størrelse vil man kunne se forskjell.

 

Om støynivået er 10% per pixel, så blir jo også støyen 1/4-part av hva den er på den store sensoren? S/N-forholdet burde dermed blir det samme? Rett nok er det jo som du ser at man kan ta en snittverdi av flere pixler, der en gitt prosent av de er støy, og kanskje lage ett bedre resultat av det ved å intellegent kombinere pixlene. Men er ikke det ikke pixelantallet som er den store fordelen her? Ikke sensorstørrelsen? La oss tenke oss en sensor der hver pixel henter inn lys over hele sitt areal, det er ikke neon glippe mellom hvert sted der det hentes inn lys. Vil da flere pixler føre til mindre støy, hele veien?

 

AtW

Lenke til kommentar

Jeg kan godt droppe konseptet med 10% av pixlene har søty, om du klarer å overbevise meg om at det faktisk er feil. Eksemplet ditt er jo greit nok, men du går utifra kun ett støyområde, hvorfor blir ikek antallet "støyflekker" også 1/4 når du har en 1/4 så stor sensor? Hvorfor skal man ha like mange "flekker" på en mindre sensor?

Problemet er ikke først og fremst antall støyflekker, men størrelsen på dem i forhold til størrelsen på bildet.

Lenke til kommentar

Om støynivået er 10% per pixel, så blir jo også støyen 1/4-part av hva den er på den store sensoren? S/N-forholdet burde dermed blir det samme? Rett nok er det jo som du ser at man kan ta en snittverdi av flere pixler, der en gitt prosent av de er støy, og kanskje lage ett bedre resultat av det ved å intellegent kombinere pixlene. Men er ikke det ikke pixelantallet som er den store fordelen her? Ikke sensorstørrelsen? La oss tenke oss en sensor der hver pixel henter inn lys over hele sitt areal, det er ikke neon glippe mellom hvert sted der det hentes inn lys. Vil da flere pixler føre til mindre støy, hele veien?

Flere piksler gitt samme sensorstørrelse og samme teknologi vil gi mer støy pr. piksel, men ca. det samme resultatet når du skalerer ned. Det er sensorstørrelsen som gir fordelen, ikke sensoren.

Man kan tenke seg en sensor med ufattelig høy oppløsning - gitt samme sensorteknologi gir det enormt mye støy pr. piksel, men ca. samme støyninvå pr piksel når man nedskalerer som om man hadde en sensor med samme størrelse med lavere pikseltall og skalerer ned fra denne.

Lenke til kommentar

Det kan kanskje hjelpe å tenke at hvis alt annet enn sensorstørrelsen er likt så

 


  •  
  • er signal/støyforholdet pr pixel det samme
  • det totale signalet mindre for en mindre sensor
     

og dermed blir det totale signal/støyforholdet dårligere på den mindre sensoren.

 

Eller hjalp ikke det heller?

Lenke til kommentar

Æh, har lyst til å komme med en uttalelse jeg også.

 

Sensorstørrelse vs støy: Jeg tenker at det er parallellt til forskjellen mellom optisk og digital zoom. Jeg tror ATWindsors har en kunstig forutsetning i at det med mindre sensor vil være som å ta et utsnitt av et ff-bilde. Dette vil man jo aldri gjøre i praksis, man vil jo ønske å komponere bildene ut fra motivets beskaffenhet, ikke sensorens.

 

For eksempel vil man i en scene kunne ønske å ta et bilde med 50mm i 35mm-ekvivalent. Hvis du står der med valget mellom en stor og en liten sensor, hvilken tror du er best i stand til å fange scenen? På en mindre sensor blir lyset nødvendigvis mer sammenpresset, noe som gir større grunnlag for støy.

 

En illustrasjon som kanskje illustrer saken er den av hvordan pixlene på sensoren er "brønner" for lyset: DxOMarkSensor_Fig4.png

 

Her ser du at antallet pixler har nada å si, men brikkestørrelsen bidrar til å spre det konsentrerte lyset ut over en større flate. Med større brikkestørrelse kan kameraet dermed håndtere mer lys. ISO-egenskapene blir altså bedre.

 

DXO-labs: Jeg har "latt meg forlede" til å tro at det er riktig at Canon-sensorene ligger litt bak Sony-sensorene for tiden. Dette har bakgrunn i at jeg ble positivt overraska da jeg tok i bruk D90 for noen år siden. Det første bildet jeg tok var vel det her:

 

post-58368-0-15739300-1317400970_thumb.jpg

 

Jeg syntes da det var påfallende godt dynamisk omfang, flotte farger, skarphet og detaljer. Mulig det forsvinner noe i denne nedskalerte versjonen, og det er ikke særlig vitenskapelig, men jeg har ikke fått den samme x-faktorfølelsen når jeg har brukt canonkameraer (har prøvd 40D og 7D). Derfor har jeg fått tro på at indikatorene på DXO-labs kan ha noe for seg. Det virker rimlelig at et sett standardiserte tester kan gi et forholdsvis objektivt uttrykk for bildekvalitetsegenskaper, i motsetning til tester der det foretas en ekspertevaluering. Disse evalueringene vil alltid være subjektive, selv om de utføres med nokså standardiserte tester og strenge regler for hvordan scoringen skal settes.

 

No pun.

 

edit: ikke dreven i å legge ut bilder på forumet. I will learn.

edit 2: I have learned.

Endret av trygvan
  • Liker 2
Lenke til kommentar
  • 3 uker senere...

Angående diskusjonen om 24 vs 30 vs 60 FPS på Canon sitt nye EOS-1D X.

 

I denne animasjonen kan man lett se forskjell på 15, 30 og 60FPS.

 

Hvorfor jeg startet denne diskusjonen er fordi jeg synes det er på tide at noen begynner å presse filmstandarden opp fra 24/30 til 60++. Ny teknologi kommer jo først på de nye og dyre kameraene, så jeg synes det hadde vært på sin rette plass at EOS-1D X har ihvertfall 60FPS.

Lenke til kommentar

Angående diskusjonen om 24 vs 30 vs 60 FPS på Canon sitt nye EOS-1D X.

 

I denne animasjonen kan man lett se forskjell på 15, 30 og 60FPS.

 

Hvorfor jeg startet denne diskusjonen er fordi jeg synes det er på tide at noen begynner å presse filmstandarden opp fra 24/30 til 60++. Ny teknologi kommer jo først på de nye og dyre kameraene, så jeg synes det hadde vært på sin rette plass at EOS-1D X har ihvertfall 60FPS.

En kamerat som jobber som animatør forteller at flere filmselskaper har gjort undersøkelser om hva folk foretrekker, og at flere likte "utseendet" man får med 24p. Akkurat det vil jeg se selv før jeg konkluderer med noe.

 

 

Men - animasjonen du viser der er heller misvisende. Det der er animasjon med perfekte, skarpe frames - som skutt med et highspeed-kamera, eller som du får i et dataspill med forskjellige framerates. Om det da er best med høy framerate? Selvfølgelig.

 

Problemet er at sånn er ikke film. I film bruker man typisk 180 degree shutter - at lukkertiden er halvparten av mellomrommet mellom hver frame. Det betyr at jo lavere framerate, jo lenger lukkertid og jo mer utflytende bilder, med masse bevegelsesuskarphet. Hjernen plukker opp dette og oppfatter det som en flytende bevegelse. Hadde animasjonen vært rendret med motion blur, kunne vi sammenlignet. :)

 

Se dette klippet for viktighet av flytende bevegelser - det blir "hakkete" med for kort lukkertid.

http://vimeo.com/13117216

Lenke til kommentar

 

 

Problemet er at sånn er ikke film. I film bruker man typisk 180 degree shutter - at lukkertiden er halvparten av mellomrommet mellom hver frame. Det betyr at jo lavere framerate, jo lenger lukkertid og jo mer utflytende bilder, med masse bevegelsesuskarphet. Hjernen plukker opp dette og oppfatter det som en flytende bevegelse. Hadde animasjonen vært rendret med motion blur, kunne vi sammenlignet. :)

 

Det er lett å se at ting ikke er flytrende også i film, og som du sier, så får man i tillegg massivt mer uskarpt bilde.

 

AtW

Lenke til kommentar

Jeg har sett de(n) aggressive kritikken av 1Dx's video framerate i lanserings tråden og velger å kommentere den her.

Det er ganske tåpelig å kritisere 1Dx for at den ikke har høyere framrate på video hvis argumentet er basert på at det vil gi bedre bildekvalitet. Det tyder på en total mangel på forståelse av hele "arbeidsflyten" for digital film.

 

Det ville vært totalt idiotisk av Canon og lansere en høyere standard framerate i et kamera som er vesentlig et fotokamera.

 

Noen naturfotografer har ymtet om at de skulle ønske at 1Dx hadde full 1080p på 60fps, men det var bare for å kunne filme Slo-Mo på høy ISO når deres hovedkamera "sviktet" pga. for lite lys. Altså 1Dx som B-kamera (backup), ikke fordi noe annet enn 24/25/30fps som leveringsformat var aktuelt.

 

Hvis man skal levere digital film til TV/Kino eller Internett så må man holde seg til den frameraten som kan spilles av i normal hastighet. Ingenting annet ville bli akseptert av distribusjons apparatet.

 

Resultatet ville blitt at man ville måtte konvertere ned fps til en leveringsdyktig hastighet.

 

Høyere framerate som leveringsformat vil komme. Først på kino når 4K DLP projektorer blir mer vanlig.

 

For TV vil det ikke komme før det kommer en ny TV standard, som begynner test sendinger i Japan ca. 2020.

 

Regn også med at standardene vil inneholde muligheter for å distribuere video i flere forskjellige fps.

 

Selv om høyere framerate vil øke bilde kvaliteten så er det veldig forskjell på hvilken type materiale som best kan nytte seg av høyere framerate.

 

Sport og generelle TV sendinger vil være best egnet til 60fps eller høyere. Noen 3D film og animasjon vil også fungere bra med dette.

 

Typen spillefilm i 2D eller 3D vil ikke være særlig aktuelt over 48fps pga. for rask lukkertid som vil forandre det Cinematiske utrykket.

 

Så å legge kritikk på 1Dx's video del faller på sin egen urimelighet, Spesielt når det ikke finnes avspillingsutstyr som kan levere Høy framerate i normal hastighet.

 

Enda mer malplasert er det når 1Dx's video funksjon er såpass innovativt at det faktisk kommer med hele to nye kompresjons codec'r som ingen har sett i bruk før.

 

Hva/hvordan disse er/fungerer blir interessant å se.

 

Er dette noe Canon har utviklet alene eller er dette den nye globale codec'n H.265 som nå er ute til testing??

 

The new High Efficiency Video Coding (HEVC) spec, also referred to as H.265, should be a lot more efficient than H.264, which is the format of choice for most IP-enabled devices and applications. The format, which is being developed by the ISO/IEC Moving Pictures Experts Group (MPEG) and the ITU-T Video Coding Experts Group (VCEG), is expected to need 25 to 50 percent fewer bits for the delivery of H.264 video of the same quality.

 

http://gigaom.com/video/h265/

 

RED har også en ny leverings codec kalt Redray Redcode.

 

Den nye TV standarden beveger seg også fremover i standardisering organene. Her vil vi se høyere fps. Mets interessante vil bli om 4K oppløsning vil bli droppet for å gå direkte til 8K, eller om det vil bli to standarder en 4K og en 8K i samkjøring.

 

Regner med at TV produsentene vil ha et ord med i den avgjørelsen for å kunne "melke markedet" for 4K TV'r før de starter å selge 8K TV'r. Men da må de skynde seg. det er ikke mange år til 4K "toget er kjørt"!

 

ITU Study Group reaches agreement on key technical issues for a new standard

By George Winslow -- Broadcasting & Cable, 10/14/2011 12:27:56 PM

 

 

A new standard for ultra high-definition television (UHDTV) took an important step towards becoming reality as experts at the ITU Study Group on Broadcasting Service announced that they had reached agreement on most of the pertinent technical characteristics for a new UHDTV standard.

 

http://www.broadcast...DTV_Advance.php

 

 

Det er ganske mye som skal skje på det globale distribusjons markedet før man kan begynne å kritisere Canon for ikke å levere en høyere framerate i video funksjonene på et Fotokamera. :w00t:

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...