Gå til innhold

Fremtidens TV-standard nesten klar


Anbefalte innlegg

Videoannonse
Annonse

Jeg er fristet til å kjøpe en 30" med 2560x1600 fordi synet ikke er som før (joda databriller osv) og har nå 27" med 2560x1440. Det føles dog unødvendig å bruke mye penger på en så liten oppgradering.

 

Håper OLED skjermene kommer snart så jeg får en bedre grunn til å oppgrader monitor.

 

Dog hadde jeg ikke hatt problemet om det var bedre skalering i OS som nevnt.

Endret av Theo343
Lenke til kommentar

Altså matte er liksom ikke tingen deres.

 

1080p er gitt ved 60fps dette overføres i enten RGB eller YV12/YUV420.

 

1080p@60fps

 

RGB: 1920x1080x60x3x8 tilnermet lik 3 Gbit/s (3*8 bit per pixel)

 

YUV 1920x1080x60x12 tilnermet lik 1.5Gbit/s (I yuv420/yv12 kodes lys og farge annerledes enn i RGB da lys dominerer opplevelsen over farge er lys kodet i ett bilde mens farge er kodet i 2 bilder som er 1/4 av det orginale bildet) som medfører at yuv tar ca halvparten av plassen til RGB (merk dette er en form for tilnermet lossless koding (selv om det er diskuterbart)

 

Men når dette er kodet i h264 vp8 theora eller tilsvarende kan båndbredden for 1080p variere fra 2.4Mbit til langt over 100Mbit avhengig av ønsket kvalitet og hvor bra koder man har

Lenke til kommentar
Jeg er fristet til å kjøpe en 30" med 2560x1600 fordi synet ikke er som før (joda databriller osv) og har nå 27" med 2560x1440. Det føles dog unødvendig å bruke mye penger på en så liten oppgradering.

Jeg blir ikke veldig overrasket om det dukker opp Quad HD PC-monitorer i størrelseorden 35 tommer innen et års tid.

 

(3840x2160)

Lenke til kommentar
Jeg er fristet til å kjøpe en 30" med 2560x1600 fordi synet ikke er som før (joda databriller osv) og har nå 27" med 2560x1440. Det føles dog unødvendig å bruke mye penger på en så liten oppgradering.

Jeg blir ikke veldig overrasket om det dukker opp Quad HD PC-monitorer i størrelseorden 35 tommer innen et års tid.

 

(3840x2160)

Finnes vel allerede:

DuraVision FDH 3601

RadiForce LS560W

RadiForce GX1030CL

Prisen derimot er det verre med.

Lenke til kommentar

En 2K skjerm på 36" som også har mange av samme mulighetene som U2711 (har også konsoller tilkoblet) og OLED teknologi hadde vært et kjøp fra meg så lenge prisen ikke overstiger særlig mer enn 15.000,-.

 

Dog er jeg også fornøyd med en tilsvarende OLED 30" med 2560x1600. Foretrekker helst 16:10.

 

10M pixel (4096x2560), i 36" format hadde også fristet en del.

Endret av Theo343
Lenke til kommentar

Legg merke til at UHDTV er 120Hz progressivt (antagelig 100Hz i europa pga 50Hz strømnett)

Hvilken rolle spiller frekvensen på strømnettet på hvor ofte skjermen oppdaterer seg?

 

I dag? Ingen.

 

Men, I TVens barndom, var refresh-raten syncet til strømnettet, og dette er bakgrunnen for at TV-sendinger i USA er 60Hz, mens de er 50Hz i Europa.

  • Liker 1
Lenke til kommentar

Pixeltetthet er noe som er definert utifra pixler per areal, ikke bare pixler i en dimensjon, derfor fører en dobling av pixeltetthet til dobbelt så mange pixler. Og selv om det førte til det firedobbelte, så er ikke det eksponentiell vekst. Og da har vi ikke engang tatt hensyn til at man får komprimert mer per pixel med flere pixler i utgangspunktet.

 

Moderne Tver tar forøvrig i liten grad plass, veggplass er det ganske mye av i de fleste hus.

 

AtW

 

Nå blir vel denne diskusjonen både en tanke offtopic etterhvert, og mer enn en tanke aspberger-pedantisk, beklager det... ;) Og jeg skal heller ikke uttale meg om kompresjon per piskel, det kan godt hende.

 

Om det er eksponensiell eller lineær vekst avhenger av referansemålet. Når du sier at pikseltetthet "er definert" som piksler per areal (megapiksler, feks), så er jo det en valgt definisjon som trekker inn to dimensjoner (og dermed vil medføre lineær datastrømvekst ja). Til sammenligning er jo skarphetsbetegnelser som dpi eller 720p, 1080p osv, endimensjonale betegnelser og vil medføre eksponensiell datastrømvekst: ser man bort fra kompresjon, vil 720p medføre fire ganger så stor datastrøm, ikke dobbelt så stor, som 360p. Mens 1440p sammenlignet med 360p ikke ville vært fire ganger så datatett, men 16 ganger.

 

Jeg synes de endimensjonale betegnelsene er mer representative for hvilken skarphet man opplever det som, fordi øyet bryr seg ikke så mye om hva vi velger å si at referansepunktet er (piksler per [areal eller avstand]), men hvor små detaljer som er de minste man kan skille fra hverandre. Den opplevelsen er endimensjonal og eksponensiell: det kreves fire ganger så mange piksler for å skille ut halvparten så store detaljer, ni ganger så mange for en tredjedels store detaljer osv.

 

Nå er det jo en referanse i dette også som vi kan diskutere, men det opprinnelige poenget mitt var jo det subjektive: at hvis arealet er det samme, flater opplevelsen av økt skarphet ut, i en grad som ikke står i forhold til økningen i datakraften som trengs. Dermed ser jeg ikke for meg at vi noen gang kommer til 8K til hjemmeformål. Og selv om 4K kanskje/sikkert til å anskaffes av en del die hard videofile (som meg en dag. Og som nok kommer til å frustreres over at omgivelsene sier "Hele fire K, sier du? Jøss, det er mer enn to. Begynner beat for beat snart?"), kommer det til å være helt irrelevant for 95% av markedet.

 

Dermed vil det heller aldri bli mer enn et veldig smalt utvalg av titler tilgjengelig på ultra-HD. På samme måte som at de fleste lenge har hatt både mulighet til og råd til å kjøpe utstyr som kan spille av hi-def-audio (24/96 og høyere) - veldig mange har utstyret allerede - og allikevel har innspillinger til salgs i hi-def aldri tatt av, det selges fint lite av det.

 

Tilgjengelighet og enkelhet (spotify istedenfor CD'er) ser ut til å trumfe ut kvalitet for de aller fleste.

 

Dermed, når det gjelder veggplass vs TV-plass: de fleste hus holder ikke av en stor vegg til lerretsformål, eller har både TV og nedtrekkbart lerret. Selv om noen få har det, vil det fortsette å være marginalt.

 

Det er jo ikke sånn at teknologisk utvikling og medievaner bare fortsetter å vokse mot perfeksjon på alle områder. Eldre teknologier stopper opp i utviklingen for det normale markedet (feks mer og mer spec'ede stasjonære PC'er) etterhvert som de modnes, mens utviklingen skifter fokuspunkt (feks over mot telefoner og ipads).

 

 

Lyd-diskusjon, nå:

 

 

Angående lyd så er "CD-kvalitet" bra, ingen tvil om det, men hovedgrunnen til at det er smart å ha lyden i ennå bedre kvalitet er pga. tap som kan forekomme i anlegget, f.eks. i eq, har du da lyden i høyere oppløsning så blir tapet minimalt i forhold. Har du en kjede med programvare, lydkort, forsterker og høyttalere, og har lav lydkvalitet så kan du kanskje ende opp med lyd som har 1/16 av oppløsningen av utgangspunktet, og om utgangspunktet eller et punkt i kjeden er dårlig så får du tam dårlig udetaljert lyd, selv om kanskje råformatet var ganske ok i ren lyttetest.

 

Bare for å nevne et eksempel, et langt større problem for musikk i dag er mastering. I dag har CD og for den slags skyld en grei mp3 fantastisk mye mer kvalitet i formatet enn LP, likevel er det mange som sverger til vinyl. Dette har egentlig ingen verdens ting med det fysiske formatet å gjøre, men det som gjøres av komprimering under mastring i mange innspillinger i dag. Lydbildet krympes ned til en brøkdel, og det er derfor folk sier vinylen har en annen lyd, vel pluss at den har litt sjarmerende støy da ;)

 

Nei ønsker ikke å føre en stor lyddiskusjon her, den får vi ta et annet sted. Håper at du ser poenget mitt her.

 

Hmmm, tunga rett i munnen, her er det fire uavhengige ting vi snakker om:

 

- Hidef (24/96 eller 24/192) versus CD-kvalitet (16/44,1), som påvirker lyden marginalt sammenlignet med feks 8 bits/22khz (hidef gjengir lyden LANGT bedre enn mennesket kan oppfatte, men krever både stor økning i datatetthet, gode ører, og veldig godt utstyr for at ikke begrensninger underveis i kjeden skal fjerne hele kvalitetsøkningen av hidef. Det er ikke sånn at en hidef-innspilling kan redde eller forbedre en dårlig eller middelmådig signalkjede. Dessuten er det bare i de digitale leddene man kan snakke om "oppløsning", og da er datastrømmen som regel bortimot perfekt hele veien uansett, bortsett fra jitter. CD-kvalitet derimot ligger like oppunder taket av hva de fleste har kapasitet til å høre, eller kunne skille fra hidef. 8/22 er et like langt skritt ned i datastrøm fra CD-kvalitet som det en CD er fra hidef, men 8/22 er rett og slett grøt. Prinsippet er altså det samme: jo nærmere man ønsker å komme perfeksjon, jo mer ressurskrevende er det å krøste ut de siste detaljene).

 

- Komprimering av digital datastrøm (mp3/aac/wma osv, versus cd/raw/pcm/flac), som ved å kappe av litt (mer hørbart) av lydkvaliteten sparer inn på veldig mye av datastrømmen.

 

Disse to gjelder det digitale, altså. Dessuten:

 

- Analog (vinyl) versus digital (CD) representasjon. Analog representasjon gir en annen karakteristikk, blant annet "farges" lyden ved at skarpe og plutselige lyder mykes opp, noe som mange synes er mer vennlig mot ørene. Også den gode varme lyden av fyr i peisen da. :love: Mens en CD er mye mer klinisk og presist gjengitt. Før ble ikke dette tatt med i beregningen ved mastring, dermed ble innspillingsteknikker som var beregnet på LP'er og tok høyde for fargingen, spilt rett over på CD, og fikk et hardt og kaldt preg.

 

- Komprimering av dynamikk ("loudness war"), å gi de volumsvake delene av en innspilling mer volum - som er drastisk hørbart, men veldig smak og behag. Dette finner man uavhengig om innspillingen er digitalt eller analogt representert. Personlig syns jeg både dynamikk og komprimering har hver sin sjarm til ulike formål: til finlytting vil jeg ha dynamikk, mens på bussen er det fint om jeg også kan høre de svakeste delene av en sang gjennom motorduren. Og i noen sjangre er jo komprimering nærmest for et musikkinstrument å regne: dubstep og drum'n bass.

 

 

 

;)

Endret av Onkel
Lenke til kommentar

er det noen spesiell grunn til at 16:9 formatet beholdes?

 

personlig så skulle jeg gjerne sett 21:9 skjermer

 

16:9 er bedre, det er vel hovedgrunnen.

 

"Bedre" er vel relativt. Grunnen til at man valgte 16:9 er at det er det perfekte kompromiss mellom 4:3 og 2.35:1 (samt at det er nære nok til både 1.66:1 og 1.85:1 til at disse vanlige filmformatene kan vises uten merkbare sorte felter). Man kan anta at det vil være aktuelt å vise materiale i både 4:3 ratio og 2.35:1 ratio på en ny TV, og med formatet 16:9, vil det svarte arealet bli (så godt som) like stort for en 4:3 film som for en 2.35:1 film.

 

1920x1080 (16:9) = 2.073.600 piksler

1440x1080 (4:3) = 1.555.200 piksler (= 518.400 svarte piksler på en 16:9 skjerm)

1920x817 (2.35:1) = 1.568.640 piksler (= 504.960 svarte piksler på en 16:9 skjerm)

 

Ved ca. 2.37:1 (dvs. 1920x810), er antallet svarte piksler identisk med et 4:3 bilde.

Lenke til kommentar

Pixeltetthet er noe som er definert utifra pixler per areal, ikke bare pixler i en dimensjon, derfor fører en dobling av pixeltetthet til dobbelt så mange pixler. Og selv om det førte til det firedobbelte, så er ikke det eksponentiell vekst. Og da har vi ikke engang tatt hensyn til at man får komprimert mer per pixel med flere pixler i utgangspunktet.

 

Moderne Tver tar forøvrig i liten grad plass, veggplass er det ganske mye av i de fleste hus.

 

AtW

 

Nå blir vel denne diskusjonen både en tanke offtopic etterhvert, og mer enn en tanke aspberger-pedantisk, beklager det... ;) Og jeg skal heller ikke uttale meg om kompresjon per piskel, det kan godt hende.

 

Om det er eksponensiell eller lineær vekst avhenger av referansemålet. Når du sier at pikseltetthet "er definert" som piksler per areal (megapiksler, feks), så er jo det en valgt definisjon som trekker inn to dimensjoner (og dermed vil medføre lineær datastrømvekst ja). Til sammenligning er jo skarphetsbetegnelser som dpi eller 720p, 1080p osv, endimensjonale betegnelser og vil medføre eksponensiell datastrømvekst: ser man bort fra kompresjon, vil 720p medføre fire ganger så stor datastrøm, ikke dobbelt så stor, som 360p. Mens 1440p sammenlignet med 360p ikke ville vært fire ganger så datatett, men 16 ganger.

 

 

Pixeltetthet oppgis i PPI, ppi er et arealmål. Selv om man bare regner pixeltetthet som en dimensjon, så avhenger det ikke av noe referansemål, en firedobling per dobling er ikke eksponentiell vekst. Det passer ikke inn i definisjonen. Det er definisjonsmessig feil.

 

AtW

 

er det noen spesiell grunn til at 16:9 formatet beholdes?

 

personlig så skulle jeg gjerne sett 21:9 skjermer

 

16:9 er bedre, det er vel hovedgrunnen.

 

"Bedre" er vel relativt. Grunnen til at man valgte 16:9 er at det er det perfekte kompromiss mellom 4:3 og 2.35:1 (samt at det er nære nok til både 1.66:1 og 1.85:1 til at disse vanlige filmformatene kan vises uten merkbare sorte felter). Man kan anta at det vil være aktuelt å vise materiale i både 4:3 ratio og 2.35:1 ratio på en ny TV, og med formatet 16:9, vil det svarte arealet bli (så godt som) like stort for en 4:3 film som for en 2.35:1 film.

 

1920x1080 (16:9) = 2.073.600 piksler

1440x1080 (4:3) = 1.555.200 piksler (= 518.400 svarte piksler på en 16:9 skjerm)

1920x817 (2.35:1) = 1.568.640 piksler (= 504.960 svarte piksler på en 16:9 skjerm)

 

Ved ca. 2.37:1 (dvs. 1920x810), er antallet svarte piksler identisk med et 4:3 bilde.

 

Synsfeltet vårt er ikke så smalt som 16:9, og det er milevidt fra så smalt som 21:9, 16:9 er et mye mer anvendbart format.

 

AtW

Endret av ATWindsor
Lenke til kommentar

Hvis dette blir standard før 2015 så kan hvem som helst få lov til å slå meg i hodet med en jernspade.

Mange steder idag har engang ikke støtte for 1080p signaler, og internettlinja her jeg bor har ikke sjangs å streame 1080p uten hakking.

 

Men selve spesifikasjonene høres jo sykt ut, bare dumt man må/burde ha en TV på minst 55" for å klare å se forskjell.

Lenke til kommentar
Gjest Slettet+432

Jeg tror ikke dette kommer til å skje før absolutt aller tidligst i 2020. Om det mot formodning skulle skje, så må mange av kringkastingsfasilitetene skifte ut alt eller veldig mye infrastruktur, inklusiv kabling, og det blir svindyrt. Det er ikke så alt for mange i Europa som har migrert til HD fullstendig enda, og nå er plutselig 3D også noe man skal tenke på... Nei, jeg har mine tvil.

Lenke til kommentar

 

Pixeltetthet oppgis i PPI, ppi er et arealmål. Selv om man bare regner pixeltetthet som en dimensjon, så avhenger det ikke av noe referansemål, en firedobling per dobling er ikke eksponentiell vekst. Det passer ikke inn i definisjonen. Det er definisjonsmessig feil.

 

AtW

 

PPI er ikke et arealmål men et endimensjonalt mål: pixels per inch, ikke square inch, se forøvrig her (akkurat som dpi: dots per inch). En dobling av ppi vil altså kreve fire ganger så mye informasjon, en tredobling av ppi vil kreve en nidobling.

 

Så du har rett i at jeg brukte feil begrep: dette er ikke et eksponensielt forhold, men det ER en kvadrering, ikke et lineært forhold. (Blir det riktig å kalle det et kvadrert forhold?)

 

Men poenget består: økningen i informasjon som kreves står ikke i forhold til økningen i opplevd skarphet.

Lenke til kommentar

 

Pixeltetthet oppgis i PPI, ppi er et arealmål. Selv om man bare regner pixeltetthet som en dimensjon, så avhenger det ikke av noe referansemål, en firedobling per dobling er ikke eksponentiell vekst. Det passer ikke inn i definisjonen. Det er definisjonsmessig feil.

 

AtW

 

PPI er ikke et arealmål men et endimensjonalt mål: pixels per inch, ikke square inch, se forøvrig her (akkurat som dpi: dots per inch). En dobling av ppi vil altså kreve fire ganger så mye informasjon, en tredobling av ppi vil kreve en nidobling.

 

Så du har rett i at jeg brukte feil begrep: dette er ikke et eksponensielt forhold, men det ER en kvadrering, ikke et lineært forhold. (Blir det riktig å kalle det et kvadrert forhold?)

 

Men poenget består: økningen i informasjon som kreves står ikke i forhold til økningen i opplevd skarphet.

 

Om man øker PPI i bare en dimensjon, så vil man bare få dobbelt så mange pixler, så ejg mener det (implisitt) er en arealøkning. Når det er sagt, så er vel poenget ditt, uansett hvordan man definerer PPI, at en dobling av antallet pixler i to dimensjoenr vil føre til fireganger så mye pixler. Det er riktig. Uten at jeg ser helt relevansen, da det ikke er noen direkte sammenheng med synet, da vi ser i to dimensjoner der, og firedobbelt så mange pixler vil gi 4 ganger så mye informasjon inn til synet.

 

Det vil alltid være sånn at en slik økning vil være relativt sett mindre nyttig jo bedre utgangspunktet er. Men jeg ser ikke helt problemet, før eller siden når vi så høy oppøsning at det ikke er noen synlig forbedring. Fram til da er det bare å bevege seg mot det tidspunktet.

 

AtW

Lenke til kommentar

 

Om man øker PPI i bare en dimensjon, så vil man bare få dobbelt så mange pixler, så ejg mener det (implisitt) er en arealøkning. Når det er sagt, så er vel poenget ditt, uansett hvordan man definerer PPI, at en dobling av antallet pixler i to dimensjoenr vil føre til fireganger så mye pixler. Det er riktig.

 

Ah, nå skjønner jeg hva du mener, da er vi enige. Altså implisitt at når man feks sier at oppløsningen har økt "fra 250 til 500 ppi", så gjelder den økningen i begge dimensjoner. Altså at en dobling av tallet man benevner det med ("referanse") medfører en firedobling av pikslene og av informasjonen.

 

Uten at jeg ser helt relevansen, da det ikke er noen direkte sammenheng med synet, da vi ser i to dimensjoner der, og firedobbelt så mange pixler vil gi 4 ganger så mye informasjon inn til synet.

 

Det vil alltid være sånn at en slik økning vil være relativt sett mindre nyttig jo bedre utgangspunktet er. Men jeg ser ikke helt problemet, før eller siden når vi så høy oppøsning at det ikke er noen synlig forbedring. Fram til da er det bare å bevege seg mot det tidspunktet.

 

Det jeg tenker er relevant med det er at kostnaden, informasjons- og teknologimessig, øker såpass dramatisk jo nærmere perfeksjon man kommer, mens opplevelsen av forbedring flater ut, så gjør det at teknologien på andre områder har hatt en tendens til en todeling: hoveddelen av markedet flater ut på "veldig bra, og godt nok", teknologien som er tilgjengelig innenfor en rimelig husholdningspenge slutter å utvikle seg i særlig dramatisk grad, det blir mer finpuss av allerede eksisterende løsninger. Mens den andre delen, feinschmeckerne, er en liten del av markedet som er villig til å betale uforholdsmessig mye, økonomisk og i krav til teknologi og informasjon, for en heving fra "veldig bra, og godt nok" til "nesten perfekt", en økning som er relativt liten i forhold til "veldig bra og godt nok". Eh. Kronglete forklart, dere skjønner sikkert. Men skal man gi et tall som korresponderer til opplevd kvalitetsøkning, ligger i alle fall ppi som endimensjonalt tall og lineær kurve, mye nærmere megapikseltellingen som krever tall som går helt til himmels for å gi noen egentlig økning av opplevd skarphet.

 

Dette er en antagelse, utfra det jeg mener å se på mange andre områder hvor teknologien har rukket å komme nærmere perfeksjon:

 

- Stasjonære forbruker-PC'er utvikles ikke lenger i den rakettfarten man så for fram til ca fem år siden. Det er stort sett pris, tilbehør, tilgjengelighet, service man konkurrerer på i "godt nok"-markedet i dag. Mens gamer-PC'er kan bli en del kvassere, men da for en drastisk dyrere penge.

 

- Jeg synes man ser det samme på kameraer. Trinnet i bildekvalitetsheving er sånn omtrent det samme fra mobil til kompakt som det er fra kompakt til forbrukerspeilrefleks, og mer eller mindre det samme som trinnet opp til fullframe proffspeilrefleks eller derfra og videre opp til hasselblad. Mens følger man de samme trinnene på pris (for ikke å si hvor mye man tyner seg nær grensene for fysikkens lover), så tar det helt av, "eksponensielt". Og dessuten: sånn har det vært, rimelig stabilt, i en fem år nå - mitt gamle Fuji F11 holder ganske bra følge med dagens kompaktkameraer og har så langt heller ikke blitt tatt igjen av mobiler. Mens utviklingen før dette gikk helt på turbo, på alle områdene.

 

- Tror faktisk det samme er å se på sykler nå.

 

Relevansen, oppsummert: teknologien i markedet for vanlige forbrukere slutter i praksis å utvikle seg lenge før man egentlig nærmer seg perfeksjon - fordi forbedringene for de fleste oppleves som så marginale at de ikke er verdt å betale prisen som kreves for den teknologiske akrobatikken som kreves for å gå de siste skrittene.

Endret av Onkel
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...