Gå til innhold

PS3 oppløsning vs framerate


Zappy

Anbefalte innlegg

1080i er bedre på stillestående bilder.

 

720p/1080p er bedre på rørbare bilder, feks FPS/bil spill og slikt.

Nei, er det ikke motsatt?

 

Flimmer får man nok ikke fordi alle digitale panler, LCD /SXRD, Plasma osv... kun kan fremvise det som progresivt.

Deinterlacingen som skjer gir et dårligere bilde, og vil på mange TVer oppfattes som "flimrete".

Endret av Geofrank
Lenke til kommentar
Videoannonse
Annonse
Sikker? leste det var slikt i ett eller anet bransjeblad for en stund siden.

Er ikke helt sikker nei. Det kommer vel an på hvilket TV-apparat og kilde.

Jeg mente 1080i hadde dobbel framerate (siden den bare oppdaterer

halve bildet hver gang) og på den måten bedre greide å fange kjapp

action.

 

Men det kan være at effekten mistes på nye LCD-paneler og at den

høyere frameraten blir tapt i deinterlacingen. Men at det skulle være

bedre for stillbilder kan jeg uansett ikke se noen logikk i. Hvorfor skulle

det være det?

 

Vil jo uansett bli dårligere bilde ved deinterlacing av 1080i, siden framene

som blir slått sammen ikke er fanget i samme tidspunkt. Det er dette som

skaper "flimringen" jeg snakker om. Men dette er selvfølgelig også

avhengig av hvor bra jobb TVen gjør.

Endret av Geofrank
Lenke til kommentar
Sikker? leste det var slikt i ett eller anet bransjeblad for en stund siden.

 

En del av disse 1080i vs 720p oppfattningene og forklaringene stammer tilbake fra artikler på begynnelsen av 2000 tallet da man satt med gamle billedrørs TV'er som ikke bare mottok 1080i som signal, men også tegnet det opp interlaced. I dag skjer billedopptegningen av 1080i signalet derimot progresivt på LCD/Plasma osv... Men disse artiklene ligger jo fortsatt på nettet og folk linker til de ennå. Og mange har ennå samme oppfatning av 1080i vs 720p som den gangen man hadde HD TV på svære billedrørs (CRT) TV'er. Men nå de siste åra er det en faktor til inne i bildet som sagt, at skjermene kun kan fremvise progresive bilder og interlaced signaler blir/må de-interlaced før fremvisning. Kvaliteten på dette varierer dog fra TV til TV modell/projektor. Og hva kilden er har også noe å si. Er det tatt opp progresivt (film f.eks) så mistes ingen informasjon i et 1080i signal og du ser perfekt 1080p på TV'n din (hvis den ikke er av de "billigere" slaget).

Lenke til kommentar
Sikker? leste det var slikt i ett eller anet bransjeblad for en stund siden.

Er ikke helt sikker nei. Det kommer vel an på hvilket TV-apparat og kilde.

Jeg mente 1080i hadde dobbel framerate (siden den bare oppdaterer

halve bildet hver gang) og på den måten bedre greide å fange kjapp

action.

 

Men det kan være at effekten mistes på nye LCD-paneler og at den

høyere frameraten blir tapt i deinterlacingen. Men at det skulle være

bedre for stillbilder kan jeg uansett ikke se noen logikk i. Hvorfor skulle

det være det?

 

1080i er begrenset av 60hz klokke slik som 1080p/720p. Skulle du hatt total dobbel framerate måtte den captured halvbilder ved 120hz for å kunne lage 60 helbilder i sekundet?

Lenke til kommentar

nei, ikke dobbel framerate...eller...

 

ugh..ok, Wiki to the rescue.

Wiki-on-Interlaced: http://en.wikipedia.org/wiki/Interlace

 

Slikt jeg forstår denne så er det slikt at "første" bildet kjøre anenhver linje nedover og "andre" bildet kjører samme film sekvens men i "uneven" linjer ned over (CRT only).

Med LCD/Plasma kjøres samme bildet 2 ganger etter hverandre.

 

Slikt jeg forstår dette så vil bilde kvaliteten bli bedre på still bilder med Interlaced, eller 1080i

Endret av Fritz0r
Lenke til kommentar
1080i er bedre på stillestående bilder.

 

720p/1080p er bedre på rørbare bilder, feks FPS/bil spill og slikt.

Nei, er det ikke motsatt?

 

Flimmer får man nok ikke fordi alle digitale panler, LCD /SXRD, Plasma osv... kun kan fremvise det som progresivt.

Deinterlacingen som skjer gir et dårligere bilde, og vil på mange TVer oppfattes som "flimrete".

 

Hvis de-interlacingen gir et flimrete bilde så ser det på tide på bytte TV. De-interlacingen trenger ikke gi dårligere bilde.

 

Og disse panelene oppdaterer hele panelet 60 ganger i sekundet uansett foret med 1080p eller 1080i så "flimmer" blir det ikke.

Lenke til kommentar

Syns ikke du hadde noen god forklaring på hvorfor kvaliteten på stillbilder skulle bli bedre i 1080i Fritz0r.

 

Er det tatt opp progresivt (film f.eks) så mistes ingen informasjon i et 1080i signal og du ser perfekt 1080p på TV'n din

Ja, hvis det er en Full-HD TV og frameraten var det dobbelte av det progressive signalet. Men det er vel bare aktuelt på de gamle TVene du snakker om. Nye Full-HD TV'er støtter jo 1080p uansett.

Endret av Geofrank
Lenke til kommentar

Hvis jeg har forstått dette riktig så fungerer det slik:

 

1080p/50 = 50 progressive/hele bilder pr sekund

1080i/50 = 50 interlacede bilder pr sekund = 50 felt pr sekund.

 

Altså er et felt (dårlig oversatt av meg fra engelske field) = et interlaced bilde.

 

Når man interlacer et bilde så lagrer man bare dets odde eller like linjer og kaller resultatet for et felt. Altså består felt 1 av linje 1,3,5 osv fra bilde 1 mens felt 2 består av linje 2,4,6 osv fra bilde 2. Ved 1080i så har bildene man lager feltene av, en oppløsning på 1080 linjer, men feltet i seg selv vil bare bestå av halvparten så mange linjer, i dette tilfellet 540. Likeså med 576i som er PAL formatet.

 

De-interlacing = gjøre om fra felt til bilde. Her finnes det mange teknikker, men jeg nevner to av de:

 

1.) Weaving: Man spleiser(vever) to felter sammen til et bilde ved å ta annen hver linje fra hvert felt. Fordelen er at man da beholder oppløsningen på bildet. Baklempen er når bildene (som feltene er lagd av) ikke er like, vil man få artifakter. F.eks hvis en tv-stasjon har en sportsending som er filmet med et 1080p/50 kamera, men gjøres om til 1080i/50 ved sending pga mangel på båndbredde. I sport så vil som oftest bildet forandre seg relativt mye selv på 1/50 dels sekund så her vil artifaktene være større. En annen effekt av weaving er at man halverer det opprinnelige antall bilder per sekund og jeg antar dette vil resultere i en dårligere bildeflyt. Så vidt jeg har forstått vil en bra de-interlacing bruke weaving sammen med noen andre teknikker for å beholde den opprinnelige oppløsningen.

 

En LCD-TV med oppdateringsfrekvens på 50Hz må vise 50 bilder pr sekund. Hvis den weaver feltene ender vi bare opp med 25 bilder pr sekund. For å løse dette viser den hvert bilde to ganger.

 

2.) Bobbing: Man lager et bilde fra bare et felt ved linjedobling. Altså linje 1 og linje 2 i bildet er lik linje 1 fra feltet. Man unngår artifaktene til weaving og beholder det opprinnelige antall bilder, men man halverer den vertikale oppløsningen. Altså får man en effektiv oppløsning på 1920*540 som er halvparten av det opprinnelige. Dette oppfattes som en veldig dårlig metode og brukes av dårlige LCD-TV'er.

 

Trenger interlacing gi dårligere bildekvalitet? Teoretisk sett ikke. Tenk deg følgende:

 

Film er som dere sikkert vet tatt opp med 24 bilder pr sekund. For å konvertere til 25 bilder pr sekund økes bare hastigheten på filmen (ca 4% økning). Så interlacer man hvert bilde to ganger slik at felt 1 og felt 2, felt 3 og felt 4 osv er tatt av samme bilde. Så sender man disse 50 felt pr sekund til TV'n og den weaver det perfekt sammen igjen til 25 bilder pr sekund. For at dette skal funke må TV'n på en eller annen måte vite hvilke to og to felt den skal weave sammen slik at den ikke tar felt 2 og 3 som IKKe er tatt av samme bilde.

 

Altså hvis man har et progressivt kildemateriale som f.eks film (24 fps) og video (30 fps) så kan man alltid interlace -> de-interlace seg tilbake til det opprinnelige. Men så fort kilden har fps > 30 så sliter vi fordi da må TV'n støtte et interlaced signal på > 2*fps = 60 Hz og det tror jeg ikke finnes. Det er vel ikke en gang en standard.

 

Så spør du deg sikkert, hvorfor ikke bare sende 25 bilder pr sekund i til å begynne med? Vel, de aller fleste TV'er støtter bare 50/60/100 Hz. Altså blir det krøll hvis de får et signal på 25 Hz. Det er bare nå i det siste at noen LCD'TV'er støtter 24/48/72/120 Hz osv.

Lenke til kommentar

Hei. Jeg har en full hd tv fra Thosiba og ps3 koblet til via hdmi kabel :) Har valgt bildeinstillgene til automatisk og det står at ut signal er 1080p i ps3 menyen. Det jeg lurer litt på er om det er noen ps3 spill som støtter 1080p? Har kun prøvd spillet Cod4 og det støtter ikke 1080p?

 

Edit: Sikkert litt dumt spørsmål, men uten å spørre lærer man ikke:p

Endret av mr.nauz
Lenke til kommentar
Hei. Jeg har en full hd tv fra Thosiba og ps3 koblet til via hdmi kabel :) Har valgt bildeinstillgene til automatisk og det står at ut signal er 1080p i ps3 menyen. Det jeg lurer litt på er om det er noen ps3 spill som støtter 1080p? Har kun prøvd spillet Cod4 og det støtter ikke 1080p?

Er veldig få spill som støtter 1080p, men de eksisterer.

Lenke til kommentar
Hei. Jeg har en full hd tv fra Thosiba og ps3 koblet til via hdmi kabel :) Har valgt bildeinstillgene til automatisk og det står at ut signal er 1080p i ps3 menyen. Det jeg lurer litt på er om det er noen ps3 spill som støtter 1080p? Har kun prøvd spillet Cod4 og det støtter ikke 1080p?

Er veldig få spill som støtter 1080p, men de eksisterer.

 

Ok :) Får håpe det blir mer vanlig med tiden:)

Lenke til kommentar
Hvordan de enkelte spillutviklere til PS3 og 360 rendrer grafikken veit jeg ikke. Men både "såkalte" 1080p og 720p spill har egentlig vært rendret i lavere oppløsning, skalert av billed/skalerings chip i 360 eller av Cell'n i PS3 til den utoppløsningen de ønsker.

 

Hvordan konsollene rendrer grafikken 720p og 1080i ville jeg også like å vite.

Tviler på at det er noe forskjell fra 720p til 1080i fra konsollen. Den oppskalerer til 1080i og derfor får en ikke lavere FPS i spill som kjøres i 1080i i stedet for 720p.

Endret av VistaGames
Lenke til kommentar
Hei. Jeg har en full hd tv fra Thosiba og ps3 koblet til via hdmi kabel :) Har valgt bildeinstillgene til automatisk og det står at ut signal er 1080p i ps3 menyen. Det jeg lurer litt på er om det er noen ps3 spill som støtter 1080p? Har kun prøvd spillet Cod4 og det støtter ikke 1080p?

 

Edit: Sikkert litt dumt spørsmål, men uten å spørre lærer man ikke:p

 

Man får faktisk kjørt cod4 i 1080p oppløsning om man setter ps3'n til å bare støtte 1080p :). Ser ikke store forskjeller på bildet så vet ikke om det hjelper. Liker å ha det slik uansett :)

Lenke til kommentar
Hvordan de enkelte spillutviklere til PS3 og 360 rendrer grafikken veit jeg ikke. Men både "såkalte" 1080p og 720p spill har egentlig vært rendret i lavere oppløsning, skalert av billed/skalerings chip i 360 eller av Cell'n i PS3 til den utoppløsningen de ønsker.

 

Hvordan konsollene rendrer grafikken 720p og 1080i ville jeg også like å vite.

Tviler på at det er noe forskjell fra 720p til 1080i fra konsollen. Den oppskalerer til 1080i og derfor får en ikke lavere FPS i spill som kjøres i 1080i i stedet for 720p.

 

Tviler meget mye jeg også. På pc så skifter faktisk den interne renderingen når man bytter oppløsning. På konsollene så blir bare spillet nedskalert eller oppskalert etter den oppløsningen som er valgt.

Lenke til kommentar

Varierer fra spill til spill. Her er en kommentar hvor Evan Wells forklarer hvordan det er gjort i Uncharted:

It will play in 1080p but it’s software scaled to help out those with 1080i sets, so if you have a 1080p TV you’ll still want to play it in 720p (which it will default to).

 

Lair f.eks. mener jeg rendres i 1080p.

Endret av Geofrank
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...