prebenl Skrevet 15. november 2007 Del Skrevet 15. november 2007 (endret) 1080i er bedre på stillestående bilder. 720p/1080p er bedre på rørbare bilder, feks FPS/bil spill og slikt. Nei, er det ikke motsatt? Flimmer får man nok ikke fordi alle digitale panler, LCD /SXRD, Plasma osv... kun kan fremvise det som progresivt. Deinterlacingen som skjer gir et dårligere bilde, og vil på mange TVer oppfattes som "flimrete". Endret 15. november 2007 av Geofrank Lenke til kommentar
Fritz0r Skrevet 15. november 2007 Del Skrevet 15. november 2007 Sikker? leste det var slikt i ett eller anet bransjeblad for en stund siden. Lenke til kommentar
prebenl Skrevet 15. november 2007 Del Skrevet 15. november 2007 (endret) Sikker? leste det var slikt i ett eller anet bransjeblad for en stund siden. Er ikke helt sikker nei. Det kommer vel an på hvilket TV-apparat og kilde. Jeg mente 1080i hadde dobbel framerate (siden den bare oppdaterer halve bildet hver gang) og på den måten bedre greide å fange kjapp action. Men det kan være at effekten mistes på nye LCD-paneler og at den høyere frameraten blir tapt i deinterlacingen. Men at det skulle være bedre for stillbilder kan jeg uansett ikke se noen logikk i. Hvorfor skulle det være det? Vil jo uansett bli dårligere bilde ved deinterlacing av 1080i, siden framene som blir slått sammen ikke er fanget i samme tidspunkt. Det er dette som skaper "flimringen" jeg snakker om. Men dette er selvfølgelig også avhengig av hvor bra jobb TVen gjør. Endret 15. november 2007 av Geofrank Lenke til kommentar
Dr.Peedee Skrevet 15. november 2007 Del Skrevet 15. november 2007 Sikker? leste det var slikt i ett eller anet bransjeblad for en stund siden. En del av disse 1080i vs 720p oppfattningene og forklaringene stammer tilbake fra artikler på begynnelsen av 2000 tallet da man satt med gamle billedrørs TV'er som ikke bare mottok 1080i som signal, men også tegnet det opp interlaced. I dag skjer billedopptegningen av 1080i signalet derimot progresivt på LCD/Plasma osv... Men disse artiklene ligger jo fortsatt på nettet og folk linker til de ennå. Og mange har ennå samme oppfatning av 1080i vs 720p som den gangen man hadde HD TV på svære billedrørs (CRT) TV'er. Men nå de siste åra er det en faktor til inne i bildet som sagt, at skjermene kun kan fremvise progresive bilder og interlaced signaler blir/må de-interlaced før fremvisning. Kvaliteten på dette varierer dog fra TV til TV modell/projektor. Og hva kilden er har også noe å si. Er det tatt opp progresivt (film f.eks) så mistes ingen informasjon i et 1080i signal og du ser perfekt 1080p på TV'n din (hvis den ikke er av de "billigere" slaget). Lenke til kommentar
Dr.Peedee Skrevet 15. november 2007 Del Skrevet 15. november 2007 Sikker? leste det var slikt i ett eller anet bransjeblad for en stund siden. Er ikke helt sikker nei. Det kommer vel an på hvilket TV-apparat og kilde. Jeg mente 1080i hadde dobbel framerate (siden den bare oppdaterer halve bildet hver gang) og på den måten bedre greide å fange kjapp action. Men det kan være at effekten mistes på nye LCD-paneler og at den høyere frameraten blir tapt i deinterlacingen. Men at det skulle være bedre for stillbilder kan jeg uansett ikke se noen logikk i. Hvorfor skulle det være det? 1080i er begrenset av 60hz klokke slik som 1080p/720p. Skulle du hatt total dobbel framerate måtte den captured halvbilder ved 120hz for å kunne lage 60 helbilder i sekundet? Lenke til kommentar
Fritz0r Skrevet 15. november 2007 Del Skrevet 15. november 2007 (endret) nei, ikke dobbel framerate...eller... ugh..ok, Wiki to the rescue. Wiki-on-Interlaced: http://en.wikipedia.org/wiki/Interlace Slikt jeg forstår denne så er det slikt at "første" bildet kjøre anenhver linje nedover og "andre" bildet kjører samme film sekvens men i "uneven" linjer ned over (CRT only). Med LCD/Plasma kjøres samme bildet 2 ganger etter hverandre. Slikt jeg forstår dette så vil bilde kvaliteten bli bedre på still bilder med Interlaced, eller 1080i Endret 15. november 2007 av Fritz0r Lenke til kommentar
Dr.Peedee Skrevet 15. november 2007 Del Skrevet 15. november 2007 1080i er bedre på stillestående bilder. 720p/1080p er bedre på rørbare bilder, feks FPS/bil spill og slikt. Nei, er det ikke motsatt? Flimmer får man nok ikke fordi alle digitale panler, LCD /SXRD, Plasma osv... kun kan fremvise det som progresivt. Deinterlacingen som skjer gir et dårligere bilde, og vil på mange TVer oppfattes som "flimrete". Hvis de-interlacingen gir et flimrete bilde så ser det på tide på bytte TV. De-interlacingen trenger ikke gi dårligere bilde. Og disse panelene oppdaterer hele panelet 60 ganger i sekundet uansett foret med 1080p eller 1080i så "flimmer" blir det ikke. Lenke til kommentar
prebenl Skrevet 15. november 2007 Del Skrevet 15. november 2007 (endret) Syns ikke du hadde noen god forklaring på hvorfor kvaliteten på stillbilder skulle bli bedre i 1080i Fritz0r. Er det tatt opp progresivt (film f.eks) så mistes ingen informasjon i et 1080i signal og du ser perfekt 1080p på TV'n din Ja, hvis det er en Full-HD TV og frameraten var det dobbelte av det progressive signalet. Men det er vel bare aktuelt på de gamle TVene du snakker om. Nye Full-HD TV'er støtter jo 1080p uansett. Endret 15. november 2007 av Geofrank Lenke til kommentar
Fritz0r Skrevet 15. november 2007 Del Skrevet 15. november 2007 pga at samme bildet blir vist 2 ganger etter hverandre, derav får du bedre kvalitet på stillbilder i forrholdt til action sekvenser. Lenke til kommentar
prebenl Skrevet 15. november 2007 Del Skrevet 15. november 2007 pga at samme bildet blir vist 2 ganger etter hverandre, derav får du bedre kvalitet på stillbilder i forrholdt til action sekvenser. Om det er snakk om et stillbilde: I progressive scan: Samme bildet om og om igjen. I interlaced: Linje 1,3,5.. Linje 2,4,6... Linje 1,3,5... Lenke til kommentar
wilbur626 Skrevet 15. november 2007 Del Skrevet 15. november 2007 Det sier seg vel selv at 1080p gir et bedre bilde enn 1080i uansett om bildet står stille eller ei ? 1080p krever ingen form for etterbehandling som feks deinterlacing/linjedobling, noe som gir et kvalitetstap = 0 Lenke til kommentar
kavorka Skrevet 16. november 2007 Del Skrevet 16. november 2007 Hvis jeg har forstått dette riktig så fungerer det slik: 1080p/50 = 50 progressive/hele bilder pr sekund 1080i/50 = 50 interlacede bilder pr sekund = 50 felt pr sekund. Altså er et felt (dårlig oversatt av meg fra engelske field) = et interlaced bilde. Når man interlacer et bilde så lagrer man bare dets odde eller like linjer og kaller resultatet for et felt. Altså består felt 1 av linje 1,3,5 osv fra bilde 1 mens felt 2 består av linje 2,4,6 osv fra bilde 2. Ved 1080i så har bildene man lager feltene av, en oppløsning på 1080 linjer, men feltet i seg selv vil bare bestå av halvparten så mange linjer, i dette tilfellet 540. Likeså med 576i som er PAL formatet. De-interlacing = gjøre om fra felt til bilde. Her finnes det mange teknikker, men jeg nevner to av de: 1.) Weaving: Man spleiser(vever) to felter sammen til et bilde ved å ta annen hver linje fra hvert felt. Fordelen er at man da beholder oppløsningen på bildet. Baklempen er når bildene (som feltene er lagd av) ikke er like, vil man få artifakter. F.eks hvis en tv-stasjon har en sportsending som er filmet med et 1080p/50 kamera, men gjøres om til 1080i/50 ved sending pga mangel på båndbredde. I sport så vil som oftest bildet forandre seg relativt mye selv på 1/50 dels sekund så her vil artifaktene være større. En annen effekt av weaving er at man halverer det opprinnelige antall bilder per sekund og jeg antar dette vil resultere i en dårligere bildeflyt. Så vidt jeg har forstått vil en bra de-interlacing bruke weaving sammen med noen andre teknikker for å beholde den opprinnelige oppløsningen. En LCD-TV med oppdateringsfrekvens på 50Hz må vise 50 bilder pr sekund. Hvis den weaver feltene ender vi bare opp med 25 bilder pr sekund. For å løse dette viser den hvert bilde to ganger. 2.) Bobbing: Man lager et bilde fra bare et felt ved linjedobling. Altså linje 1 og linje 2 i bildet er lik linje 1 fra feltet. Man unngår artifaktene til weaving og beholder det opprinnelige antall bilder, men man halverer den vertikale oppløsningen. Altså får man en effektiv oppløsning på 1920*540 som er halvparten av det opprinnelige. Dette oppfattes som en veldig dårlig metode og brukes av dårlige LCD-TV'er. Trenger interlacing gi dårligere bildekvalitet? Teoretisk sett ikke. Tenk deg følgende: Film er som dere sikkert vet tatt opp med 24 bilder pr sekund. For å konvertere til 25 bilder pr sekund økes bare hastigheten på filmen (ca 4% økning). Så interlacer man hvert bilde to ganger slik at felt 1 og felt 2, felt 3 og felt 4 osv er tatt av samme bilde. Så sender man disse 50 felt pr sekund til TV'n og den weaver det perfekt sammen igjen til 25 bilder pr sekund. For at dette skal funke må TV'n på en eller annen måte vite hvilke to og to felt den skal weave sammen slik at den ikke tar felt 2 og 3 som IKKe er tatt av samme bilde. Altså hvis man har et progressivt kildemateriale som f.eks film (24 fps) og video (30 fps) så kan man alltid interlace -> de-interlace seg tilbake til det opprinnelige. Men så fort kilden har fps > 30 så sliter vi fordi da må TV'n støtte et interlaced signal på > 2*fps = 60 Hz og det tror jeg ikke finnes. Det er vel ikke en gang en standard. Så spør du deg sikkert, hvorfor ikke bare sende 25 bilder pr sekund i til å begynne med? Vel, de aller fleste TV'er støtter bare 50/60/100 Hz. Altså blir det krøll hvis de får et signal på 25 Hz. Det er bare nå i det siste at noen LCD'TV'er støtter 24/48/72/120 Hz osv. Lenke til kommentar
Nauz Skrevet 16. november 2007 Del Skrevet 16. november 2007 (endret) Hei. Jeg har en full hd tv fra Thosiba og ps3 koblet til via hdmi kabel Har valgt bildeinstillgene til automatisk og det står at ut signal er 1080p i ps3 menyen. Det jeg lurer litt på er om det er noen ps3 spill som støtter 1080p? Har kun prøvd spillet Cod4 og det støtter ikke 1080p? Edit: Sikkert litt dumt spørsmål, men uten å spørre lærer man ikke:p Endret 16. november 2007 av mr.nauz Lenke til kommentar
prebenl Skrevet 16. november 2007 Del Skrevet 16. november 2007 Hei. Jeg har en full hd tv fra Thosiba og ps3 koblet til via hdmi kabel Har valgt bildeinstillgene til automatisk og det står at ut signal er 1080p i ps3 menyen. Det jeg lurer litt på er om det er noen ps3 spill som støtter 1080p? Har kun prøvd spillet Cod4 og det støtter ikke 1080p? Er veldig få spill som støtter 1080p, men de eksisterer. Lenke til kommentar
Nauz Skrevet 16. november 2007 Del Skrevet 16. november 2007 Hei. Jeg har en full hd tv fra Thosiba og ps3 koblet til via hdmi kabel Har valgt bildeinstillgene til automatisk og det står at ut signal er 1080p i ps3 menyen. Det jeg lurer litt på er om det er noen ps3 spill som støtter 1080p? Har kun prøvd spillet Cod4 og det støtter ikke 1080p? Er veldig få spill som støtter 1080p, men de eksisterer. Ok Får håpe det blir mer vanlig med tiden:) Lenke til kommentar
SPiLL Skrevet 16. november 2007 Del Skrevet 16. november 2007 (endret) Hvordan de enkelte spillutviklere til PS3 og 360 rendrer grafikken veit jeg ikke. Men både "såkalte" 1080p og 720p spill har egentlig vært rendret i lavere oppløsning, skalert av billed/skalerings chip i 360 eller av Cell'n i PS3 til den utoppløsningen de ønsker. Hvordan konsollene rendrer grafikken 720p og 1080i ville jeg også like å vite. Tviler på at det er noe forskjell fra 720p til 1080i fra konsollen. Den oppskalerer til 1080i og derfor får en ikke lavere FPS i spill som kjøres i 1080i i stedet for 720p. Endret 16. november 2007 av VistaGames Lenke til kommentar
jkr83 Skrevet 16. november 2007 Del Skrevet 16. november 2007 Hei. Jeg har en full hd tv fra Thosiba og ps3 koblet til via hdmi kabel Har valgt bildeinstillgene til automatisk og det står at ut signal er 1080p i ps3 menyen. Det jeg lurer litt på er om det er noen ps3 spill som støtter 1080p? Har kun prøvd spillet Cod4 og det støtter ikke 1080p? Edit: Sikkert litt dumt spørsmål, men uten å spørre lærer man ikke:p Man får faktisk kjørt cod4 i 1080p oppløsning om man setter ps3'n til å bare støtte 1080p . Ser ikke store forskjeller på bildet så vet ikke om det hjelper. Liker å ha det slik uansett Lenke til kommentar
UrgeLoL Skrevet 16. november 2007 Del Skrevet 16. november 2007 Hvordan de enkelte spillutviklere til PS3 og 360 rendrer grafikken veit jeg ikke. Men både "såkalte" 1080p og 720p spill har egentlig vært rendret i lavere oppløsning, skalert av billed/skalerings chip i 360 eller av Cell'n i PS3 til den utoppløsningen de ønsker. Hvordan konsollene rendrer grafikken 720p og 1080i ville jeg også like å vite. Tviler på at det er noe forskjell fra 720p til 1080i fra konsollen. Den oppskalerer til 1080i og derfor får en ikke lavere FPS i spill som kjøres i 1080i i stedet for 720p. Tviler meget mye jeg også. På pc så skifter faktisk den interne renderingen når man bytter oppløsning. På konsollene så blir bare spillet nedskalert eller oppskalert etter den oppløsningen som er valgt. Lenke til kommentar
prebenl Skrevet 16. november 2007 Del Skrevet 16. november 2007 (endret) Varierer fra spill til spill. Her er en kommentar hvor Evan Wells forklarer hvordan det er gjort i Uncharted: It will play in 1080p but it’s software scaled to help out those with 1080i sets, so if you have a 1080p TV you’ll still want to play it in 720p (which it will default to). Lair f.eks. mener jeg rendres i 1080p. Endret 16. november 2007 av Geofrank Lenke til kommentar
UrgeLoL Skrevet 16. november 2007 Del Skrevet 16. november 2007 Ja, det er det jeg mener. Konsoll spill rendres i en oppløsning. De andre støttes gjennom oppskalering/nedskalering og andre triks. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå