Nuffern Skrevet 12. april 2007 Del Skrevet 12. april 2007 Vurderer å kjøpe et Sapphire Radeon X1950PRO. Kortet skal brukes på en HTPC som er koblet til en Samsung LE40N71. Slik jeg har fått vite så blir bildet på samsungen best ved tilkobling til VGA fra PC. Spørsmålet blir da hvordan det blir med HDCP-støtten? X1950 har støtte for HDCP, men mister jeg ikke dette når jeg bruker en overgang til analoge VGA? Noen som har noe erfaring med dette? Lenke til kommentar
veggiss Skrevet 12. april 2007 Del Skrevet 12. april 2007 Vurderer å kjøpe et Sapphire Radeon X1950PRO. Kortet skal brukes på en HTPC som er koblet til en Samsung LE40N71. Slik jeg har fått vite så blir bildet på samsungen best ved tilkobling til VGA fra PC. Spørsmålet blir da hvordan det blir med HDCP-støtten? X1950 har støtte for HDCP, men mister jeg ikke dette når jeg bruker en overgang til analoge VGA? Noen som har noe erfaring med dette? 8372277[/snapback] hdcp over vga er ikke mulig da vga er analog signaloverføring. det kan kun overføres via dvi eller hdmi. Lenke til kommentar
Andrull Skrevet 12. april 2007 Del Skrevet 12. april 2007 (endret) Off-topic: Hvordan kan bildet bli bedre på VGA enn på DVI/HDMI? Hvis det ikke har noe med at du ikke kan aktivere en oppløsning via DVI/HDMI, så kan jeg ikke se en grunn til at VGA er bedre. Blir vel som å si at DVD-filmen får bedre bildekvalitet ved at du dekomprimerer den til et annet format, og så komprimerer den til samme orginale format igjen.... Skjermkortet sender ut vanlige digitale signaler, så gjøres signalet om til analoge signaler, og før den går inn i skjermen/etter at signalet har kommet inn i skjermen, så gjøres signalet igjen om til digitale signaler. (dette fører da alltid til et lite informasjonstap) Med DVI så går signalet digitalt HELE veien, uten tap av informasjon. (mer eller mindre) Så hvordan du kan få bedre bilde ved å bruke VGA kan jeg ikke fatte. (noen logisk forklaring?) Selv synes jeg VGA er irriterende uskarpt. Endret 12. april 2007 av andrull Lenke til kommentar
Nuffern Skrevet 12. april 2007 Forfatter Del Skrevet 12. april 2007 Takker for svar! Det var det jeg fryktet. Fikk det ikke helt til å stemme at det ville fungere. Ville bare høre med ekspertene. Da gjenstår det bare å teste hvordan TVen er på tilkobling med HDMI. Er eneste mulighet for å beholde HDCP-støtten. Håper det ikke er så ille som folk skal ha det til. Får sjekke ut på jobben imorgen.. Så hvordan du kan få bedre bilde ved å bruke VGA kan jeg ikke fatte. (noen logisk forklaring?) Selv synes jeg VGA er irriterende uskarpt. 8372304[/snapback] Rent teoretisk er et bilde bedre på DVI/HDMI enn VGA, men enkelte TVer skalerer bildet forskjellig avhengig av hvilken tilkobling som benyttes. 1:1 pixelmapping, oppløsning osv.. Lenke til kommentar
Nuffern Skrevet 14. april 2007 Forfatter Del Skrevet 14. april 2007 (endret) Snakket med en som visstnok skal ha litt peil på dette, og han mente at det ikke var noe problem med å bruke VGA fra PC da dekodingen av HDCP foregår i grafikkortet før signalet sendes ut til skjerm. Videre så har jeg funnet ut at å koble en Samsung til PC via HDMI er bortkastet. Får ikke stilt til riktig oppløsning verken med nVidia eller ATI. Eneste som fungerer bra er VGA-tilkobling. Endret 14. april 2007 av Nuffern Lenke til kommentar
Andrull Skrevet 14. april 2007 Del Skrevet 14. april 2007 Snakket med en som visstnok skal ha litt peil på dette, og han mente at det ikke var noe problem med å bruke VGA fra PC da dekodingen av HDCP foregår i grafikkortet før signalet sendes ut til skjerm. Videre så har jeg funnet ut at å koble en Samsung til PC via HDMI er bortkastet. Får ikke stilt til riktig oppløsning verken med nVidia eller ATI. Eneste som fungerer bra er VGA-tilkobling. 8383496[/snapback] hmmm, kan nok godt hende, men det må jo være noen form for dekoding som skjer i skjermen også da... (ettersom du kun kan vise HDCP materiale på de "få "skjermene som faktisk støtter HDCP) Lenke til kommentar
guezz Skrevet 15. april 2007 Del Skrevet 15. april 2007 High-Bandwidth Digital Content Protection (HDCP)HD-DVD and Blu-ray discs will eventually (2009?) begin to use full (AACS + ICT) HDCP encryption which will demand a HDCP ready video card with DVI/HDMI and a HDCP ready monitor/HDTV for HD resolutions (720p/1080i/1080p). The alternative is a downscaled image (540p) or no image for analogue connections and no image for digital connections. AACS: HDCP encryption ICT: Decides what kind of image is displayed Lenke til kommentar
Nuffern Skrevet 15. april 2007 Forfatter Del Skrevet 15. april 2007 (endret) Det var nyttig infomasjon, guezz. Takker.. Betyr dette at man må kjøpe seg et nytt skjermkort i 2009, eller vil man kunne bruke det man har fra før så lenge det støtter HDCP? Endret 15. april 2007 av Nuffern Lenke til kommentar
guezz Skrevet 15. april 2007 Del Skrevet 15. april 2007 (endret) Det var nyttig infomasjon, guezz. Takker.. Betyr dette at man må kjøpe seg et nytt skjermkort i 2009, eller vil man kunne bruke det man har fra før så lenge det støtter HDCP? 8391378[/snapback] Hvis en har et kort som nå støtter HDCP vil den også fungere fint med DVI/HDMI når en kjøper nye HD-DVD- og Blu-Ray filmer i 2009. I dag kan en få HD oppløsning (maksimum 1080i grunnet AACS beskyttelsen) med VGA/komponent, selv når en bruker et kort som ikke støtter HDCP. Dette er ikke mulig i 2009 da ICT brukes i de nyeste filmene. Endret 15. april 2007 av guezz Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå