Gå til innhold

Forskjell på d-Sub/DVI?


maasoey

Anbefalte innlegg

Videoannonse
Annonse

Fordi du ikke har noe kvalitetstap på en digital overføring.

Digitalt er som kjent 0 og 1, og du kan ikke motta en stygg 0'er eller stygg 1'er (om du skjønner), den kommer enten frem eller ikke.

 

Når det gjelder analogt så er dette elektriske signaler som kan påvirkes og miste kvalitet under overføring.

 

Et forklarende eksempel, som KUN illustrerer fordelen med digital fremfor analog, på kvalitetstap kan være kopiering av musikk. Dersom du har en kassett med musikk og kopierer denne over på en annen, vil kopien bli litt dårligere. Gjentar du denne prosessen (bruker kopien til å lage en ny kopi), la oss si, 10 ganger vil du enkelt høre hvilken som er kopi og hvilken som ikke er det. Gjør du derimot det samme med f.eks en CD (digitalt) så vil du ikke kunne høre forskjellen.

Lenke til kommentar

Analoge signaler blir degradert i overføringen (Ramdac klarer ikke å lage perfekte pulser, noe som ødelegger skarpheten)

 

På analoge signaler har du en flytende grense. Du vet ikke hvordan nivået er på det som sendes og må derfor fintune mottaker for å justere kontrast, lys og farger.

 

Når dette overføres digitalt sllipper man helt og holdent alle slike problemer og kan derfor ha et perfekt innsignal til skjermen.

 

En annen ting er at analoge signaler må synkroniseres opp mot panelet på en LCD (pixelclock), og denne prosessen er ikke alltid 100% og kan faktisk gi flimmer på enkelte bilder også, hvis bildet f.eks er rastrert 50% f.eks (tenk et gigantisk sjakkbrett med bittesmå ruter)

 

Konklusjonen er derfor at til vanlig PC-skjerm bruk, når maskinen ikke er langt unna, vil DVI så godt som alltid gi bedre resultat en 15-pins VGA (d-sub)

Lenke til kommentar
Teorien om forskjellen er grei, men noen som har noen tester eller lignene som viser bildeforskjellen i praksis?

9523240[/snapback]

Jeg hadde markant forskjell mellom DVI-D og D-SUB på min Samsung 226CW. Men D-SUB fikk jeg de velkjente "skyggende" der det var store kontrastforhold, f.eks tekst eller muspekeren over hvit/lys bakgrunn.

 

Er ikke bare jeg som har trøbbel med signalstøy på den analoge D-SUB-tilkoblingen: "Skygger" ved tilkobling via VGA (SS226BW)

Lenke til kommentar

Å bytte fra Dsub (VGA) til DVI har sine begrensninger om du kjører veldig høy oppløsning (riktig beskrivelse er "høy båndbredde ettersom det er mer enn opløsningenm som påvirker dette). I hovedsak ligger problemet i om du har en skjerm/skjermkort som støtter "dual link", som er et krav ved noen høye oppløsninger (høy båndbredde).

Skjermen kan altså klare høy oppløsning og oppfriskningshastighet om du benytter VGA/Dsub, men ikke nødvendigvis om du benytter DVI-I i digital modus eller DVI-D.

Sjekk derfor først spesifikasjonene til skjermen/skjermkortet før du evt kjøper en "dual link kabel".

Lenke til kommentar
d-sub sier at ting skal være ca på et sted, og det passer greit med crt-skjermer. DVI sender at den pixelen skal være DER og en annen skal være DER. Mens d-sub sier ca der og ca der.

9520736[/snapback]

Alle nye LCD-skjermer har autotilpassing og får pixlene til å passe meget bra.

 

Teorien om forskjellen er grei, men noen som har noen tester eller lignene som viser bildeforskjellen i praksis?

9523240[/snapback]

Jeg har bare egen erfaring å vise til. I praksis er det neglisjerbare kvalitetsforskjeller. Det gjelder både geforce 7600GS + Samsung 940BF og integrert Radeon X300 + Dell 2407WFP.

 

Hvis man leter godt så kan man se ørsmå antydninger til skygge på steder med fine detaljer og stort kontrast, f.eks hvit liten tekst på sort bakgrunn. Dette er ikke noe jeg ser uten å lete etter det og dermed heller ikke noe som merkes under normal bruk.

 

d-sub er etter min erfaring faktisk forbløffende bra selv om teorien utvilsomt sier at det skal være dårligere enn DVI.

Lenke til kommentar
Teorien om forskjellen er grei, men noen som har noen tester eller lignene som viser bildeforskjellen i praksis?

9523240[/snapback]

Jeg har bare egen erfaring å vise til. I praksis er det neglisjerbare kvalitetsforskjeller. Det gjelder både geforce 7600GS + Samsung 940BF og integrert Radeon X300 + Dell 2407WFP.

 

Hvis man leter godt så kan man se ørsmå antydninger til skygge på steder med fine detaljer og stort kontrast, f.eks hvit liten tekst på sort bakgrunn. Dette er ikke noe jeg ser uten å lete etter det og dermed heller ikke noe som merkes under normal bruk.

 

d-sub er etter min erfaring faktisk forbløffende bra selv om teorien utvilsomt sier at det skal være dårligere enn DVI.

9546268[/snapback]

 

Jeg vil bare støtte denne.

"Det var en gang" (kansje) at DVI ga bedre bilde enn VGA. Men denne forskjellen er så godt som borte.

Det "hysteriet" som en gang var for å få DVI bør være borte for 99% ? av brukerene.

Fordelen med DVI er derfor i hovedsak begrenset til en enklere overgang til HDMI. Men ettersom HDCP 1.3 nå integreres stadig oftere, vil de som har behov for å se film eller annen copy protected data heller ikke ha den stor gleden av DVI/HDMI. I så tilfelle vil S-video eller composite inngang til en viss grad (begrenset kvalitet) erstatte dette behovet også

 

Om en har 2 PC-er kan imidlertid 2 skjerminnganger kunne gi en enkel form for KVM switch, men i praksis gir det komplisert bruk.

 

For egen del vil jeg derfor påstå at en singel VGA interface, tilsvarende det som er på de eldre CRT skjermene, vil dekke behovet fullt ut for de fleste og at "store" investeringer utover VGA vil være bortkastet om en ikke har helt spesielle applikasjoner.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...