maasoey Skrevet 17. september 2007 Del Skrevet 17. september 2007 Kan noen si meg forskjellen på disse? Er det vits å bytte ut d-sub-kabelen, foran en DVI-kabel? Lenke til kommentar
tole Skrevet 17. september 2007 Del Skrevet 17. september 2007 DVI = digitalt bilde (kan gjøres analog ved DVI->VGA (d-sub) overgang d-sub = analogt bilde Hvis du kan bruke DVI er det å foretrekke. Lenke til kommentar
TaZ Skrevet 17. september 2007 Del Skrevet 17. september 2007 (endret) DVI-digitalt og analogt(du henter ut det analoge signalet med en VGA (d-sub) overgang. VGA-Analog HDMI-Digitalt Endret 17. september 2007 av taz Lenke til kommentar
maasoey Skrevet 18. september 2007 Forfatter Del Skrevet 18. september 2007 DVI = digitalt bilde (kan gjøres analog ved DVI->VGA (d-sub) overgangd-sub = analogt bilde Hvis du kan bruke DVI er det å foretrekke. 9510481[/snapback] Men HVORFOR? det er det jeg lurer på? Lenke til kommentar
Flimzes Skrevet 18. september 2007 Del Skrevet 18. september 2007 d-sub sier at ting skal være ca på et sted, og det passer greit med crt-skjermer. DVI sender at den pixelen skal være DER og en annen skal være DER. Mens d-sub sier ca der og ca der. Lenke til kommentar
Vikdal Skrevet 18. september 2007 Del Skrevet 18. september 2007 Fordi du ikke har noe kvalitetstap på en digital overføring. Digitalt er som kjent 0 og 1, og du kan ikke motta en stygg 0'er eller stygg 1'er (om du skjønner), den kommer enten frem eller ikke. Når det gjelder analogt så er dette elektriske signaler som kan påvirkes og miste kvalitet under overføring. Et forklarende eksempel, som KUN illustrerer fordelen med digital fremfor analog, på kvalitetstap kan være kopiering av musikk. Dersom du har en kassett med musikk og kopierer denne over på en annen, vil kopien bli litt dårligere. Gjentar du denne prosessen (bruker kopien til å lage en ny kopi), la oss si, 10 ganger vil du enkelt høre hvilken som er kopi og hvilken som ikke er det. Gjør du derimot det samme med f.eks en CD (digitalt) så vil du ikke kunne høre forskjellen. Lenke til kommentar
Gjest Skrevet 18. september 2007 Del Skrevet 18. september 2007 Teorien om forskjellen er grei, men noen som har noen tester eller lignene som viser bildeforskjellen i praksis? Lenke til kommentar
tole Skrevet 18. september 2007 Del Skrevet 18. september 2007 Analoge signaler blir degradert i overføringen (Ramdac klarer ikke å lage perfekte pulser, noe som ødelegger skarpheten) På analoge signaler har du en flytende grense. Du vet ikke hvordan nivået er på det som sendes og må derfor fintune mottaker for å justere kontrast, lys og farger. Når dette overføres digitalt sllipper man helt og holdent alle slike problemer og kan derfor ha et perfekt innsignal til skjermen. En annen ting er at analoge signaler må synkroniseres opp mot panelet på en LCD (pixelclock), og denne prosessen er ikke alltid 100% og kan faktisk gi flimmer på enkelte bilder også, hvis bildet f.eks er rastrert 50% f.eks (tenk et gigantisk sjakkbrett med bittesmå ruter) Konklusjonen er derfor at til vanlig PC-skjerm bruk, når maskinen ikke er langt unna, vil DVI så godt som alltid gi bedre resultat en 15-pins VGA (d-sub) Lenke til kommentar
Skagen Skrevet 20. september 2007 Del Skrevet 20. september 2007 Teorien om forskjellen er grei, men noen som har noen tester eller lignene som viser bildeforskjellen i praksis? 9523240[/snapback] Jeg hadde markant forskjell mellom DVI-D og D-SUB på min Samsung 226CW. Men D-SUB fikk jeg de velkjente "skyggende" der det var store kontrastforhold, f.eks tekst eller muspekeren over hvit/lys bakgrunn. Er ikke bare jeg som har trøbbel med signalstøy på den analoge D-SUB-tilkoblingen: "Skygger" ved tilkobling via VGA (SS226BW) Lenke til kommentar
Hotlink Skrevet 21. september 2007 Del Skrevet 21. september 2007 Å bytte fra Dsub (VGA) til DVI har sine begrensninger om du kjører veldig høy oppløsning (riktig beskrivelse er "høy båndbredde ettersom det er mer enn opløsningenm som påvirker dette). I hovedsak ligger problemet i om du har en skjerm/skjermkort som støtter "dual link", som er et krav ved noen høye oppløsninger (høy båndbredde). Skjermen kan altså klare høy oppløsning og oppfriskningshastighet om du benytter VGA/Dsub, men ikke nødvendigvis om du benytter DVI-I i digital modus eller DVI-D. Sjekk derfor først spesifikasjonene til skjermen/skjermkortet før du evt kjøper en "dual link kabel". Lenke til kommentar
Simen1 Skrevet 21. september 2007 Del Skrevet 21. september 2007 d-sub sier at ting skal være ca på et sted, og det passer greit med crt-skjermer. DVI sender at den pixelen skal være DER og en annen skal være DER. Mens d-sub sier ca der og ca der.9520736[/snapback] Alle nye LCD-skjermer har autotilpassing og får pixlene til å passe meget bra. Teorien om forskjellen er grei, men noen som har noen tester eller lignene som viser bildeforskjellen i praksis?9523240[/snapback] Jeg har bare egen erfaring å vise til. I praksis er det neglisjerbare kvalitetsforskjeller. Det gjelder både geforce 7600GS + Samsung 940BF og integrert Radeon X300 + Dell 2407WFP. Hvis man leter godt så kan man se ørsmå antydninger til skygge på steder med fine detaljer og stort kontrast, f.eks hvit liten tekst på sort bakgrunn. Dette er ikke noe jeg ser uten å lete etter det og dermed heller ikke noe som merkes under normal bruk. d-sub er etter min erfaring faktisk forbløffende bra selv om teorien utvilsomt sier at det skal være dårligere enn DVI. Lenke til kommentar
Flimzes Skrevet 21. september 2007 Del Skrevet 21. september 2007 Du har helt rett i at de fleste lcd-skjermer håndterer analogge signaler veldig bra. På Dell 2407wfp så er det veldig nøyaktig pixel for pixel, ingen pixler som flyter ut til naboen eller noe sånt. Min forklaring var jo en veldig kraftig forenkling også Lenke til kommentar
Hotlink Skrevet 23. september 2007 Del Skrevet 23. september 2007 Teorien om forskjellen er grei, men noen som har noen tester eller lignene som viser bildeforskjellen i praksis?9523240[/snapback] Jeg har bare egen erfaring å vise til. I praksis er det neglisjerbare kvalitetsforskjeller. Det gjelder både geforce 7600GS + Samsung 940BF og integrert Radeon X300 + Dell 2407WFP. Hvis man leter godt så kan man se ørsmå antydninger til skygge på steder med fine detaljer og stort kontrast, f.eks hvit liten tekst på sort bakgrunn. Dette er ikke noe jeg ser uten å lete etter det og dermed heller ikke noe som merkes under normal bruk. d-sub er etter min erfaring faktisk forbløffende bra selv om teorien utvilsomt sier at det skal være dårligere enn DVI. 9546268[/snapback] Jeg vil bare støtte denne. "Det var en gang" (kansje) at DVI ga bedre bilde enn VGA. Men denne forskjellen er så godt som borte. Det "hysteriet" som en gang var for å få DVI bør være borte for 99% ? av brukerene. Fordelen med DVI er derfor i hovedsak begrenset til en enklere overgang til HDMI. Men ettersom HDCP 1.3 nå integreres stadig oftere, vil de som har behov for å se film eller annen copy protected data heller ikke ha den stor gleden av DVI/HDMI. I så tilfelle vil S-video eller composite inngang til en viss grad (begrenset kvalitet) erstatte dette behovet også Om en har 2 PC-er kan imidlertid 2 skjerminnganger kunne gi en enkel form for KVM switch, men i praksis gir det komplisert bruk. For egen del vil jeg derfor påstå at en singel VGA interface, tilsvarende det som er på de eldre CRT skjermene, vil dekke behovet fullt ut for de fleste og at "store" investeringer utover VGA vil være bortkastet om en ikke har helt spesielle applikasjoner. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå