Gå til innhold

Ny Parhelia-modell fra Matrox


Anbefalte innlegg

Videoannonse
Annonse

Noen som vet om det er mulig å få et skikkelig signal på 1 - en - DVI-port med en revisjon av DVI-spesifikasjonene/standerden? Eller blir det slik at etterhvert som oppløsninger over 1600x1200 blir vanlig er vi nødt til å finne oss i 2stk DVI-kontakter per skjerm?

Lenke til kommentar
Noen som vet om det er mulig å få et skikkelig signal på 1 - en - DVI-port med en revisjon av DVI-spesifikasjonene/standerden? Eller blir det slik at etterhvert som oppløsninger over 1600x1200 blir vanlig er vi nødt til å finne oss i 2stk DVI-kontakter per skjerm?

Single link DVI støtter opptil 1920x1080, mens dual link DVI støtter opptil 2048x1536.

 

Apple selger et NVIDIA GeForce 6800 Ultra DDL-kort som støtter dual link DVI...

Endret av snorreh
Lenke til kommentar

Er det ikke et Gforce 6800 ett_eller_annet som står i de dyreste Apple maskinene, med de største skjermene? Mener jeg kan huske at Apple hadde problemer med og levere maskiner med de største skjermene fordi nvidia ikke klarte og levere skjemkort (omtrent da 6800 serien ble lansert)..

Lenke til kommentar
Er det ikke et Gforce 6800 ett_eller_annet som står i de dyreste Apple maskinene, med de største skjermene? Mener jeg kan huske at Apple hadde problemer med og levere maskiner med de største skjermene fordi nvidia ikke klarte og levere skjemkort (omtrent da 6800 serien ble lansert)..

Nvidia hadde problemer med å levere nok GeForce 6800 Ultra DDL til Apple,

men "fikset" det med å levere en spesialutgave av GeForce 6800GT som støtter Dual link.

Det er fremdeles litt ventetid på Ultra DDL kortet (3-5 uker), men er ikke så gale som det var i starten.

 

Er veldig bra av Matrox å komme med et kort som støtter oppløsningen til Apple sin største skjerm på vanlig PC. Håper Nvidia og ATI snart følger etter med PCIe og AGP løsninger.

Apple sin 30" er helt rå, og drømmen er jo selvfølgelig to slike ;-)

(GF6800 Ultra DDL støtter faktisk 2x).

En slik løsning bør bundles med egen massør, slik at man ikke får nakkeproblemer av den store skjermflaten ;-)

 

Ja, ja, får bare vinne i lotto først :-)

 

Arcade

Lenke til kommentar
Av en eller annen grunn er ikke DVI like "rask" som standard VGA.

 

En kan f.esk ta Eizo Flexscan L997( http://www.eizo.com/products/lcd/l997/spec.asp )

Hvis en ser under spesifikasjonene ser en at maksimal vertikal scanningfrekvens hos DVI er lavere enn hos VGA.

Det samme gjelder andre modeller.

Ihvertfall sånn jeg har forstått det, så trenger man ikke like høy vertikal frekvens på DVI for å få flimmerfritt bilde som med vanlig VGA.

Hadde vært fint om noen kunne bekrefte/avkrefte dette.

Lenke til kommentar
Av en eller annen grunn er ikke DVI like "rask" som standard VGA.

 

En kan f.esk ta Eizo Flexscan L997( http://www.eizo.com/products/lcd/l997/spec.asp )

Hvis en ser under spesifikasjonene ser en at maksimal vertikal scanningfrekvens hos DVI er lavere enn hos VGA.

Det samme gjelder andre modeller.

Ihvertfall sånn jeg har forstått det, så trenger man ikke like høy vertikal frekvens på DVI for å få flimmerfritt bilde som med vanlig VGA.

Hadde vært fint om noen kunne bekrefte/avkrefte dette.

En LCD skjerm vil aldri flimre etter som det bare er millioner av crystaller som skifter farge... Prøv å filme en CRT og en LCD skjerm med et kamera så ser du fort hva jeg mener.

Lenke til kommentar

Single link DVI støtter opptil 1920x1080, mens dual link DVI støtter opptil 2048x1536.

Quote HW:

"# Maksimum digital (DVI) oppløsning 2560 x 1600

# Maksimum analog (VGA) oppløsning 2048 x 1536"

Les før du skriver. :cool:

Snorreh har rett, ifølge standarden. Men "real life needs" har oversteget standarden, og derfor har man funnet måter å omgå begrensningen på.

 

Her er min høyst uoffisielle forståelse av problemet.

 

La oss prøve oss på litt matematikk: Signalene i en single link DVI forbindelse sendes med 165 MHz. Hvis du skal sende 1920x1080 på 60 Hz får du 1920 x 1080 x 60 = 124 416 000 Hz. Som du ser er det litt il overs her. Dette er satt av til overhead. Dels er det overhead ved selve overføringen, DVi bruker (tror jeg) en 10-8 encoding (eller heter 8-10? Det vil si at 8 databits kodes med 2 kontrollbits, og det faktisk overføres 10 bits for hver byte.) I stedet for 124 416 000 sendes det altså 10/8 så mange bits, eller 155 520 000.

 

I tillegg har vi forsinkelser i selve skjermen, deriblandt den såkalte "blanking". Blanking er tiden det tar fra skjermen er ferdig med en oppgave til den kan begynne på neste. Dette stammer fra CRT'ene, når katodestrålen var ferdig med å tegne opp en linje brukte den litt tid på å plassere seg på begynnelsen av neste linje på andre siden av skjermen, og når den var ferdig med siste linje måtte den helt opp i øvre venstre hjørne igjen. Dette spiste av effektiv båndbredde.

 

Nå har DVI selvsagt ikke samme problemstillingen, det er ingen elektronstråle som skal stilles inn. Men fortsatt har den litt overhead, og den kalles for blanking. Om jeg forstår det riktig opererer DVI standarden med samme overhead som for analoge signaler. Dette var meningsfullt i starten, da man opererte med langsommere teknologi. Men det er strengt tatt ikke nødvendig i dag, fordi en moderne TFT er mye kjappere på denne blankingen. Så det man gjør er å korte inn på blankingintervallet.

 

Så hvor går grensen? La oss gjøre regnestykket igjen, denne gangen med 1920 x 1200 (standard for mange widescreens idag.) Da får vi 1920 x 1200 x 60 = 138 240 000. Men så må vi regne med encoding 10/8, og da får vi 172 800 000. Da har vi allerede brukt opp båndbredden, og det uten å ha tatt med andre kontrollsignaler og blanking. Hva gjør man så? Jo man tyr til det opplagte trick: Man senker oppfriskningsraten. Med f eks. 52 Hz i stedet for 60, er vi i mål. Siden en LCD ikke flimrer, ser ikke dette så galt ut. Men vi har altså tapt kvalitet på bevegelig bilder, som video og spill. (Man kan selvsagt gjøre det motsatte også, og øke frekvensen når man har ledig båndbredde, men det har så liten praktisk betydning i DVI-sammenheng fordi som nevnt så flimrer ikke en LCD skjerm.)

 

Dua Link bruker to TDMS brikker og sender signalet gjennom dobbelt så mange ledere i samme kabelen. Da får vi en båndbredde på 330 MHz. Ser vi på den nevnte 30" Apple skjerm på 2560 x 1600 pixler, fortsatt på 60 Hz, blir 2560 x 1600 x 60 = 245 760 000 Hz. Om vi legger til for encoding får vi 245 760 000 *10/8 eller 307 200 000. Fortsatt har vi litt igjen til kontrolltegn og til blanking.

 

Selv med overhead går det altså bra.

 

Så min uærbødige og uvitenskapelige konklusjon er at for alt over 1600x1200 skal man bruke Dual Link, ellers går det ut over billedkvaliteten. Og at ingen følger standarden når den setter unødvendige begrensninger på teknologien.

 

EDIT: Ble litt rotete dette her, men har ikke tid til å pynte på det. Tar forbehold om regne- og faktafeil...

 

Geir :)

Endret av tom waits for alice
Lenke til kommentar
Nå må dere huske at det faktisk er noen som bruker sine datamaskiner som arbeidsverktøy også  :w00t:

Yes! jeg bruker min strålende 20" LaCie analogt på en bærbar med et 9200 grafikksystem. Kan knapt nok spille Age of Empires på den, men når jeg jobber er det praktfullt. Det er en verden utenfor SLI og benchmarks, og de fleste PC brukere befinner seg antagelig der. De er bare ikke opptatt av hardware og spcs, og poster ikke på forum som dette. Vi som gjør det og vanker her er antagelig ikke representative for gjennomsnittsbrukeren...

 

Geir :)

Endret av tom waits for alice
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...