RBW Skrevet 26. januar 2005 Del Skrevet 26. januar 2005 Ny Parhelia-modell fra Matrox Matrox lanserer nå Parhelia DL256 PCI. I disse PCIe-tider kan det ved første øyekast virke noe snodig å lansere et PCI-basert kort. Les artikkelen her Lenke til kommentar
snorreh Skrevet 26. januar 2005 Del Skrevet 26. januar 2005 (endret) Ikke så snodig egentlig for det er tross alt et 64-bit 66MHz PCI-X kort (med 533MB/s båndbredde), og ikke et vanlig 32-bit 33MHz PCI-kort (med 133MB/s båndbredde) det er snakk om her. Endret 26. januar 2005 av snorreh Lenke til kommentar
efikkan Skrevet 26. januar 2005 Del Skrevet 26. januar 2005 Hvordan er støtten for OpenGL på slike kort? Lenke til kommentar
albe Skrevet 26. januar 2005 Del Skrevet 26. januar 2005 Hvordan er støtten for OpenGL på slike kort? Heller begredelig. Men det er kjempefint til Excel og powerpoint og slikt. Gjerne med en drøss skjermer samtidig. Lenke til kommentar
mad_arab Skrevet 26. januar 2005 Del Skrevet 26. januar 2005 Noen som vet om det er mulig å få et skikkelig signal på 1 - en - DVI-port med en revisjon av DVI-spesifikasjonene/standerden? Eller blir det slik at etterhvert som oppløsninger over 1600x1200 blir vanlig er vi nødt til å finne oss i 2stk DVI-kontakter per skjerm? Lenke til kommentar
Anonym123456789 Skrevet 26. januar 2005 Del Skrevet 26. januar 2005 Hva er poenget med DVI hvis det er dårligere enn gammeldags VGA-tilkobling? Vil fremtidens OLED-skjermer etc bruke DVI2 eller noe sånt? Lenke til kommentar
snorreh Skrevet 26. januar 2005 Del Skrevet 26. januar 2005 (endret) Hva er poenget med DVI hvis det er dårligere enn gammeldags VGA-tilkobling? Vil fremtidens OLED-skjermer etc bruke DVI2 eller noe sånt? DVI er suverent bedre enn VGA, hvor har du hørt noe annet? All About DVI Endret 26. januar 2005 av snorreh Lenke til kommentar
snorreh Skrevet 26. januar 2005 Del Skrevet 26. januar 2005 (endret) Noen som vet om det er mulig å få et skikkelig signal på 1 - en - DVI-port med en revisjon av DVI-spesifikasjonene/standerden? Eller blir det slik at etterhvert som oppløsninger over 1600x1200 blir vanlig er vi nødt til å finne oss i 2stk DVI-kontakter per skjerm? Single link DVI støtter opptil 1920x1080, mens dual link DVI støtter opptil 2048x1536. Apple selger et NVIDIA GeForce 6800 Ultra DDL-kort som støtter dual link DVI... Endret 26. januar 2005 av snorreh Lenke til kommentar
tiboine Skrevet 26. januar 2005 Del Skrevet 26. januar 2005 Single link DVI støtter opptil 1920x1080, mens dual link DVI støtter opptil 2048x1536. Quote HW: "# Maksimum digital (DVI) oppløsning 2560 x 1600 # Maksimum analog (VGA) oppløsning 2048 x 1536" Les før du skriver. Lenke til kommentar
Betroz Skrevet 26. januar 2005 Del Skrevet 26. januar 2005 Skjermkortet til Matrox er ikke så interessant, men den Apple skjermen er! Lekker Lenke til kommentar
R0adkill Skrevet 26. januar 2005 Del Skrevet 26. januar 2005 Er det ikke et Gforce 6800 ett_eller_annet som står i de dyreste Apple maskinene, med de største skjermene? Mener jeg kan huske at Apple hadde problemer med og levere maskiner med de største skjermene fordi nvidia ikke klarte og levere skjemkort (omtrent da 6800 serien ble lansert).. Lenke til kommentar
Gunderz Skrevet 26. januar 2005 Del Skrevet 26. januar 2005 Av en eller annen grunn er ikke DVI like "rask" som standard VGA. En kan f.esk ta Eizo Flexscan L997( http://www.eizo.com/products/lcd/l997/spec.asp ) Hvis en ser under spesifikasjonene ser en at maksimal vertikal scanningfrekvens hos DVI er lavere enn hos VGA. Det samme gjelder andre modeller. Lenke til kommentar
arcade Skrevet 26. januar 2005 Del Skrevet 26. januar 2005 Er det ikke et Gforce 6800 ett_eller_annet som står i de dyreste Apple maskinene, med de største skjermene? Mener jeg kan huske at Apple hadde problemer med og levere maskiner med de største skjermene fordi nvidia ikke klarte og levere skjemkort (omtrent da 6800 serien ble lansert).. Nvidia hadde problemer med å levere nok GeForce 6800 Ultra DDL til Apple, men "fikset" det med å levere en spesialutgave av GeForce 6800GT som støtter Dual link. Det er fremdeles litt ventetid på Ultra DDL kortet (3-5 uker), men er ikke så gale som det var i starten. Er veldig bra av Matrox å komme med et kort som støtter oppløsningen til Apple sin største skjerm på vanlig PC. Håper Nvidia og ATI snart følger etter med PCIe og AGP løsninger. Apple sin 30" er helt rå, og drømmen er jo selvfølgelig to slike ;-) (GF6800 Ultra DDL støtter faktisk 2x). En slik løsning bør bundles med egen massør, slik at man ikke får nakkeproblemer av den store skjermflaten ;-) Ja, ja, får bare vinne i lotto først :-) Arcade Lenke til kommentar
hallgeirl Skrevet 27. januar 2005 Del Skrevet 27. januar 2005 Av en eller annen grunn er ikke DVI like "rask" som standard VGA. En kan f.esk ta Eizo Flexscan L997( http://www.eizo.com/products/lcd/l997/spec.asp ) Hvis en ser under spesifikasjonene ser en at maksimal vertikal scanningfrekvens hos DVI er lavere enn hos VGA. Det samme gjelder andre modeller. Ihvertfall sånn jeg har forstått det, så trenger man ikke like høy vertikal frekvens på DVI for å få flimmerfritt bilde som med vanlig VGA. Hadde vært fint om noen kunne bekrefte/avkrefte dette. Lenke til kommentar
MCDr Skrevet 27. januar 2005 Del Skrevet 27. januar 2005 Av en eller annen grunn er ikke DVI like "rask" som standard VGA. En kan f.esk ta Eizo Flexscan L997( http://www.eizo.com/products/lcd/l997/spec.asp ) Hvis en ser under spesifikasjonene ser en at maksimal vertikal scanningfrekvens hos DVI er lavere enn hos VGA. Det samme gjelder andre modeller. Ihvertfall sånn jeg har forstått det, så trenger man ikke like høy vertikal frekvens på DVI for å få flimmerfritt bilde som med vanlig VGA. Hadde vært fint om noen kunne bekrefte/avkrefte dette. En LCD skjerm vil aldri flimre etter som det bare er millioner av crystaller som skifter farge... Prøv å filme en CRT og en LCD skjerm med et kamera så ser du fort hva jeg mener. Lenke til kommentar
Dastardly Skrevet 27. januar 2005 Del Skrevet 27. januar 2005 Synest Matrox heller burde komme med en ny GPU snart eg. Har alltid hatt Matrox, helt siden det første Millenium-kortet kom, nå har eg skiftet til 6600GT, har faktisk lyst til å spille litt også, og Parhelia-kort suger om du vil ha litt 3D-ytelse. Lenke til kommentar
tom waits for alice Skrevet 27. januar 2005 Del Skrevet 27. januar 2005 (endret) Single link DVI støtter opptil 1920x1080, mens dual link DVI støtter opptil 2048x1536. Quote HW: "# Maksimum digital (DVI) oppløsning 2560 x 1600 # Maksimum analog (VGA) oppløsning 2048 x 1536" Les før du skriver. Snorreh har rett, ifølge standarden. Men "real life needs" har oversteget standarden, og derfor har man funnet måter å omgå begrensningen på. Her er min høyst uoffisielle forståelse av problemet. La oss prøve oss på litt matematikk: Signalene i en single link DVI forbindelse sendes med 165 MHz. Hvis du skal sende 1920x1080 på 60 Hz får du 1920 x 1080 x 60 = 124 416 000 Hz. Som du ser er det litt il overs her. Dette er satt av til overhead. Dels er det overhead ved selve overføringen, DVi bruker (tror jeg) en 10-8 encoding (eller heter 8-10? Det vil si at 8 databits kodes med 2 kontrollbits, og det faktisk overføres 10 bits for hver byte.) I stedet for 124 416 000 sendes det altså 10/8 så mange bits, eller 155 520 000. I tillegg har vi forsinkelser i selve skjermen, deriblandt den såkalte "blanking". Blanking er tiden det tar fra skjermen er ferdig med en oppgave til den kan begynne på neste. Dette stammer fra CRT'ene, når katodestrålen var ferdig med å tegne opp en linje brukte den litt tid på å plassere seg på begynnelsen av neste linje på andre siden av skjermen, og når den var ferdig med siste linje måtte den helt opp i øvre venstre hjørne igjen. Dette spiste av effektiv båndbredde. Nå har DVI selvsagt ikke samme problemstillingen, det er ingen elektronstråle som skal stilles inn. Men fortsatt har den litt overhead, og den kalles for blanking. Om jeg forstår det riktig opererer DVI standarden med samme overhead som for analoge signaler. Dette var meningsfullt i starten, da man opererte med langsommere teknologi. Men det er strengt tatt ikke nødvendig i dag, fordi en moderne TFT er mye kjappere på denne blankingen. Så det man gjør er å korte inn på blankingintervallet. Så hvor går grensen? La oss gjøre regnestykket igjen, denne gangen med 1920 x 1200 (standard for mange widescreens idag.) Da får vi 1920 x 1200 x 60 = 138 240 000. Men så må vi regne med encoding 10/8, og da får vi 172 800 000. Da har vi allerede brukt opp båndbredden, og det uten å ha tatt med andre kontrollsignaler og blanking. Hva gjør man så? Jo man tyr til det opplagte trick: Man senker oppfriskningsraten. Med f eks. 52 Hz i stedet for 60, er vi i mål. Siden en LCD ikke flimrer, ser ikke dette så galt ut. Men vi har altså tapt kvalitet på bevegelig bilder, som video og spill. (Man kan selvsagt gjøre det motsatte også, og øke frekvensen når man har ledig båndbredde, men det har så liten praktisk betydning i DVI-sammenheng fordi som nevnt så flimrer ikke en LCD skjerm.) Dua Link bruker to TDMS brikker og sender signalet gjennom dobbelt så mange ledere i samme kabelen. Da får vi en båndbredde på 330 MHz. Ser vi på den nevnte 30" Apple skjerm på 2560 x 1600 pixler, fortsatt på 60 Hz, blir 2560 x 1600 x 60 = 245 760 000 Hz. Om vi legger til for encoding får vi 245 760 000 *10/8 eller 307 200 000. Fortsatt har vi litt igjen til kontrolltegn og til blanking. Selv med overhead går det altså bra. Så min uærbødige og uvitenskapelige konklusjon er at for alt over 1600x1200 skal man bruke Dual Link, ellers går det ut over billedkvaliteten. Og at ingen følger standarden når den setter unødvendige begrensninger på teknologien. EDIT: Ble litt rotete dette her, men har ikke tid til å pynte på det. Tar forbehold om regne- og faktafeil... Geir Endret 27. januar 2005 av tom waits for alice Lenke til kommentar
parpils Skrevet 27. januar 2005 Del Skrevet 27. januar 2005 Nå må dere huske at det faktisk er noen som bruker sine datamaskiner som arbeidsverktøy også Lenke til kommentar
tom waits for alice Skrevet 27. januar 2005 Del Skrevet 27. januar 2005 (endret) Nå må dere huske at det faktisk er noen som bruker sine datamaskiner som arbeidsverktøy også Yes! jeg bruker min strålende 20" LaCie analogt på en bærbar med et 9200 grafikksystem. Kan knapt nok spille Age of Empires på den, men når jeg jobber er det praktfullt. Det er en verden utenfor SLI og benchmarks, og de fleste PC brukere befinner seg antagelig der. De er bare ikke opptatt av hardware og spcs, og poster ikke på forum som dette. Vi som gjør det og vanker her er antagelig ikke representative for gjennomsnittsbrukeren... Geir Endret 27. januar 2005 av tom waits for alice Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå