AndersT2 Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 Er vel på tide at vi får en ny tilkoblingstandard, men jeg liker ikke dette kopibeskyttelsehumbuget. Jeg kopierer alle filmene jeg kjøper inn på serveren min fordi jeg ikke liker å skifte dvder, og med dette risikerer jeg vel å ikke kunne se disse filmene 6045582[/snapback] Det er mange som missforstår kopibeskyttelse på skjermutgangene som denne og HDMI. Den sender ut alt su har på disk. Når du spiller av matriale som er kopibeskyttet, enten om det er direkte fra DVD, HD-DVD eller lignende, eller har fått det over på disk. Det eneste som kreves er en mottaker, skjerm, som tar i mot og godtar det signalet. Det er velt HDCP som brukes. Dette er gjort for at man ikke skal kunne kople til en ekstern opptaker fra HD-avspillere (HD-DVD og Blue-Ray), og kopiere det digitale signalet. Den sender nok kun kopibeskyttet signal når signalet ber om det. Men 99.9% av befolkningen bruker disse overføringene for å sende signal til en skjerm. Og man må uansett ha en HD-Ready skjerm for å utnytte signalene. Så jeg regner med at ingen kommer til å få spesielle problemer med kopibeskyttelse på utgangen. Å få matrialet inn på PCen er noe annet. Lenke til kommentar
JohndoeMAKT Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 Det ser ut som om jeg har glemt alt jeg har kunnet om DVI, for dette henger ikke på greip for meg. Hvordan kan det overføres 24 bit for hvert klokkeslag når det totalt er 24 ledere i en (DL)DVI kabel, og halvparten blir ikke brukt til data engang? Er det ikke bare i lederene for RGB det blir overført pixeldata og de overfører en bit hver for hvert klokkeslag som betyr 165 000 000 x 3 bit overført på et sekund for en SL-DVI ? Hvordan kan det overføres 3 bytes per klokkeslag på det antall ledere? Lenke til kommentar
Fangs Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 Er vel på tide at vi får en ny tilkoblingstandard, men jeg liker ikke dette kopibeskyttelsehumbuget. Jeg kopierer alle filmene jeg kjøper inn på serveren min fordi jeg ikke liker å skifte dvder, og med dette risikerer jeg vel å ikke kunne se disse filmene 6045582[/snapback] ...snip... Å få matrialet inn på PCen er noe annet. 6046223[/snapback] DRM FTW!!111!"!¤§ Lenke til kommentar
Civilix Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 Med både HP, Lenivo og Dell på laget burde det da være stor mulighet for å pluggen på bærbare vertfall, og dell og hp har jo skjermer(og samsung vil ha støtte for det) også så det skulle vel ikke være så vansklig å "tvinge" gjennom denne standaren hvis de vil. Lenke til kommentar
Fangs Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 (endret) Det ser ut som om jeg har glemt alt jeg har kunnet om DVI, for dette henger ikke på greip for meg.Hvordan kan det overføres 24 bit for hvert klokkeslag når det totalt er 24 ledere i en (DL)DVI kabel, og halvparten blir ikke brukt til data engang? Er det ikke bare i lederene for RGB det blir overført pixeldata og de overfører en bit hver for hvert klokkeslag som betyr 165 000 000 x 3 bit overført på et sekund for en SL-DVI ? Hvordan kan det overføres 3 bytes per klokkeslag på det antall ledere? 6046226[/snapback] Hm...det greier ikke jeg heller å forklare... magi? Endret 5. mai 2006 av Fangs Lenke til kommentar
ATWindsor Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 Ok, så for å koke det ned: Single-link DVI har i realiteten 3.96 Gbit båndbredde, ikke 1,65, og denne nye standarden tilsvarer da bare dual-link DVI, i "skjermsignalbåndbredde"? AtW Lenke til kommentar
tom waits for alice Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 (endret) Det ser ut som om jeg har glemt alt jeg har kunnet om DVI, for dette henger ikke på greip for meg.Hvordan kan det overføres 24 bit for hvert klokkeslag når det totalt er 24 ledere i en (DL)DVI kabel, og halvparten blir ikke brukt til data engang? Er det ikke bare i lederene for RGB det blir overført pixeldata og de overfører en bit hver for hvert klokkeslag som betyr 165 000 000 x 3 bit overført på et sekund for en SL-DVI ? Hvordan kan det overføres 3 bytes per klokkeslag på det antall ledere? 6046226[/snapback] Hver "farge" + kontrollsignalet sendes over et lederpar, to ledere for hver, altså benyttes 2x4=8 ledere til dette. Dobbelt så mange i Dual link. Så brukes de andre til klokker for TMDS, til DDC (kanalene som skjermen forteller grafikkkortet om sin oppløsning med mere). Edit: + jording, standby-strøm etc. Men misforståelsen er at TMDS bare kan sende 1 bit pr. klokkeslag. Den sender en hel byte + 2 kontrolltegn, altså 10 bit av gangen. Geir Endret 5. mai 2006 av tom waits for alice Lenke til kommentar
Fangs Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 Men misforståelsen er at TMDS bare kan sende 1 bit pr. klokkeslag. Den sender en hel byte + 2 kontrolltegn, altså 10 bit av gangen. Geir 6046437[/snapback] Det er der jeg faller av. Er vel sånn at max bits per klokkeslag på 1 leder er uansett 1? Med mindre man bruker opp-bakken OG ned-bakken på klokkeslaget som referansepunkt. Da blir det 2. DDR-ram har jo det. Men 10 bits PER klokkeslag er jo ikke mulig? Lenke til kommentar
ATWindsor Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 Men misforståelsen er at TMDS bare kan sende 1 bit pr. klokkeslag. Den sender en hel byte + 2 kontrolltegn, altså 10 bit av gangen. Geir 6046437[/snapback] Det er der jeg faller av. Er vel sånn at max bits per klokkeslag på 1 leder er uansett 1? Med mindre man bruker opp-bakken OG ned-bakken på klokkeslaget som referansepunkt. Da blir det 2. DDR-ram har jo det. Men 10 bits PER klokkeslag er jo ikke mulig? 6046495[/snapback] I rpinsippet så kan man vel lagre så mange bits som antallet spenningsnivåer man kan skille imellom, i teorien uendelig mange per klokkeslag, men i praksisk begrenses det vel av S/N? (noen får arrestere meg om jeg tar feil her). AtW Lenke til kommentar
tom waits for alice Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 Ok, så for å koke det ned: Single-link DVI har i realiteten 3.96 Gbit båndbredde, ikke 1,65, og denne nye standarden tilsvarer da bare dual-link DVI, i "skjermsignalbåndbredde"? AtW 6046401[/snapback] Med mindre de regner på samme måten her, så ja, det høres sånn ut på pressemeldingen. Men vi vet jo ikke om dette kan økes i senere versjoner. Men det er nok mere enn båndbredde som teller her. Det er allikevel ingen skjermer som maxer ut en dual-link DVI ennå. Geir Lenke til kommentar
tom waits for alice Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 Men 10 bits PER klokkeslag er jo ikke mulig? 6046495[/snapback] Hvorfor ikke? Geir Lenke til kommentar
Fangs Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 Men misforståelsen er at TMDS bare kan sende 1 bit pr. klokkeslag. Den sender en hel byte + 2 kontrolltegn, altså 10 bit av gangen. Geir 6046437[/snapback] Det er der jeg faller av. Er vel sånn at max bits per klokkeslag på 1 leder er uansett 1? Med mindre man bruker opp-bakken OG ned-bakken på klokkeslaget som referansepunkt. Da blir det 2. DDR-ram har jo det. Men 10 bits PER klokkeslag er jo ikke mulig? 6046495[/snapback] I rpinsippet så kan man vel lagre så mange bits som antallet spenningsnivåer man kan skille imellom, i teorien uendelig mange per klokkeslag, men i praksisk begrenses det vel av S/N? (noen får arrestere meg om jeg tar feil her). AtW 6046508[/snapback] jøss...forstår. Lenke til kommentar
tom waits for alice Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 Med åpenbare fare for å bevege meg langt utover mitt inkompetansenivå: En klokke er bare en trigger for å få en krets til å gjøre noe. Den regulerer antall instruksjoner som kan utføres, ikke at hver instruksjon må være å flytte en enkelt bit. Det er en spesiell applikasjon, og ikke en generell begrensning. Geir Lenke til kommentar
Simen1 Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 Les om DVI her!6046060[/snapback] Den linken fjerner i hvertfall en del missforståelser og feilaktige påstander fra tråden. Men jeg har ennå ikke helt klart for meg regnestykket. Blandt annet skulle jeg likt å visst hvordan GTF timing fungerer (og kunne regne på det). Også synes jeg det står for dårlig forklart hvilken protokoll hvert fargepar har. Men ellers: Det var i hvertfall litt oppklarende. Lenke til kommentar
tom waits for alice Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 Les om DVI her!6046060[/snapback] Den linken fjerner i hvertfall en del missforståelser og feilaktige påstander fra tråden. 6046913[/snapback] Nei, det gjør den ikke. Så avansert er ikke Wikipedia at den gjøre autokorrektur på påstander i poster på andre forum... Derimot kan de som leser den får oppklart en del misforståelser, og kanskje noen kunne "arrestere" uriktige påstander og poste rettelsene her til almen nytte og glede. Geir Lenke til kommentar
tom waits for alice Skrevet 5. mai 2006 Del Skrevet 5. mai 2006 (endret) Les om DVI her!6046060[/snapback] Den linken fjerner i hvertfall en del missforståelser og feilaktige påstander fra tråden. Men jeg har ennå ikke helt klart for meg regnestykket. Blandt annet skulle jeg likt å visst hvordan GTF timing fungerer (og kunne regne på det). Også synes jeg det står for dårlig forklart hvilken protokoll hvert fargepar har. Men ellers: Det var i hvertfall litt oppklarende. 6046913[/snapback] Det ser kanskje ut som du kan får hjelp her: Link. Edit: Til formelene, altså. De ligger vel i regnearket. Geir Endret 5. mai 2006 av tom waits for alice Lenke til kommentar
OnetroM Skrevet 6. mai 2006 Del Skrevet 6. mai 2006 Hvor mye 'bedre' enn HDMI er denne nye standarden? Nå som TV og data blir mer og mer intergrert burde vi strengt tatt hatt en felles koblingstandard og ikke en for TV og en for data, det blir for dumt. Lenke til kommentar
spiffers Skrevet 6. mai 2006 Del Skrevet 6. mai 2006 (endret) Selv simple lydkort har optisk utgang. Hva er problemet med å kjøre fiberoptikk fra skjermkort til skjerm? Dette kobbervrøvlet begynner å bli avleggs. Hadde jeg hatt makt og penger nok, ville jeg lansert en egen standard. 1 fiberpar til hver farge, i tillegg til 1 fiberpar for kontrollsignaler, altså en kabel bestående av totalt 8 fibre. Burde være raskt nok til å levere signal til 4800x2400 pixler (som er den oppløsningen min drømmeskjerm skulle hatt)... Endret 6. mai 2006 av spiffers Lenke til kommentar
kpolberg Skrevet 6. mai 2006 Del Skrevet 6. mai 2006 Selv simple lydkort har optisk utgang. Hva er problemet med å kjøre fiberoptikk fra skjermkort til skjerm? Dette kobbervrøvlet begynner å bli avleggs.Hadde jeg hatt makt og penger nok, ville jeg lansert en egen standard. 1 fiberpar til hver farge, i tillegg til 1 fiberpar for kontrollsignaler, altså en kabel bestående av totalt 8 fibre. Burde være raskt nok til å levere signal til 4800x2400 pixler (som er den oppløsningen min drømmeskjerm skulle hatt)... 6051140[/snapback] Tenk deg at du skulle hatt 10 lede med fiberoptikk for å presse ned prisen på mottaker og sender utstyret. Du klemmer alle disse lederene inn i en kabel. Tenk deg så at du ikke kan bøye den kabelen med en radius på mindre enn så så mye, og du får ikke lov å vri osv. Da synes jeg kobber er riktig valg fremdeles. Lenke til kommentar
JohndoeMAKT Skrevet 6. mai 2006 Del Skrevet 6. mai 2006 SL = 165*3=4,95 Gbps DL = 165*6=9,9 Gbps Dette stemmer i forhold til hva som står på Wikipedia og google gir meg et greit antall hits. Dersom den nye standarden tilbyr 10.8 Gbps for både lyd+bilde betyr vel det at det praktisk sett har ganske identisk båndbredde som DL-DVI. Er det feil her og hva/hvordan? (med kilder) Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå