Gå til innhold

HDMI-kabel: Billig vs. Dyr


Anbefalte innlegg

Jeg er ingen ekspert på dette området, men opplever ikke HDMI kabler pakketap som alle andre digitale kabler? Pakketap er jo et kjent "problem" innen IT, men blir løst av diverse protokoller. Pakketap er jo selvsagt mest vanlig over lengre avstander.

Jeg har lest en test av HDMI kabler med forskjellig kvalitet (husker ikke kilde), de fant ut at på lange strekk over 20m og oppløsninger på over 4mp ble forskjellene på kabelene merkbar.

 

På dyrere kabler så er det jo isoleringen og byggekvaliteten som bedre, dette for å forhindre ekstern støy som kan påvirke signalet. Har stua vært et rom uten noen form for signalstøy, så hadde billige kabler vært like bra som dyre kabler. Men om signalet blir så forvrengt at vi merker forskjell er jo en helt annen sak.

 

Jeg har både dyre og billige kabler i alle former og det er ikke de som skal byttes ut først. Signalkildene og mottakeren er med å påvirker sluttreslutatet mye mer enn kablene mellom.

Lenke til kommentar
Videoannonse
Annonse
Jeg er ingen ekspert på dette området, men opplever ikke HDMI kabler pakketap som alle andre digitale kabler? Pakketap er jo et kjent "problem" innen IT, men blir løst av diverse protokoller.

HDMI er ikke "pakkebasert" i den forstand.

...

HDMI er en overraskende "analog" standard til digital å være. Jeg tror at det er for å være mest mulig lik VGA og andre analoge video-interfacer og fordi det tross alt er ganske store båndbredder.

 

http://episteme.arstechnica.com/eve/forums...?r=488004880831

 

HDMI and DVI are uncompressed and transmitted one pixel at a time. Errors in the stream show up straight away as visible lines on the screen (sparklies). This gives it a much more analog-liek behaviour in terms of signal degradation than typical digital standards, and in theory provides a justification for buying better cables (though in practice, it doesn't).

 

HDMI-speccen:

http://www.hdmi.org/download/HDMI_Spec_1.3_GM1.pdf

The TMDS Clock channel constantly runs at a rate proportional to the pixel rate of

the transmitted video. During every cycle of the TMDS Clock channel, each of the three TMDS

data channels transmits a 10-bit character. This 10-bit word is encoded using one of several

different coding techniques.

The input stream to the Source’s encoding logic will contain video pixel, packet and control data.

The packet data consists of audio and auxiliary data and associated error correction codes.

...

Feilkorreksjon benyttes for kontroll-data, men såvidt jeg kan se så kodes 8 video-bit rått som 10 bit (utelukkende for å regulere elektriske forhold i kanalen).

 

Siden HDMI ikke bruker pakker for video så er det heller ikke mulig å retransmittere data.

 

During video data, where each 10-bit character represents 8 bits of pixel data, the encoded

characters provide an approximate DC balance as well as a reduction in the number of transitions

in the data stream. The encode process for the active data period can be viewed in two stages.

The first stage produces a transition-minimized 9-bit code word from the input 8 bits. The second

stage produces a 10-bit code word, the finished TMDS character, which will manage the overall

DC balance of the transmitted stream of characters.

 

-k

 

Pakketap er jo selvsagt mest vanlig over lengre avstander.

Jeg har lest en test av HDMI kabler med forskjellig kvalitet (husker ikke kilde), de fant ut at på lange strekk over 20m og oppløsninger på over 4mp ble forskjellene på kabelene merkbar.

 

På dyrere kabler så er det jo isoleringen og byggekvaliteten som bedre, dette for å forhindre ekstern støy som kan påvirke signalet. Har stua vært et rom uten noen form for signalstøy, så hadde billige kabler vært like bra som dyre kabler. Men om signalet blir så forvrengt at vi merker forskjell er jo en helt annen sak.

 

Jeg har både dyre og billige kabler i alle former og det er ikke de som skal byttes ut først. Signalkildene og mottakeren er med å påvirker sluttreslutatet mye mer enn kablene mellom.

Jeg tror at det er viktig å sette seg inn i:

1) Hvilke mekanismer gjør at en kabel avviker fra det hypotetiske idealet (fallende frekvensrespons, termisk støy, innstrålt støy etc)

2) Hvilket utslag har det på det visuelle når/om katastrofale feil skjer over en HDMI-kabel

 

-k

Endret av knutinh
Lenke til kommentar
Poenget er at om man har signalproblemer vil det vise seg i meget synlige forstyrrelser, man får gjerne jitter, hvit snø, eller rett og slett bortfall av bilde. Man får ikke annerledes kontrast/fargebalanse/generelt støy, eller mer eller mindre blocking etc.

Dette høres veldig fornuftig ut.

 

Bladet "Lyd & Bilde" kommenterte i en test av HDMI-kabler til 5000,- at den gav bedre sort-nivå...

 

-k

Lenke til kommentar

Og så for å sette fyr på maurtua: Det finnes faktisk 2 forskjellig typer HDMI kabler, det er standard og High-Speed, eller klasse 1 og klasse 2.

ref: What is the difference between a “Standard” HDMI cable and a “High-Speed” HDMI cable?

tatt fra HDMI.org/learningcenter

 

forskjellen er kravene til tykkelse på lederene i kabelen vis jeg husker riktig. og hva salgs datamengde den er testet for. Så er det vel satt en standard lengde de testes på(som jeg ikke husker nå, 5 meter?).

det sagt betyr det ikke at en standard kabel ikke kan overføre full hd, bare at den ikke er testet for det.

 

Engelsk Wiki om HDMI

Endret av stich_it
Lenke til kommentar

Eg stiller meg skeptisk til om det er forskjell i sortnivå frå ein kabel til ein anna. Avspelar og mottakar er dei som bestemmer sortnivået. Ved feil på ein HDMI-kabel skulle eg tru du fekk artige fakter (artifacts), som med ein parabol i snøvær. Når den ikkje får med seg heile signalet får du store forstyrrelser som du ser tydelig. Det blir ikkje snø, dårlegare bilete eller noko sånt.

 

Det høyrest ut som du er befaren på området knutinh. Om du har eit signal som skal sendes gjennom ein kabel, digitalt signal. Sendaren sender ut analoge signaler sjølvsagt, det finnes ikkje 1 og 0 elektrisk straum. Det er snakk om små mengder volt og ampere. Mottakaren tar imot signalene. Om den får inn eit signal og klarer å lese det som 1, så får du ut 1 som resultat, uavhengig av om signalet er litt endra frå det som var utgangspunktet. Den vil ikkje lese det som 2 eller -1. Enten klarer den å lese signalet, eller så klarer den ikkje. Dersom signalet ikkje klarer å leses av mottakaren vil du ikkje få ut all informasjon. Då vil det mangle informasjon, den vil ikkje bli endra, som det kan ved analoge signaler.

 

Er dette riktig eller ligg det meir i digital overføring enn dette?

 

Hadde eg hatt mykje pengar til overs skulle eg kjøpt ein dyr kabel, gjerne fleire i forskjellige lengder og pris og testa. Eg brukar ein Biltema-kabel i dag.

Lenke til kommentar

Litt av problemet er at mange tror støy vil påvirke analoge og digitale signaler på samme måte, dette er ikke tilfelle, som jeg skal prøve å vise med et enkelt eksempel:

 

Setting: Vi skal overføre en enkel verdi mellom 0 og 100 mellom to enheter. Verdien vi skal overføre er 50.

 

Analog: Vi bruker et voltsignal, hvor 0V tilsvarer 0 og 10V tilsvarer 100. Vi sender da 5V, som vil tilsvare 50.

 

Digital: Vi bruker 8 bits (0ere og 1ere) hvor 0000 0000 tilsvarer 0 og 1111 1111 tilsvarer 100. Vi sender da 0111 1111 som er så nærme midten og 50 som vi kan komme.

 

Hvis overføringen er perfekt, vil selvsagt begge signaler komme frem inntakte. Hvis vi derimot har feil vil førlgende skje:

 

Analog: Vi mottar kanskje 4,5V istedet for 5V, og vi tror da at verdien er 45 istedet for 50. Dette er litt feil, men ikke så helt galt. På et tvsignal kan det kanskje være forskjellen mellom to nesten like gråtoner.

 

Digital: Vi mottar kanskje 1111 1111 istedet for 0111 1111 (en bit feil), og vi tror da at verdien er 100 istedet for 50. Dette er en veldig feil. På et tvsignal kan det kanskje være forskjellen mellom en gråtone og helt hvit.

 

Dette betyr altså at en liten feil gjør et analogt signal dårligre, mens det gjør et digitalt signal ubrukelig.

 

Men hvorfor bruker vi isåfall digital overføring, når en liten feil kan være så fatal. Jo, da må vi se mer på hvordan et digitalt signal overføres. De 8 bitene vil overføres i sekvens, og for hver bit vil 0V = 0 og 10V = 1, som i praksis vil si at alt under 5V = 0 og alt over 5V = 1. Dette gjør at det er en ganske stor feilmargin, og 0,5V feil som gav oss en liten feil i det analoge signalet vil ikke påvirke signalet, siden 0erene og 1erene kommer uansett frem uberørt.

 

Konklusjonen er da:

 

Analog: Signaler blir lett påvirket av støy, men påvirkningen vil bare endre signalet litt.

 

Digital: Signalet vil forbli perfekt selv ved endel støy, men hvis det er nok støy til å generere bitfeil, så vil signalet bli totalt ødelagt. Altså, enten funker og er perfekt, eller så er det store feil. Det skal også sies at vi ikke vil få en bitfeil i timen, hvis støyen er stor nok til å skape bitfeil en gang, så vil det ikke ta mange millisekunder før det skjer igjen.

 

Dette er grunnen til at folk bombastisk kan si at en digital overføring er perfekt så sant det ikke er feil, og at det vil være lett å se feil.

 

Dette er også grunnen til at det er meningsløst å snakke om at en billig HDMI kabel vil gi dårlig sortnivå eller duse farger. Hvis man overfører fargen rød, så vil en feil like gjerne gjøre dette om til fargen blå som en dus rødfarge.

 

Jeg er klar over at jeg nå har forenklet noe voldsomt og fullstendig ignorert det at digitale signaler vil kreve skyhøye frekvenser, som skaper egne problemer, og at denne feilmarginen jeg snakker om allerede er "brukt opp" for å presse båndbredden så høyt opp som overhodet mulig. Dette er mulig, men jeg uansett så er det en feilmargin, og så lenge vi er innenfor denne så vil overføringen være perfekt. Dette er jo ikke tilfelle med analog.

 

For de som tenker at en enkelt bit feil kan umulig ha såååå stor påvirkning at man kan se det på et skjerm, når informasjonen som vises på skjermen i størrelsesorden Mb. Dette er selvsagt fordi en bitfeil aldri vil skje alene, men også fordi med krypteringen på HDMI, så vil endring av et bit i kryptert data vil kunne medføre store endringer etter dekryptering.

Lenke til kommentar
Eg stiller meg skeptisk til om det er forskjell i sortnivå frå ein kabel til ein anna. Avspelar og mottakar er dei som bestemmer sortnivået. Ved feil på ein HDMI-kabel skulle eg tru du fekk artige fakter (artifacts), som med ein parabol i snøvær. Når den ikkje får med seg heile signalet får du store forstyrrelser som du ser tydelig. Det blir ikkje snø, dårlegare bilete eller noko sånt.

 

Det høyrest ut som du er befaren på området knutinh. Om du har eit signal som skal sendes gjennom ein kabel, digitalt signal. Sendaren sender ut analoge signaler sjølvsagt, det finnes ikkje 1 og 0 elektrisk straum. Det er snakk om små mengder volt og ampere. Mottakaren tar imot signalene. Om den får inn eit signal og klarer å lese det som 1, så får du ut 1 som resultat, uavhengig av om signalet er litt endra frå det som var utgangspunktet. Den vil ikkje lese det som 2 eller -1. Enten klarer den å lese signalet, eller så klarer den ikkje. Dersom signalet ikkje klarer å leses av mottakaren vil du ikkje få ut all informasjon. Då vil det mangle informasjon, den vil ikkje bli endra, som det kan ved analoge signaler.

 

Er dette riktig eller ligg det meir i digital overføring enn dette?

 

Hadde eg hatt mykje pengar til overs skulle eg kjøpt ein dyr kabel, gjerne fleire i forskjellige lengder og pris og testa. Eg brukar ein Biltema-kabel i dag.

Den enkleste måten å forstå digital kommunikasjon på, er som analog kommunikasjon med et "overbygg". Overbygget består av tildels kompleks logikk, minne og en annen måte å tolke signalet på.

 

Alle mekanismer som forstyrrer analog kommunikasjon kan forstyrre digital kommunikasjon, men i det digitale tilfellet så er det lettere å finne måter å gjenvinne innholdet.

 

 

Aktuelle feil-mekanismer er f.eks:

-støy (termisk eller innstrålt)

-Begrenset frekvensrespons

-Jitter (variasjon i tidsbasen)

-Inter-symbolinterferens

 

Alle disse kan gjøre at man kan (forenklet sagt) lese av en "1" når fasiten sier at det skulle ha vært en "0". Alle disse kan også undertrykkes med forskjellige teknikker.

 

Å forstå detaljene i fysisk lag på HDMI er neppe noen av oss forunt. Å forstå nok til å ikke la seg lure av hifi-klubben er kanskje et greit mål?

 

-k

Lenke til kommentar

Det er forskjell på hdmi-kabler. Men ikke alle behøver å kjøpe en kabel til 600,- av den grunn. De billigste kablene støtter som regel ikke 1.3, noe som i bunn og grunn betyr at kabelen ikke klarer å transportere data fort nok til å gi brukeren XV.color, 60hz og hd-lyd samtidig.

 

Fra en blu-ray spiller til en ny forsterker så bør man som et absolutt minimum sjekke at kabelen er støtter HDMI 1.3

Lenke til kommentar

hvor får du kjøpt kabler som ikke er godkjent for 1.3 eller høyere idag?

så vidt jeg husker så kom HDlyd støtten inn i HDMI standarden etter 1.3 så selvfølgelig vil det ikke være garantert støttet av en kabel lagt før den standarden. men det er vel ikke kabelen som er bremsen det er vel om enhetene i vær ande av kabelen er 1.3 versjoner

 

 

ang bilde kvalitet så sier HDMI.org dette:

Although all previous versions of HDMI have had more than enough bandwidth to support all current HDTV formats, including full, uncompressed 1080p signals, HDMI 1.3 increases its single-link bandwidth to 340 MHz (10.2 Gbps) to support the demands of future HD display devices, such as higher resolutions, Deep Color and high frame rates.

kilden

 

XV.color støttes vel ikke av dvd eller blue-ray er det ikke bare AVCHD som bruker den. riktig nok ble XV offsielt støttet først under 1.3 men det er ingen fysisk forandring på kabelen i den sammenheng så vidt jeg forstår det siden det bruker allerede ettablerte YCbCr med litt tweaking for finere/bedre farger, dog må det være en spesifik støtte av XV i skjermen for å klare å utnytte dette. vis jeg forsto det riktig.

Endret av stich_it
Lenke til kommentar
Det er forskjell på hdmi-kabler. Men ikke alle behøver å kjøpe en kabel til 600,- av den grunn. De billigste kablene støtter som regel ikke 1.3, noe som i bunn og grunn betyr at kabelen ikke klarer å transportere data fort nok til å gi brukeren XV.color, 60hz og hd-lyd samtidig.

 

Fra en blu-ray spiller til en ny forsterker så bør man som et absolutt minimum sjekke at kabelen er støtter HDMI 1.3

Sjekk gjerne wikipedia:

http://en.wikipedia.org/wiki/Hdmi

post-5720-1253182217_thumb.png

Endret av knutinh
Lenke til kommentar
Det er forskjell på hdmi-kabler. Men ikke alle behøver å kjøpe en kabel til 600,- av den grunn. De billigste kablene støtter som regel ikke 1.3, noe som i bunn og grunn betyr at kabelen ikke klarer å transportere data fort nok til å gi brukeren XV.color, 60hz og hd-lyd samtidig.

 

Fra en blu-ray spiller til en ny forsterker så bør man som et absolutt minimum sjekke at kabelen er støtter HDMI 1.3

 

Dude, kabelen er klin lik. Signalet endrer seg ikke om det står 1.0 eller 1.3 på kabelen. Ikke kom med feilinformasjon i en tråd hvor alle fakta allerede er lagt på bordet.

Lenke til kommentar
rett må være rett:

 

100kan regnes sammen:

64 + 32 + 4

så binært blir det: 0110 0100

og

50 kan regnes sammen:

32 + 16 + 2

så binært blir det: 0011 0010

tenker jeg blir riktig

 

brukte denne: Decimal and Binary conversion tool

 

Jeg prøvde å gjøre eksempelet mitt så enkelt som overhodet mulig, men jeg det slo meg vel ikke at dette kunne virke forvirrende, selv om jeg ser det i etterkant :p Jeg skal prøve å forklare:

 

Ja, du har helt rett, at hvis man bruker "standard" integer måte å representere data på, så er 100=0110 0100. Men bare fordi det er mulig å representere 100 med 0110 0100, så betyr ikke det at 0110 0100 ALLTID betyr 100...

 

I mitt eksempel så definerte jeg at 0=0000 0000 og 100=1111 1111, og siden bit i en datamaskin kun er en representasjon, så kan jeg definere verdiene til å være akuratt som jeg vil.

 

Dette handler altså kun om å kunne gjengi en verdi med så høy nøyaktighet som mulig med de tilgjengelige bitene. Farger i datamaskinen er f.eks representert på en veldig tilsvarende måte. Vi har 8 bits per farge, hvor 0000 0000 betyr 0% av denne fargen, mens 1111 1111 betyr 100% av denne fargen. Vanligvis så brukes desimale tall, hvor altså 0-255 representerer 0-100%.

 

Håper det oppklarte :)

 

arokh: Nei, En HDMI 1.0 kabel og en HDMI 1.3 kabel er IKKE klin lik... En 1.3 kabel er spesifisert for en høyere båndbredde, poenget med dyr/billig kabel debatten er hvorvidt en dyr 1.3 kabel gir bedre bilde enn en billig 1.3 kabel.

Endret av oyvindne
Lenke til kommentar

Tror du virkelig en produsent vil merke en kabel som HDMI 1.0 dersom den kan merkes som HDMI 1.3?

 

En TP-kabel for høyere båndbredde krever mer presisjon under produksjon og er dermed dyere å produsere enn en kabel for lavere båndbredde.

Endret av gxi
Lenke til kommentar

Du klarer fint gigabit på en CAT3 også, selv om det egentlig krever CAT5, what's your point?

 

Det er ingen forskjell, ferdig. Prøv selv med en PS3 og noname kabel og så sammenligner du med "1.3" kabel. Bare det faktum at jeg bitstreamer HD lyd på en noname kabel fra Clas Ohlon tilsier jo at jeg er på 1.3.

Lenke til kommentar

For det første, du kan ikke sammenligne ethernet/TCPIP med HDMI, igjen. Om du får gigabit over en kort CAT3-kabel betyr ikke at du hadde fått det over en lang CAT3, f.eks 50 meter. Gigabit ethernet er ikke veldig krevende for kabelen, da det er noen få titalls MHz over 4 par ledere. HDMI er flere hundre MHz. I tillegg ligger det lag over ethernet som både håndterer feil samt sørger for at pakker sendes på nytt ved feil. Du vil derfor ikke merke til at data forsvinner under sending normalt sett siden det vil sendes på nytt. Og, enda mer, at det står 1000Mbit/s betyr kun at autoforhandlingen mellom to enheter har funnet ut at begge støtter 1000Mbit/s, og betyr ikke at det faktisk fungerer. Ofte vil ethernetkort oppdage at det skjer mye feil og så redusere til 100Mbit/s om nødvendig, og det kan skje når det er maks belastning, men ikke nødvendigvis ellers. HDMI derimot er IKKE en pakkebasert protokoll. Data sendes i bitstrømmer akkurat som i analog dataoverføring, bare at de er kodet digitalt. Om du mister en liten bit med data, så vil det være et punkt på skjermen som enten ikke oppdateres eller som blir andre feil med. Det betyr at det blir FEIL i bildet dersom det mangler data, altså degradert kvalitet enkelt og greit. Det blir ikke slike bokser som det blir når en parabol mister signal eller når antennesignalet forsvinner, fordi de boksene kommer av MPEG-komprimeringen.

 

For det andre, en PS3 er ikke veldig krevende for HDMI. Det er maks 1080p med 50Hz bildefrekvens, samt middels "lav" lydkvalitet i forhold til andre protokoller som kan sendes over HDMI og krever 1.3. Om man ikke aktiverer upscaling på spill er det stort sett 720p som sendes.

 

En konkurrent til HDMI er forøvrig Displayport hvor man har designet protokollen fra bunn av, ikke som en erstatning for VGA slik HDMI/DVI er. Displayport er i motsetning til HDMI pakkebasert.

 

Og igjen, det er uendelig forskjell på en 2 meter kabel og en 10 meter kabel.

 

HDMI var forresten ment å kjøres over coax, men det ble endret til TP-kabel pga pris. Coax er mye bedre enn TP for høyfrekvenssignaler.

Endret av gxi
Lenke til kommentar
For det andre, en PS3 er ikke veldig krevende for HDMI. Det er maks 1080p med 50Hz bildefrekvens, samt middels "lav" lydkvalitet i forhold til andre protokoller som kan sendes over HDMI og krever 1.3. Om man ikke aktiverer upscaling på spill er det stort sett 720p som sendes.

Grunnen til at PS3 nevnes er fordi det er en av få kilder som leverer 1080p50/60. Bluray leverer 1080p24 eller 1080i50 som er halve båndbredden.

 

Jeg tror vi kan se bort fra audio når vi snakker om båndbredde.

 

-k

Lenke til kommentar

Hvis man f.eks tar en PC-skjerm, så før FullHD-hysteriet startet brukte oppløsningen typisk å være høyere enn 1080p (hvorav det fortsatt er sånn hvis man ikke kjøper skjermen på Elkjøp), og da vanlig med progressiv 60Hz vertikalsynk. HDMI brukt til PC-skjerm med høy oppløsning vil belaste videokanalen mye mer enn hva en PS3 eller en Bluray-spiller vil klare.

Lenke til kommentar
Hvis man f.eks tar en PC-skjerm, så før FullHD-hysteriet startet brukte oppløsningen typisk å være høyere enn 1080p (hvorav det fortsatt er sånn hvis man ikke kjøper skjermen på Elkjøp), og da vanlig med progressiv 60Hz vertikalsynk. HDMI brukt til PC-skjerm med høy oppløsning vil belaste videokanalen mye mer enn hva en PS3 eller en Bluray-spiller vil klare.

Jeg bestrider ikke det, men når temaet er HDMI-kabler så innbiller jeg meg at de fleste tenker på å koble Bluray, PS3 og evt mediacenter til tv-en eller projektoren. PS3 og 1080p60 er da en praktisk worst-case.

 

Dersom du skal koble opp PC-en din til en PC-skjerm så bruker du mest sannsynlig DVI.

 

-k

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...