Gå til innhold

digitalt vs analogt signal


Anbefalte innlegg

Hva består egentlig et analogt signal av, kontra et digitalt? Digitalt er det vel 1 og 0 som sendes enten via strøm eller lys osv. Men va med analogt, hvordan er egentlig signalet bygd opp, hva er det som skiller det fra et digitalt signal?

 

sikkert et teit spørsmål, men jeg har stusset litt på dette en stund.. :wee:

 

 

edit: fant ikke bedre plass og poste dette. trenger strengt tatt ikke være et lydsignal, vi har jo digitale og analoge signaler flere plasser. Video f.eks..

Endret av phax
Lenke til kommentar
Videoannonse
Annonse

Jeg er ikke ekspert på analoge signaler, men slik jeg har forstått det er de fleste analoge lydsignaler spenningsmodulert. Det vil si at den elektriske spenningen tilsvarer bølgen av lyden du hører. Disse elektriske bølgene i analog lyd er kontinuerlig og uten avbrudd.

 

Digital lyd strykker lyden opp i masse små biter/fragmenter. I tillegg får hver bit sin verdi som tilsvarer spenningen i et analogt signal. F.eks om samplingsfrekvensen er oppgitt til 44,1 KHz er hver sekund av lyden delt opp i 44 100 like store biter/fragmenter. Hver bit/fragment har en permanent "spenning" som oppgis ved en bit-verdi. F.eks 16-bits gir oss (16^2)-1 antall bit-verdier som blir 65535 unike verdier. Da vil den absolutt høyeste bølgetoppen ha bitverdien 65535 og den absolutt laveste vil ha 0. Om man har dynamikk i lyden som overskrider dette får man clipping og dermed "skurring" i lyden fordi bølgetoppene blir helt flate; de blir "klippet" av.

Dette er nærmere beskrevet her.

 

Siden hver fragment har en permanent verdi (spenning) vil lydbølgen få masse "trappetrinn". Om du har peiling på antialising i den grafiske verdenen kan du si at digital lyd ser ut som en hakkete skrå linje, mens analog lyd er helt glatt og fin.

 

Den mest grunnleggende måten man kan sende digital lyd på er at man kan lage en brikke som teller opp 16 bits som sendes som av/på i en elektrisk kabel, og når den har telt opp nøyaktig 16 bits vil den gjøre dette om til ett 'spenningssteg'. Så begynner den på nytt å telle opp de neste 16 bitene den senser i kabelen.

Men dette er en ukomprimert metode, samt en slik metode har ikke noen rutiner eller protokoller for å kontrollere om det har forekommet feil i sensingen av bits. Da kan man lage en protokoll som sender 16 bits i en pakke. Da kan man inkludere f.eks en CRC-sum av hver pakke som den sjekker innholdet opp mot, etc.

Det jeg har skissert her er så enkelt som man får det, og digital lyd som sendes ukomprimert bruker som oftest S/PDIF-protokollen for kontroll og kompatibilitet.

Skal man sende f.eks DTS eller Dolby Digital må man sette seg inn i hvordan lyd komprimeres med tap, og dette er en egen vitenskap i seg selv.

 

Når digital lyd (ukomprimert) gjøres om til analog lyd er det en brikke (DAC) som leser av bitverdiene og lager en elektrisk spenning som tilsvarer bitverdien, og du får da et slikt signal jeg nevnte innledningsvis. Men dette signalet vil være stykket opp etter samplingsraten (trappetrinnsvis), så man vinner ikke tilbake den analoge og kontinuerlige bølgen bare ved å analogisere et digitalt signal. Man har utviklet teknikker for å "smøre ut" disse hakkete stegene som da blir i lyden, og dette kalles interpolasjon. Det finnes mange ulike interpolasjonsteknikker for hvordan DACen "gjetter seg til" hvordan bølgen blir mest naturlig.

 

Med forbehold om feil og vranglære fra min side! :thumbup:

 

Wikipedia har en artikkel om analog vs. digital lyd her.

Endret av skag1
Lenke til kommentar
  • 1 år senere...

Rettelse... analoge signaler er bedre enn digitale... det er digitale signaler som mp3-filer som er komprimerte, og ikke de analoge signalene som bl.a. wav som er det som blir brukt på cd.

De digitale signalene ble oppfunnet på 70 tallet da forskere begynte å forske på hvordan de kunne gjøre om analoge signaler til sekvenser av binære tall.

 

Når en komprimerer og omgjør analoge signaler til digitale mistes en del av informasjonen lydfilene, som små effekter i bass og diskant.

 

Vet svaret her blir postet leeeenge etter alle de andre, men tenkte kanskje det kunne være nyttig om noen skulle streife over det... om noen mener det jeg sier nå er feil, da vet jeg ikke... da er ikke læreren min i lyddesign og lydteknikk veldig bra utdannet :p

Lenke til kommentar

Ekstrembumping og misinformasjon på en gang - godt jobbet!

 

 

edit:

 

Men dette signalet vil være stykket opp etter samplingsraten (trappetrinnsvis), så man vinner ikke tilbake den analoge og kontinuerlige bølgen bare ved å analogisere et digitalt signal

 

Ikke riktig. Anbefaler å lese dette:

 

http://www.lavryengineering.com/documents/...ling_Theory.pdf

essensen:

 

Nyquist Sampling Theory: A sampled waveforms contains ALL the information without any

distortions, when the sampling rate exceeds twice the highest frequency contained by the

sampled waveform

Endret av _HKH_
Lenke til kommentar

Det er forskjell på frekvens og bølgeform. Selv om man kan reprodusere alle frekvenser opp til samplingsrate/2, så vil bølgene i teorien kunne bli ulik. Eksempelvis om man digitaliserer en ren analog sinusbølge ved 50 Hz så trenger man minimum en samplerate på 100 Hz for å gjenprodusere 50 Hz. Problemet er at etter digitaliseringen får sinusbølgen en firkantform da hver eneste sample vil alternere mellom samme verdi av negativ og positiv pol (fig 1).

 

Figurene:

 

post-51867-1211395049_thumb.png

 

Alle filtre, interpolering og antialias-metoder blir aproxymasjoner. I tilfeller hvor den opprinnelige analoge lyden ikke er en perfekt sinusbølge vil filtrene gi avvik da de fleste filtre vil tilnærme den digitale representasjonen som en sinusbølge (om jeg ikke bommer nå). Ergo, man trenger ikke få eksakt samme bølgeform som det opprinnelige analoge signalet var ved å analogisere en digital representasjon av dette signalet.

 

Kort og godt kan man si at digitalisering av lyd handler om å kvantifisere lyd. Altså dele det opp i håndterbare bruddstykker som man kan tallgi. Analoge signaler derimot inneholder ingen bruddstykker og er flytende.

Endret av Skagen
Lenke til kommentar
Rettelse... analoge signaler er bedre enn digitale... det er digitale signaler som mp3-filer som er komprimerte, og ikke de analoge signalene som bl.a. wav som er det som blir brukt på cd.

 

Jeg trodde wav var akkurat like digitalt som mp3.

 

Frode

Lenke til kommentar
Problemet er at etter digitaliseringen får sinusbølgen en firkantform da hver eneste sample vil alternere mellom samme verdi av negativ og positiv pol

 

 

Som digital bølge ser den firkantet ut men det her helt irrelevant. Etter D/A - konverteringen vil den bli nøyaktig som den var - en flytende analog bølge.

Quoter Dan Lavry igjen:

It is important to realize that the end result yields a waveform where the values are correct, not

just at sample times but at all times.

You DO NOT need more dots. There is NO ADDITIONAL INFORMATION in higher sampling

rates. As pointed out by the VERY FUNDUMENTAL Nyquist theory, we need to sample at

above twice the audio bandwidth to contain ALL the information.

 

 

 

Det som er viktig å forstå er at digitalisering av lyd fanger ALL informasjonen som trengs for å gengi de orginale analoge signalene akkurat slik de var.

Lenke til kommentar

Jeg forstår fortsatt ikke hvordan disse aproxymasjonene kan hente fram originalbølger når man nærmer seg samplerate/2. Har prøvd å illustrere hva jeg prøvde å si i forrige innlegg :)

 

post-51867-1211401718_thumb.png

 

1. Originalbølge i svart, digital representasjon i rødt.

2. Aproxymasjon i svart gjort på grunnlag av den digital representasjonen i rødt.

3. Det analogiserte signalet avviker fra det opprinnelige signalet.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...