Gå til innhold

Bygge om PC til noe som kan spille HD på TV-en


Anbefalte innlegg

På rommet mitt står det nå en PC jeg ikke bruker. Det vil si, jeg får uansett ikke brukt den fordi at harddisken har kræsja. Så jeg prøver egentlig å finne noe jeg kan bruke den til.

 

Jeg kom på at jeg gjerne vil kunne spille av filmer i HD på TV-en min.

Hva må jeg gjøre for at kunne koble PC-en til TV-en og få HD-oppløsning?

 

Om PC-en.

Manufacturer: NVIDIA

Processor: AMD Athlon 64 Processor 3500+, MMX, 3DNow, ~2.2GHz

Memory: 2048MB RAM

Video Card: NVIDIA GeForce 6600 GT

Sound Card: Realtek AC97 Audio

Lenke til kommentar
Videoannonse
Annonse

Det letteste hadde vell vert og koble datamaskinen til TV`en med en HDMI kabel.

 

 

Du må også ha en DVI til HDMI overgang. Da du ikke har HDMI ut fra skjermkortet.

 

Det hele begrenses jo med hvilken TV du har, er den av nyere type vil den mest sannsynelig ha en HDMI inngang.

 

Noen har faktisk VGA ingang og. Så da kan du bruke en vanelig VGA kabel. (Skjermkabel)

 

Det siste og minst praktiske vil vel være og bruke S-video, vet ikke helt hvilken kvalitet du vil oppnå med dette, men til film osv tror jeg ikke det er så gale.

 

Da vil du trenge noe aka denne og denne.

Lenke til kommentar

Hd blir målt i noe som heter DPI og HD er på 1080 dpi. Jo høyere dpi jo finere kanter får du på bildet. Du kan gjøre 1280x1024 fint over en vga kabel men det sier ingen ting om det er HD eller ikke. HD merkes best vis man sitter nærme skjemen. Å ja vga kjøres analogt er jeg også meget sikker på. VGA sender også volt gjennom kabelen noe som gjør kabelen helt anderledens. Du må ha DVI eller HDMI kabel for og se HD.

Lenke til kommentar

Det som er avgjørende her er hvilket HD-materiale du skal spille av. Skal du spille av BD eller HD-DVD, så er HDMI et krav for å spille det av i 1080p. Uansett fungerer det fint å kjøre 1920x1080 med VGA, men skal du spille av ovennevne så må det være HDCP-compliant for å få maks oppløsning. Med andre ord, du må ha DVI til HDMI-overgang. Hvis du skal spille av x264 i *.mkv-container eller *.avi så fungerer begge ypperlig. Med VGA så blir fargene gjerne litt blassere enn med HDMI. De fleste nyere skjermkort kommer med 2 DVI-utganger. Er ikke kjent med hva som er på ditt. Husk at du må ha lyden i egen kabel, enten opp i TV'en eller til forsterker.

Endret av WonderStivi
Lenke til kommentar
Hd blir målt i noe som heter DPI og HD er på 1080 dpi. Jo høyere dpi jo finere kanter får du på bildet. Du kan gjøre 1280x1024 fint over en vga kabel men det sier ingen ting om det er HD eller ikke. HD merkes best vis man sitter nærme skjemen. Å ja vga kjøres analogt er jeg også meget sikker på. VGA sender også volt gjennom kabelen noe som gjør kabelen helt anderledens. Du må ha DVI eller HDMI kabel for og se HD.

Ærlig talt, dette er svada. HD er ikke noe man måler, de definerte HD-oppløsningene er 1280*720 og 1920*1080 piksler. Hvor mange DPI (dots per inch, det forteller altså om punkttetthet per areal) dette blir avhenger av hvor stor bildeflate man har på skjermen, men det er selvsagt helt irrelevant. HD dreier seg rett og slett om oppløsning, og høy oppløsning fungerer også utmerket analogt, slik det har gjort i mange år. Du kan se HD via både HDMI, DVI, VGA og komponent, og når det gjelder "volt gjennom kabelen noe som gjør kabelen helt anderledens", så må du nesten forklare nærmere hva du mener.

 

Trådstarter: Hvilken TV har du? En del modeller kan være problematiske å koble til TV-en med ønsket resultat, dette gjelder i hovedsak støttede oppløsninger på de forskjellige inngangene, samt 1:1 pixelmapping. Optimalt resultat får man ved å bruke TV-ens native oppløsning, altså den fysiske oppløsning på TV-en, samt 1:1 pixelmapping. Hvis du forteller hvilken TV du har er det lettere å fortelle hvordan du skal gå frem. Skjermkortet ditt skal ikke ha noen problemer med oppløsningene det er snakk om her, men ettersom jeg ikke kjenner dette kortet særlig godt tør jeg ikke si hva det har å by på når det gjelder hardwareakselerasjon.

Lenke til kommentar
Hd blir målt i noe som heter DPI og HD er på 1080 dpi. Jo høyere dpi jo finere kanter får du på bildet. Du kan gjøre 1280x1024 fint over en vga kabel men det sier ingen ting om det er HD eller ikke. HD merkes best vis man sitter nærme skjemen. Å ja vga kjøres analogt er jeg også meget sikker på. VGA sender også volt gjennom kabelen noe som gjør kabelen helt anderledens. Du må ha DVI eller HDMI kabel for og se HD.

Ærlig talt, dette er svada. HD er ikke noe man måler, de definerte HD-oppløsningene er 1280*720 og 1920*1080 piksler. Hvor mange DPI (dots per inch, det forteller altså om punkttetthet per areal) dette blir avhenger av hvor stor bildeflate man har på skjermen, men det er selvsagt helt irrelevant. HD dreier seg rett og slett om oppløsning, og høy oppløsning fungerer også utmerket analogt, slik det har gjort i mange år. Du kan se HD via både HDMI, DVI, VGA og komponent, og når det gjelder "volt gjennom kabelen noe som gjør kabelen helt anderledens", så må du nesten forklare nærmere hva du mener.

 

Trådstarter: Hvilken TV har du? En del modeller kan være problematiske å koble til TV-en med ønsket resultat, dette gjelder i hovedsak støttede oppløsninger på de forskjellige inngangene, samt 1:1 pixelmapping. Optimalt resultat får man ved å bruke TV-ens native oppløsning, altså den fysiske oppløsning på TV-en, samt 1:1 pixelmapping. Hvis du forteller hvilken TV du har er det lettere å fortelle hvordan du skal gå frem. Skjermkortet ditt skal ikke ha noen problemer med oppløsningene det er snakk om her, men ettersom jeg ikke kjenner dette kortet særlig godt tør jeg ikke si hva det har å by på når det gjelder hardwareakselerasjon.

 

 

Kunne ikke vært mere enig! har selv en Samsung 40" LCD-TV LE40A656 med en mediapc kobla med vga og 1920*1080, fungerer bedre enn med hdmi, med hdmi fyller det ikke hele skjermen.

Lenke til kommentar
Hd blir målt i noe som heter DPI og HD er på 1080 dpi. Jo høyere dpi jo finere kanter får du på bildet. Du kan gjøre 1280x1024 fint over en vga kabel men det sier ingen ting om det er HD eller ikke. HD merkes best vis man sitter nærme skjemen. Å ja vga kjøres analogt er jeg også meget sikker på. VGA sender også volt gjennom kabelen noe som gjør kabelen helt anderledens. Du må ha DVI eller HDMI kabel for og se HD.

Ærlig talt, dette er svada. HD er ikke noe man måler, de definerte HD-oppløsningene er 1280*720 og 1920*1080 piksler. Hvor mange DPI (dots per inch, det forteller altså om punkttetthet per areal) dette blir avhenger av hvor stor bildeflate man har på skjermen, men det er selvsagt helt irrelevant. HD dreier seg rett og slett om oppløsning, og høy oppløsning fungerer også utmerket analogt, slik det har gjort i mange år. Du kan se HD via både HDMI, DVI, VGA og komponent, og når det gjelder "volt gjennom kabelen noe som gjør kabelen helt anderledens", så må du nesten forklare nærmere hva du mener.

 

Trådstarter: Hvilken TV har du? En del modeller kan være problematiske å koble til TV-en med ønsket resultat, dette gjelder i hovedsak støttede oppløsninger på de forskjellige inngangene, samt 1:1 pixelmapping. Optimalt resultat får man ved å bruke TV-ens native oppløsning, altså den fysiske oppløsning på TV-en, samt 1:1 pixelmapping. Hvis du forteller hvilken TV du har er det lettere å fortelle hvordan du skal gå frem. Skjermkortet ditt skal ikke ha noen problemer med oppløsningene det er snakk om her, men ettersom jeg ikke kjenner dette kortet særlig godt tør jeg ikke si hva det har å by på når det gjelder hardwareakselerasjon.

 

 

Kunne ikke vært mere enig! har selv en Samsung 40" LCD-TV LE40A656 med en mediapc kobla med vga og 1920*1080, fungerer bedre enn med hdmi, med hdmi fyller det ikke hele skjermen.

 

Slenger meg på her:) DPI *hihi*

"volt gjennom kabelen noe som gjør kabelen helt anderledens" Jeg pissa litt på katta når jeg så den:)

Ok da, optiske kabler sender lys forsåvidt... men likefullt... jaja:) Dere som skjønner, skjønner.

Nok trollfakter men jeg klarte ikke dy meg helt.

 

Joda, VGA kabel vil antagelig fungere det:). Har 2 stk liggende som ikke er spesiellt villige, og en litt dyrere som ikke funker i det hele tatt... og en gammel 5m kabel som glatt smeller ivei på 1920x1080 oppløsning. Nå har jeg imidlertidig koblet via forsterkeren til tvn via HDMI, uten at øye kan se noe forskjell. Ikke på DVI kabelen jeg brukte før heller. På en 42" tatung full hd tv.

 

Så, når det gjelder vga kabler så er det ikke alltid den klarer 1080p oppløsningen med andre ord, så hvis du prøver og det ikke funker så kan det være kabelen sin feil at du ikke når ønsket oppløsning.

 

Men! Når jeg ser på pcn din, så vil den få trøbbel med å dekode raskt nok til at du får 24 FPS (bilder i sekundet)

Ser for meg rundt 2-10fps med det skjermkortet/cpu`n der. Litt slideshow:)

 

Har prøvd med kraftigere oppsett (f.eks gf8200 og sempron prosessor) og det har ikke helt nådd målet.

 

Hvis ikke det der er en 6600gt SuperSpecial edition med HD/mpeg etc hardware decoding, så vil nok pcn

_mest_ sannsynlig være for svak til å decode 1080p softwaremessig.

Lenke til kommentar

Hei! Takk for alle svar. TV-en det er snakk om er en Samsung LE32R41B (teknisk info om TV-en). Den er bare HD-klar, så den kan vel bare kjøre 720p, men vil gjerne at PC-en skal kunne spille 1080p.

 

 

Men må mer enn skjermkortet byttes ut for å gjøre dette til en realitet? Og eventuelt hvilket skjermkort bør brukes da?

Endret av :--{D
Lenke til kommentar
  • 2 måneder senere...
Så vidt jeg kan se på denne oversikten støtter TV-en kun riktig oppløsning og pixelmapping via VGA-inngangen. Korrekt oppløsning fra PC er 1366*768 (ikke 720p).

 

 

Dette stemmer i alle fall på min samung som det står i siggen! med hdmi, kan jeg fritt velge! men da blir det ikke 1:1 lenger

Lenke til kommentar

Nokia_dell: Hvilket skjermkort har du? Dersom du har ATi - har du prøvd med DVI istedenfor HDMI? Selv kjører jeg "DVI over HDMI" (!!! Høres rart ut, ja.) og da kødder ikke CCC til signalet og jeg får 1:1 @ 1080p50.

 

En kjapp forklaring: Har 780G (IGP) og satte DVI som disp.type i BIOS. Dermed får jeg DVI-instillinger i CCC istedenfor HDMI. Signalet sendes ut via DVI eller HDMI. Det er noen fordeler med HDMI i CCC (eks. fargevalg), men det veier ikke opp for ulempene IMO.

Lenke til kommentar
Kunne ikke vært mere enig! har selv en Samsung 40" LCD-TV LE40A656 med en mediapc kobla med vga og 1920*1080, fungerer bedre enn med hdmi, med hdmi fyller det ikke hele skjermen.

 

Var mye bullshit her i dag. Dette er 99% sikkert pga dine TV/PC-innstillinger, aka brukerfeil. Den siste prosenten er hvis TVen din er designet av en lobotomipasient.

 

HDMI (eller DVI som basically er HDMI uten audio) gir best bilde, ALLTID. Det er ingen TV produsenter som lager TVer som ikke viser 720p, 1080i eller 1080p rett over HDMI. Det er bare å be om å gå konkurs. Det er ikke alltid TVen har 1:1 pixelmapping, men bildet skal vises rett uansett. Ikke rakk ned på 100% digitalt og perfekt bilde fordi du ikke har konfigurert TVen rett.

 

Til OP. 6600 kortet ditt må vel ha en DVI utgang. Jeg anbefaler en DVI til HDMI kabel. Audio må vel bli enten pchøytalere eller jackplug -> med overgang til whatever du har slags audio-innganger på TVen. Selv om det beste hadde vært et skjermkort med HDMI + et lydkort som støtter audio over HDMI. Kobles til skjermkortet med en bro/kabel, så trenger du bare en kabel til TVen. Men det er kanskje heller noe for en ny mediaPC.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...