Porcum Skrevet 20. juni 2014 Del Skrevet 20. juni 2014 (endret) Hei, Jeg har lenge tenk på å skaffe ny skjerm til PC'en min, siden jeg har lengtet etter HD. Plutselig tenkte jeg på å faktisk sjekke om skjermen min var HD eller ikke, og da fant jeg ut at den var 1024x768. Jeg fant ut at dette ikke var HD, men jeg kunne forandre på denne helt til 1600x1200. Dette tror jeg er HD. Spørsmålet mitt er da, kan jeg da spille spill i HD? Vil grafikken på spill være bedre nå som jeg har forandret oppløsningen? Endret 20. juni 2014 av Porcum Lenke til kommentar
Kyrre S. Skrevet 20. juni 2014 Del Skrevet 20. juni 2014 "HD" er jo egentig ikke noe annet enn et navn. 1080p kalles gjerne HD, og er 1920*1080 eller 1920*1200. Dette er veldig vanlig i dag, men er fortsatt ganske lav oppløsning. Hvor mange tommer er skjermen din? Vil nesten anbefale en ny skjerm hvis du vil oppleve hva en god skjerm kan levere. 1 Lenke til kommentar
newman221 Skrevet 20. juni 2014 Del Skrevet 20. juni 2014 Hva slags skjerm har du, og hva er den koblet til? (DVI, HDMI, analog D-sub?) Hvis det er en "vanlig" LCD-skjerm så skal den kun brukes i opprinnelig oppløsning, ellers blir bildet kornete og meget uskarpt. 1024x768 er en oppløsning som døde ut for maaaaange år siden. Og det er ikke HD. Tror faktisk ikke Win8 støtter den oppløsningen optimalt engang. 1600x1200 er heller ikke HD. 1920x1080 er HD, eller FullHD som det kalles. Lenke til kommentar
Shirmah Skrevet 20. juni 2014 Del Skrevet 20. juni 2014 Det høres ut som om skjermen din har en nativ oppløsning på 1600x1200, noe som tilsier at den er i 4:3-format, og ikke det mer moderne 16:9-formatet. Om du oppgraderer til en skjerm med 1920x1080 blir den største forskjellen at du får en bredere bildeflate, som jo er mer egnet til film og de fleste nyere spill. Antallet piksler blir ikke mer enn 8% høyere enn det du har nå for tiden. Teknisk sett snakker vi om TV-spesifikasjoner når vi bruker uttrykk som "HD", og alle oppløsninger som leverer mer enn 1280x720 kan defineres som "HD". Din skjerm på 1600x1200 gir mer enn dobbelt så mye piksler som dette igjen, så selvsagt kan det kalles "HD". Lenke til kommentar
Porcum Skrevet 20. juni 2014 Forfatter Del Skrevet 20. juni 2014 Jeg har en BenQ ET-0035-N 21.5''. Tror den er LED. Den er koblet med analog D-sub. Kan godt bytte til HDMI hvis det er mye bedre enn analog D-sub. Lenke til kommentar
newman221 Skrevet 20. juni 2014 Del Skrevet 20. juni 2014 Jeg vil anbefale deg å gå over til en heldigital overføringsmetode som DVI, HDMI ELLER DP. Hvem du velger avhenger av hvilke utganger du har på PCen. 1 Lenke til kommentar
kremt Skrevet 20. juni 2014 Del Skrevet 20. juni 2014 DVI er selvsagt klart å foretrekke Lenke til kommentar
Djn Skrevet 20. juni 2014 Del Skrevet 20. juni 2014 (endret) Den er 1920x1080 (som er full HD). Den bør også se mye, mye, bedre ut om du faktisk bruker den oppløsningen. (... seriøst? Har du sittet i fem år med en 22" widescreen satt til 1024x768, og ikke reagert på at alt er kjempe-uskarpt og antageligvis strukket ganske mye i bredden?) Angående "vil spill se bedre ut", så er det tre separate ting som avgjør hvordan det ser ut. Det ene er hvilke innstillinger spillet har - hvor bra effekter, hvor detaljerte textures, osv. Jo høyere oppløsning du kjører i, jo kraftigere skjermkort må du ha for å ha de samme innstillingene - men du kan ha høye instillinger i lav oppløsning, eller omvendt. Det andre er at høyere oppløsning gjør ting skarpere: I en lav oppløsning blir linjer hakkete, du kan ikke se små detaljer, og det kjennes "trangt" ut siden tekst og kart og sånt i spill må dekke ganske mye av skjermen for å være leslig. Det tredje er at på flatskjermer og prosjektorer (men ikke på gammeldagse TVer) så er det akkurat én oppløsning som er riktig. Nye skjermer er laget av et rutenett av pixler (firkantede punkter som kan lyse i en gitt farge). Bildet som skjermkortet tegner er også laget av et rutenett med punkter. Ideelt sett bør ett punkt fra skjermkortet vises av ett punkt på skjermen: Da blir alt superskarpt. Hvis det ikke stemmer, må skjermen strekke ut eller mose sammen det bildet den får tilsendt, og det blir grøtete og uklart. Og ja - se om du finner en HDMI-kabel eller noe sånt. Digital overføring blir skarpere og vil antageligvis automatisk velge riktig oppløsning for deg. Det betyr i praksis alt unntatt VGA (den blå med 15 pinner/hull). Endret 20. juni 2014 av Djn 1 Lenke til kommentar
Porcum Skrevet 20. juni 2014 Forfatter Del Skrevet 20. juni 2014 Takk for alle svarene, svarte på alt jeg lurte på! Jeg skal skifte til HDMI så fort som mulig, siden det står klart frem at VGA ikke er veldig bra Lenke til kommentar
.AN.XVIII.IV:. Skrevet 20. juni 2014 Del Skrevet 20. juni 2014 DVI er selvsagt klart å foretrekke Jeg bare lurer. Hvorfor er det å foretrekke? Forskjellene mellom HDMI og DVI, som jeg kan se i alle fall, er jo knøttsmå. Lenke til kommentar
kremt Skrevet 20. juni 2014 Del Skrevet 20. juni 2014 Forskjellene mellom HDMI og DVI, som jeg kan se i alle fall, er jo knøttsmå. Det er flere grunner. -HDMI er ment for å erstatte scartkabelen, og har således lite i PC verden å gjøre -DVI er en enklere standard med mindre signalkonvertering, dvs mindre inputlag på monitor -Bedre båndbredde på DVI, Noen kabler er kapabel til 2560x1440 120 hz (ikke offisielt). -DVI følger som oftest med monitorer så man ikke trenger å kjøpe noe ekstra Lenke til kommentar
Djn Skrevet 21. juni 2014 Del Skrevet 21. juni 2014 (endret) Forskjellene mellom HDMI og DVI, som jeg kan se i alle fall, er jo knøttsmå. Det er flere grunner. -HDMI er ment for å erstatte scartkabelen, og har således lite i PC verden å gjøre -DVI er en enklere standard med mindre signalkonvertering, dvs mindre inputlag på monitor -Bedre båndbredde på DVI, Noen kabler er kapabel til 2560x1440 120 hz (ikke offisielt). -DVI følger som oftest med monitorer så man ikke trenger å kjøpe noe ekstra Bildesignalet i HDMI er DVI (single link). HDMI drar med støtte for lyd/CEC/ymse, støtter Y'CbCr -farger i tillegg til RGB, og må støtte HDCP - men for det felles settet av oppløsninger/oppdateringshastigheter/RGB så er signalene totalt identiske, og kan konverteres rent mekanisk (du kan lodde en HDMI-kontakt på en DVI-kabel og få noe som virker). Det kan selvfølgelig være at skjermen velger å gjøre mer behandling av signaler fra HDMI, og hvis du faktisk trenger oppløsningen i DVI dual-link så går ikke det over HDMI ... men i utgangspunktet er det bare en mer kompakt kontakt for det samme bildesignalet. Endret 21. juni 2014 av Djn Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå