Gå til innhold

Viewsonic VX924


Anbefalte innlegg

personlig mener jeg at mennesket kan oppfatte "uendelig" med frames. vi er trossalt ikke noen pc... og det er dessuten ikke frames som er det dageligdagse for oss! (man kan tenke frekvensen på fotoner -> ) så min mening er jo flere jo bedre!

 

men uansett... hvor mange Hz takler en lcd-skjerm har hørt at det bare er 75? :thumbdown:

Endret av krest
Lenke til kommentar
Videoannonse
Annonse

En del unøyaktige påstander ute og går her.

 

Siden signaltap er en ikke-sak når det gjelder digital overføring

 

All signalering over kabel er i utgangspunktet analog. Det er tolkningen av signalet som er digital. Dette innebærer at så lenge signaltapet ikke er for stort, så får du ut eksakt det samme som du putter inn. Hvis signalet forstyrres tilstrekkelig, f.eks. ved lang kabel, dårlig kabel, eller andre ytre påvirkninger, vil du kunne få et bilde med støy. Så lenge DVI-kabelen er under 5m. tror jeg at den skal være rimelig elendig for at den skal påvirke skjermbildet i 1280x1024.

 

DVI har ikke feilsjekking

 

Dette stemmer ikke, som alle andre digitale protokoller med respekt for seg selv har også DVI standarden feilkorreksjon innebygd.

 

Tja, jeg husker tester av eldre grafikkort (FX5200 og deromkring),

der enkelte kort ikke klarte 1600x1200 over DVI. Kvaliteten på kabelen kan kanskje ha noe å si i slike tilfeller?

 

Problemet med disse kortene skyldes at signalgeneratoren for DVI-signalet er for dårlig. Jeg sitter selv med ett godt gammelt RADEON 9100 som har dette problemet, og jeg har prøvd en god del DVI-kabler uten at jeg får stabilt bilde i 1600x1200 ved 60Hz.

 

Anbefaler forøvrig følgende artikkel om emnet:

 

The TFT connection

 

R.

Lenke til kommentar

Vaio: Det du sier at de burde teste med målemaskiner osv er vel bare tøv. Det er jo hva du opplever forran skjermen som faktisk teller.

Disse folka har testet såpass mange skjermer at jeg tror da de kan komme med synspunkter på hva som er positift og negatift. Hvis du ikke ser etterslepp er det vel samme for deg om responstiden er akkurat det produsenten oppgir?

Andreas

Lenke til kommentar
En TV tegner 50 "halvbilder" i sekundet. Dvs. 25 bilder i sekundet.

Hjernen/øyet klarer ikke å skille på de to halvdelene av bildet som blir tegnet opp i løpet av da 4 ms. Dvs. at hjernen/øyet er minst 4 ms "tregt".

Antar at alt under 7-8 ms. ikke oppfattes av øyet som annet en grums, så testere som påstar de ser etterslep på en 4 ms skjerm må nok lete oppe i hodet sitt etter det etterslepet. :cool:

Feil, hjernen klarer fint å skille det, hadde det ikke vært for motion-blur hadde du sett det enda tydligere. Det er ingen grunn til å anta at det er noen fast nedre grense overhodet på hvor kort tidsintervall med lys vi kan oppfatte, tenk dg eksemplet et rom uten lys i det hele tatt, og så en skjerm som plutselig blinker hvitt, blir det sendt ut fotoner i det hele tatt som treffer øyet, så er det grunn til å anta at vi vil oppfatte det.

 

AtW

Lenke til kommentar
En del unøyaktige påstander ute og går her.

 

Siden signaltap er en ikke-sak når det gjelder digital overføring

 

All signalering over kabel er i utgangspunktet analog. Det er tolkningen av signalet som er digital. Dette innebærer at så lenge signaltapet ikke er for stort, så får du ut eksakt det samme som du putter inn. Hvis signalet forstyrres tilstrekkelig, f.eks. ved lang kabel, dårlig kabel, eller andre ytre påvirkninger, vil du kunne få et bilde med støy. Så lenge DVI-kabelen er under 5m. tror jeg at den skal være rimelig elendig for at den skal påvirke skjermbildet i 1280x1024.

Dette gjelder jo all digital overføring, så jeg er ikke helt enig i at det er unøyaktig, vil heller si at det er underforstått.

 

AtW

Lenke til kommentar
Hva mente de med at skjermen ikke kunne høyderjusteres, er det ikke bare å putte en esken under den da, altså er problemet fikset da?

I så fall har den pivot-funksjon også. Det er jo bare å legge skjermen på siden og vri skjermbildet 90 grader via driveren til skjermkortet. ;):p

 

Edit:

Hva hvis du vil ha den lavere da?
Da setter man den bare på hodet og vrir skjermbildet 180 grader via driveren :!:

 

 

 

 

 

Edit2: Ja, det er ment som et svært sarkastisk svar på jalla-løsningen ved å sette skjermen oppå en pappeske på skrivebordet.

Endret av Simen1
Lenke til kommentar

Jeg tror egentlig de fleste kan se at bildet flimrer på en 50Hz tv hvis de går nærme nok... Selv har jeg migrene og blir syk av å sitte nær crt-skjermer som kjører lavere enn 85Hz.

Mulig ekstreme spillere og fanatiske grafikere fremdeles synes crt er best, men jeg føler selv at utviklingen av lcd har kommet såpass langt nå at lcd er overlegen crt for gjennomsnittsbrukeren (og spesielt for personer med problemer med hodepine, det stabile bildet på en lcd er absolutt best da)

Lenke til kommentar

Bare for morro skyld quote'er jeg et inlegg angående dette fra avforum.

 

crt-skjermer har jo også "ghosting" ved at fosforet trenger litt tid for å dø ut. Dette gir et typisk impuls-forløp etterhvert som elektronkanonen scanner over skjermen.
Lenke til kommentar
dette holder ikke:
Hvitt heller litt mot blått

Svart har noe gjennomskinn av baklys nede. Ellers litt lys, men ikke ille

Rødt trekker litt mot brunt

Grønt ser bra ut

Blåttfargen er klar og fin

 

"Disse er DINE synspunkt...,eller deres"

Stusset på det der jeg også... Det er jo helt meningsløst å skrive noe slikt...

 

Dere må jo ha noen testbilder dere kan referere til/fra..... Dessuten har alt dere skrev der mer med innstillinger av skjermen å gjøre enn noe annet. Spør du meg høres det ut som om dere har for høy varme på fargene (over 6500K eller hva som er "best")

 

Kan gi dere litt info:

Om dere tester med fabrikk innstillinger er de ofte FEIL INNSTILT fra fabrikk. Vet dere hvorfor? - For å selge mer i butikker. (spør hvis dere vil vite mer, dette er bl.a til at 99% av mennesker vil synes det er bedre bilde på LCD enn plasma I EN BUTIKK. Kommer de hjem blir de dypt skuffet...)

 

Uten de SIMPLESTE opplysninger om innstillinger er denne testen ikke annet enn synsing..

 

Det blir litt dumt.. :nei:

Lenke til kommentar

Virker jo som en kongeskjerm. De fleste gamingskjermer er jo et helvete å se film på. Hardware sa jo at den fungerte helt greit til det. I tillegg så har den bare 3 ms (vet ikke hvor mye det egentlig har å si men) og den generell bildekvaliteten var også god. Vurderer den sterkt.

Lenke til kommentar

Skjermene nullstilles selvfølgelig før vi engang ser på bildet. Deretter settes de i sRBG-modus dersom de støtter dette. Gjør de det ikke så kalibereres den etter beste evne ut fra en fargetemperatur på 6500K. Skulle vi ikke være fornøyde med sRGB bruker vi også en god del tid på å tweake skjermbildet til det beste, men det er i all hovedsak resultatet i sRGB som omtales.

 

Informasjon om dette finnes i en eller flere av stortestene vi har foretatt, men dersom det er ønskelig kan jeg ved anledning forfatte det i et eget dokument som det kan pekes til fra hver test.

 

Dette med feilaktig innstilling fra fabrikk har jeg vel også omtalt en eller annen gang. Spørsmålet var bare om det var i en artikkel eller på forumet (med x antall tusen innlegg er det vanskelig å huske :p ). Jeg har kontakt med flere produsenter, og på monitormarkedet er det ikke bevisst "feilinnstilling" som er problemet, men snarere det at det ikke er mulig å produsere to helt identiske paneler. Faktisk kan det være så stor forskjell på to paneler produsert rett etter hverandre at man kan se forskjell ukalibrert. Mange skjermer leveres faktisk ukalibrert, og derfor har vi gjentatte ganger oppfordret til bruk av enten sRGB eller fargetemperatur på 6500K. Jeg håper dog du har forståelse for at vi ikke kan gjenta alt slikt i hver teste, da det langt vil overgå det vi skriver om hvert enkelt produkt :)

 

Når det gjelder å ta bilder som bevis regner jeg med at de fleste skjønner at dette er en dårlig ide da bildet vil bli påvirket av både kamera og lesers skjerminnstilling. Det hjelper lite å vise fram et hvitt bilde på en skjerm som viser hvitt som blått, eller ved hjelp av et kamera som grumser til fargene :)

Lenke til kommentar

Det er vel kanskje smart å linke til et slikt dokument? Skjønner jo du ikke kan skrive (så mye) om dette i hver test. Dere bør vel også påpeke om sRGB er tatt i bruk eller ikke (kort forklaring på hva det er og hvordan det fungerer? Skjønte ikke mye av wikipedia gitt..)

 

Ellers var det ikke slike testbilder jeg mente, jeg mente at dere har ett standard testbilde på hva rødt, grønt og blått er (+ hvitt og sort?) og ser etter avvik på dette. Men det er kanskje det dere gjør..

Lenke til kommentar
Blir nok en VP191B/S på meg. Har HW.no testet denne? Leste testen av VX924 hos Tomshardware, og håper VP191B/S er verdt pengene.

Jeg kjøpte meg nettopp en VP191S og er veldig fornøyd med den, er hardcore FPS spiller og merker ikke etterslep. Kunne se etterslep i bubble trouble på røde baller, men ikke på noen andre farger. Den banker iallefall alle andre flatskjermer jeg har sett til spilling, men så har jeg ikke sett altformange til det bruket heller da så....

Lenke til kommentar

jeg tror grunnen til at de fleste er så glad i lcd'en sin utover vekt og størrelse(som er godt nok grunnlag for mange til å kjøpe lcd over crt) er at de fleste gikk fra heller dårlige(lav hz og mindre skarpe) crt skjermer til lcd, og ikke fra toppmodeler(som idag er rimlig billige iforhold til lcd iaff) som eizo lacie, eller top modelene til sony nec philips osv.

Lenke til kommentar

nesten null fysiske innstillinger

tn panel

19"

stygg som juling

dyr

 

jeg hadde puttet pengene mine på en 20" dell til drøye tusingen mer. S-IPS og et hav av innstillingsmuligheter.

 

 

Dog en fin test enden, men som sagt hadde jeg prioritert mine hard opparbeide kronarser på en skikkelig S-IPS skjerm :D

Lenke til kommentar
En del unøyaktige påstander ute og går her.
DVI har ikke feilsjekking

 

Dette stemmer ikke, som alle andre digitale protokoller med respekt for seg selv har også DVI standarden feilkorreksjon innebygd.

Det jeg mener er at hvis bitstrømmen inneholder feil(som feilkorreksjonen du påstår DVI har, ikke kan gjenopprette), så har ikke DVI mulighet til å sende bitstrømmen på nytt, det er rett og slett ikke tid til det når man skal sende såpass mye data som et skjermbilde er. Så det er mulig å få feil på bildet ved DVI også.

Lenke til kommentar

Her var det mye påstander og lite dokumentasjon. Jeg skal prøve å bryte trenden ved å poste noen gode sider om DVI og protokollen som brukes:

 

Flat TV People: DVI - Digital Visual Interface

Anandtech: Digital Visual Interface (DVI) Explained & Improving GeForce2/3 Image Quality

 

Blandt annet får vi svar på hvilke oppløsninger som støttes av single link og dual link.

 

Det står noe her at EMTS-protokollen ligner på Infiniband uten at jeg klarer å verifisere noen error correction.

 

Her står det også noe interresant om DVI

DVI overcomes these problems by using specialized processors to compress and decompress the data. DVI is a hardware -only codec (compression/decompression) technology. A competing hardware codec, which has become much more popular, is MPEG. Intel has developed a software version of the DVI algorithms, which it markets under the name Indeo.

 

Disse to kildene avkrefter at DVI inneholder error correction:

http://www.bluejeanscable.com/articles/dvihdmicomponent.htm

http://www.ramelectronics.net/html/DVI_cables.html

 

Men selv om det avkreftes så er jeg overbevist om at DVI gir generellt bedre bildekvalitet med langt mindre forstyrrelser enn det gamle analoge d-sub-signalet.

Endret av Simen1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...