Gå til innhold

Kunshan P950E - godt kjøp for rundt 15000? Erfaringer?


Anbefalte innlegg

Videoannonse
Annonse

Heisann, når det gjelder laptoper, så er det slik at skjermkortet er ofte enten umulig, eller svært vanskelig å oppgradere. Og selv når de kan oppgraderes, så er det ofte så dyrt, at det blir vanskelig å rettferdiggjøre investeringen. Derfor er det viktig å kjøpe seg en laptop som i utgangspunktet har et skjermkort som er så godt som mulig innenfor ens budsjett.

 

Laptopen du ser på har et skjermkort som er en strømsparende versjon av et skjermkort som ble lansert i august 2016. MaxQ versjonens fokus på å spare strøm, gjør den rundt 20% tregere enn den normale versjonen. Så det er to ting du må ta med i vurderingen; Arkitekturen er gammel, og nye laptop skjermkort er ventet i november. Samt; om du ikke kan vente til november, skal du gå for MaxQ versjonen, eller den raskere men mer strøm hungrige vanlige versjonen? Altså; er det viktig med lavere lydnivå fra skjermkortet, samt å kunne spille lenger fra kun batteri?

 

Uansett hva man velger her, så er G-Sync en svært god funksjon for nettopp laptoper. I en vanlig stasjonær maskin er det jo en enkel sak å oppgradere skjermkortet når man synes ytelsen begynner å bli utdatert. Men som sagt; det samme kan ikke sies å være tilfelle med laptoper.

 

Om man har en skjerm på 144Hz uten G-Sync, så betyr det at et nytt bilde kun kan sendes til skjermen hvert 1000/144=6,94ms. Om skjermkortet ikke er klart med et nytt bilde innen denne fristen, så må man enten sende det som er klart (altså med VSync av), eller skjermkortet må sende samme frame om igjen, som allerede står på skjermen (med VSync på). Altså blir bildet som sendes til skjermen enten seendes ut som det er halvferdig tegnet (tearing), eller det blir stående uten endring i ~14ms i stedet for ~7ms. Altså man opplever det som litt hakkete (og i praksis har man bildet på skjermen like lenge som om man hadde hatt en 72Hz skjerm).

 

Har man i stedet en G-Sync skjerm som har en G-sync range på f.eks. 30 - 144Hz, så betyr det at innenfor denne rangen; 6,94ms - 33,33ms, så vil skjermkortet sende et komplett bilde til skjermen umiddelbart etter at bildet er tegnet ferdig. Til sammenlikning; dersom man for eksempel spilte et spill på innstillinger som gjør at man ligger på mellom 90 og 120 fps, så vil man altså med G-Sync få 90 - 120 fps fremvist på skjermen. Mens uten G-Sync vil man få nøyaktig 72 fps fremvist hele tiden. Alt over 72 fps ville blitt kastet i søpla, eller man måtte skrudd av VSync og levd med tearing.

 

På 144hz kan man riktignok klare seg bedre uten G-Sync, med den nye sync metoden "Fastsync" fra Nvidia, men alle bilder vil uansett enten sendes til skjermen etter enten ~7ms, eller ~14ms, eller ~21ms også videre...

 

Så ja, til laptop synes jeg G-Sync er svært viktig. Da det rett og slett forlenger levetiden til skjermkortet. Med G-Sync vil man for eksempel kunne spille fint på ~45fps, mens uten G-Sync er vi da nede i 1000/45=22,2ms. Man måtte altså ventet på skjermens fjerde hver oppdatering for å få frem et nytt bilde (27,77ms). Eller sagt på en annen måte; man ville mistet ~9fps (20%) ned til 36fps, fra det som allerede var i minste laget. Og hakkingen ville vært mye verre...

  • Liker 6
Lenke til kommentar

Tusen takk for et glimrende svar! Hadde gitt deg stjerne om det hadde vært reddit.

 

Hva tenker du om IPS skjermer med 60hz og G-sync?

 

Jeg skal på et voksenlan (hehe øl og laptops) en helg i slutten av oktober - og har naturligvis lyst på en god spill-laptop før det...Synd at Nvidia har jobbet såå lenge med ny generasjon!

 

Er den strømsparende versjonen av 1070 bedre enn en vanlig 1060?

Lenke til kommentar

Vel, egentlig er det kanskje litt dumt å benytte så "bombastiske" verdier som xx% raskere enn ditten og datten. Det kommer jo også an på CPU og RAM hastighet, samt den spesifikke oppgaven. Altså noen spill driter i RAM hastighet, og funker like raskt med samme GPU uavhengig av RAM hastigheten. Mens et annet spill blir så bremset av treg RAM at det er RAM'en som bestemmer hvor fort spillet går og ikke selve GPU. Vel det siste er vel i et ekstremt tilfelle, men kombinerer man med litt tregere RAM og litt tregere CPU, så vil en laptop med GTX1060 med rask RAM og CPU kunne slå selv en laptop med et GTX1070 MaxQ i. Da dersom akkurat det spillet trenger rask CPU og RAM...

 

Men i utgangspunktet, dersom man altså ikke har store flaskehalser ellers i maskinen, så skal GTX1070 maxQ være rundt 25-30% raskere enn et vanlig GTX1060 til laptop.

 

Ellers når det gjelder G-Sync ved tregere skjerm oppdaterings frekvenser som 60Hz, så kan man vel si at det både er enda viktigere, og ikke viktig i det hele tatt. Man bør ha som mål å klare mer enn 60fps til enhver tid for å få en så spillbar som mulig opplevelse. Klarer man å holde fps over skjermens maks frekvens til enhver tid, så blir ikke G-Sync aktivert overhodet, og har da heller ingen funksjon.

 

Men, klarer man ikke å holde fps over i dette tilfellet 60 fps, så blir nesten G-Sync viktigere enn noensinne. Fordi det er jo lenger ned i fps/Hz at forskjellen blir tydeligst...

 

IPS tenker jeg blir litt smakssak. Enkelte gjør ikke så mye av den tregere pixel responstiden, og kan da nyte bedre innsynsvinkel og farger med en IPS skjerm. Mens for andre blir det som å se på et utvasket akvarell maleri, og TN panelers mye raskere pixel responstid blir for dem å foretrekke. Selv faller jeg ned på at et godt TN panel er å foretrekke. Men igjen med laptoper, det kan jo være alt annet er perfekt på en modell man vurderer, men at skjermen får kjeft av anmeldere... Man kan ikke bare velge den skjermen man vil ha til laptop dessverre. Eller, tjo, man kan jo google som en gal og finne paneler som passer og bytte selv. Men jeg regner ikke med det er like interessant? ;)

  • Liker 1
Lenke til kommentar

Takk igjen for flott og forklarende svar!

 

Det jeg registrerer er at de fleste gaminglaptops ikke har g-sync, med mindre man kryper opp mot 20k og over.. Billigste ser ut til å være

 

https://www.komplett.no/product/1074130/gaming/gaming-pc/baerbar/omen-by-hp-156-144hz-full-hd-matt

 

Er g-sync teknologien så ny kanskje?

 

Jeg skal ikke si noe sikkert, men jeg tror nok heller at folk ikke har vært villige til å betale ekstra for G-Sync, slik at det til slutt bare har funnet veien inn i produkter i "premium" segmentet. For et par måneder siden var riktignok Elkjøps "månedens" gaming laptop en kjekk sak med GTX1060 og G-Sync til 10 000 Kr. Men det var et så utrolig bra tilbud at jeg vurderte å kjøpe en til tross for å ikke trenge gaming laptop. :p

 

Men nei, jeg vil ikke kalle G-Sync spesielt nytt. Nvidias iterasjon har vært på markedet i noen år allerede, men forløperen er nedfelt i eDP standarden, og fungerer som en strømsparefunksjon; Hvorfor bruke strøm på å oppdatere skjermbildet dersom det ikke har endret seg liksom? :p Nvidias patent sier imidlertid noe om å oppdatere bildet basert på hva som er på skjermen, men de har aldri villet ut med hva som er forskjellig fra G-Sync til Freesync, utover at det visstnok skal være en forskjell som rettferdiggjør "G-Sync skatten" man må betale for å få den med.

 

"Morsomt" nok er det en fysisk G-Sync modul i G-Sync desktop skjermer, en fordyrende komponent. Men på laptop'ene benytter de bare Adaptive Sync fra eDP standarden, og hyllevare scaler...

 

Et kompromiss, for jeg synes heller ikke G-Sync er verdt 7 000 Kr!! Kan være å huske at en laptop med GTX skjermkort og DP utgang, alltids kan benytte G-Sync med en ekstern G-Sync skjerm. Og så heller akseptere at man ikke får det med på reise?

 

Du kan kikke litt i FAQ i signaturen min, og se der for en litt dypere forklaring på de forskjellige sync metodene. Der er et par "triks" for å få mest mulig ut av et "fixed refresh display" også. :)

Endret av Gabri3L
Lenke til kommentar

Takk! Skal sjekke ut.

 

Blir det færre tilfeller av tears ved høyere hz? Feks 60hz vs 144hz? (uten v-sync og g-sync)

 

Ved: CS:Go med la oss si 140-180 fps

Ved: Witcher med fps 40-55

 

Vel, hvor mange tears man får, og hvor mange man ser kan jo være to forskjellige ting. Med en 144Hz skjerm vil jo hvert bilde bli fremvist i bare 6,94ms, og om en tear da flytter seg fra en oppdatering til neste, så er det avhengig av type spill, ikke sikkert at man legger merke til tear'ene i det hele tatt. Det kommer også an på hver enkelt av oss, hvor raskt nettopp ens syn er. Og til en viss grad kan nok dette også trenes opp, slik at det som ikke er så irriterende i utgangspunktet blir mere og mer synlig jo mer man spiller, og til slutt er så irriterende at man ikke orker det mer.

 

Men hvis vi bare forholder oss til hva som faktisk kommer på skjermen, så er prinsippet forholdsvis enkelt. Men da på sett og vis også ikke fullt så logisk som man kanskje ville trodd.

 

Et eksempel; man har en 144Hz skjerm, men skjermkortet klarer ikke stort mer enn ~30fps i det aktuelle spillet. Man skrur av VSync, og skjermkortet tegner opp ~1/5 av en frame før skjermen (etter 6,94ms) skanner utbufferen til skjermkortet. Man er i bevegelse i spillet, og får da en tear ~20% fra toppen av skjermen. Skjermkortet fortsette så på å tegne den samme frame'en, og klarer ~1/5 til, før skjermen igjen skanner utbufferen på skjermkortet, og tegner da opp et bilde med den samme tear'en 20% fra toppen, men også en ny tear ~40% fra toppen av bildet... Skjermkortet begynner for tredje gang og fortsetter på samme bilde, rekker igjen bare 1/5 til av bildet før skjermen skanner utbufferen... Vi har nå 3 tears på skjermen, med ca. 20% av skjermhøydens avstand imellom, og dette gjentar seg igjen og igjen; skjermen er full av tearing.

 

Samme spill på samme maskin med en 60Hz skjerm; ~30 fps er ~halvparten av 60Hz. Skjermkortet lager ~50% av skjermbildet før skjermen skanner utbufferen, og man får en tear midt på skjermen. Deretter tegner skjermkortet ferdig bildet sånn ca. Og det skannes til skjermen enten som, la oss si 95% ferdig med en tear nummer 2, 5% fra bunnen av skjermen. Eller om skjermkortet ble ferdig med hele bildet+ ~5%. Så får man et nytt bilde på skjermen som består av 5% nytt, og der en tear, mens resterende 95% av bildet er det gamle fremdeles. så man får den nye tear'en 5% fra toppen, og den gamle ~midt på skjermen. Neste gang skjermen skanner utbufferen har kanskje skjermkortet klart å lage ny informasjon der den gamle tear'en var midt på skjermen, og tear'en midt på flytter seg ~5% lenger ned... Osv. Osv...

 

Så, i disse eksemplene er det altså ingen fordel med 144Hz skjerm, man får faktisk gjene mer enn dobbelt så mye tearing på skjermen, fordi spillmotoren tilfører bevegelses informasjon for hver skjerm oppdatering, som gjør at bildet flytter seg for hver gang.

 

I det andre eksempelet ditt med 140 - 180 fps, så vil skjermkortet for det meste tegne opp 1 tear for hver skjerm oppdatering, siden skjermkortet klarer å tegne mer enn 100% av skjermens høyde for hver oppdatering. På en 60 Hz skjerm, vil man også kun få en tear, men den står jo på skjermen i 16,7ms hver gang, i stedet for 6,94ms, og blir dermed for de fleste mer synlig enn med 144Hz skjerm...

 

Jeg vet det er vanskelig å visualisere slike ting. Men forhåpentligvis gir dette deg en liten ide..

Lenke til kommentar

Jeg avventer kjøp noe i påvente av Nvidia-lansering... De skal nok ha noen kunngjøringer i august ser det ut som!

 

Ja, men det er desktop skjermkort. Laptop kortene kommer senere enn det. En Lenovo ansatt gikk på en blunder for et par måneder siden og avslørte at deres laptoper kommer med nye skjermkort i november, om jeg ikke husker feil. Med desktop kort i august - september høres november for laptop kort mulig ut, men ikke nødvendigvis sannsynlig. Laptop kortene kan ha blitt forsinket de også...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...