Gå til innhold

RYKTE: Nvidia lanserer straks GTX 1050


Anbefalte innlegg

Videoannonse
Annonse

 

 

Altså, jo billigere skjermkortet blir. Desto større galskap blir det å kjøpe en G-Sync skjerm til ~4000Kr å bruke det med. Hvem skal kjøpe skjermkort til ~1000 lappen, og så spandere 4000Kr på skjermen?

 

Freesync skjerm får man for ~1200Kr. Og et RX460 med en slik skjerm vil gi en mye bedre spillopplevelse enn et GTX1050 med en vanlig skjerm. Med mindre Nvidia åpner driverene sine for Freesync skjermer, så er dette segmentet nå helt og holdent AMD territorium. GTX 1050 er det mest unødvendige kortet man kan få, med mindre man allerede har skjerm uten adaptive sync, og ikke har planer om å oppgradere..

 

 

Hva snakker du om?

Har du sett noen som kjøper et skjermkort til 1000kr og deretter en skjerm til 4000kr?

De som kjøper 1050 til sin gaming rig kjøper det nok fordi de ikke har penger eller vil prioritere penger til et kraftigere kort.

 

Jeg har 1080 i min gaming rig, men et 1050 er perfekt til feks min hjemmekino-PC for 4K BluRay, enkle spill etc så da er jeg glad for at det kommer et billig kort så jeg slipper å kaste bort tusener på unødvendig ytelse.

 

Forstår ikke innlegget ditt, mener du at det er galskap at det kommer innstegsmodeller for de med en begrenset økonomi? Tror du ikke de som bestiller et skjermkort til 1000kr antageligvis har en skjerm til omtrent samme pris?

 

 

Eh.. Det er da akkurat det jeg skriver i min post: Hvem er så dum å kjøpe en 4000 kroners skjerm til et 1000 kroners skjermkort?

 

GTX1050 er ment å være et spill-skjermkort. At du (og andre) finner god bruk for det i en HTPC gjør det ikke til et HTPC kort. Det vil være et godt, men dyrt, alternativ for HTPC bruk der man har en gammel CPU. Og det er omtrent hva det er. 4K BluRay kan du uansett foreløpig glemme uansett skjermkort. Så det er ikke noe argument for GTX1050. Og om det var det, så gjenstår spørsmålet hvorfor man skal velge GTX1050 fremfor RX460 om de er likt priset?

 

 

Hva pokker er det du snakker om?

Hvem er det som sier at de skal kjøpe et 1050 + en skjerm til 4000kr?

 

Har det virkelig ikke falt deg inn at 90% av gamere ikke har hverken en Freesync eller G-Sync skjerm?

Og at når de da ønsker et nytt skjermkort så er dette kanskje fortsatt uvesentlig for dem?

Hvorfor har du denne enorme fetishen for Freesync eller G-Sync? Vi har gamet i 20 år uten, helt uten problemer.

Ja, screen tearing kan bli et problem uten V-Sync, men det har da aldri hindret folk i kompetitiv gaming.

 

"Og med VSync skrudd på blir det hakking fra h*lvete og input lag fra Bergen..."

Hva mener du? Hakking fra helvete? Blir jo ikke hakking med V-Sync aktivert. Og ja, det blir noe input lag, men dette er helt overkommelig for de fleste. Selv har jeg spilt med og sett tearing hele mitt liv omtrent, men det har ikke ødelagt opplevelsen for det om, og jeg tror det er mange som mener det samme.

 

Jeg skjønner at du er fullstendig på jordet når du sier at ingen skjermkort klarer å kjøre 4K BluRay.

Et GTX 650 klarer 4K avspilling. BluRay vil kreve noe mer pga høyere bitrate, men det burde være fint overkommelig for et 660.

 

Med et 950 som jeg hadde tidligere hadde jeg ingen problemer med å spille av 4K og 200mbps bitrate (mer enn BluRay), så jeg skjønner virkelig ikke hvor du henter dine utsagn fra.

Endret av IceBlitz
Lenke til kommentar

Den som er litt på jordet nå kjære IceBlitz er nok deg selv. Det ser ut som du har glemt noe litt vesentlig. Nemlig at du må ha et BluRay drev som klarer å lese 4K BluRay plater. Og så må du ha en avspillings software som gjør det samme. Og begge deler må støtte den nye DRM'en. Det finnes ikke enda (software, man får kjøpt drev som kan lese filstrukturen på platene). Og innen det er på plass, så har det ingenting å si hvilket skjermkort du har, når det kommer til avspilling av 4K BluRay. Selvfølgelig kan man spille av 4K (HEVC/H.265) videofiler med en haug av skjermkort. Det er det en haug av hardware som støtter. Men jeg kan jo ikke ta utgangspunkt i at du er en pirat vel? Du skrev da visserlig 4K BluRay, og ikke 4K BluRay rips.. ;)

 

Ellers så tenker jeg henvise deg til FAQ i signaturen min. Det er åpenbart at du ikke har lest den. Og da blir det vanskelig å diskutere med deg. Greit å mene ting, men sett deg nå inn i temaet først i det minste.

 

Og har jeg skrevet 3 ganger at det vil være galskap å kjøpe en G-Sync skjerm til GTX1050. Så fint om du tar det også med deg.

 

Screen tearing har forøvrig hindret folk i kompetitiv gaming i en årrekke, og kommer til å fortsette med det. At de overkommer sine hindringer, er ikke det samme som at hindringene ikke er der.

 

Nå, en ting som jeg ikke tror jeg har med i FAQ, er å gå i dybden på hakking. Jeg synes FAQ'en er for lang som det er (noe du illustrere godt), til å gå i dybden på alt, spesielt ting som er åpenbart for så mange.

 

Men som TKongen var inne på, så er synet vårt forskjellig. Jeg har jo 144Hz G-Sync skjerm, og kan følge med på fps mens jeg spiller. Det jeg har lagt merke til for egen del, er at når fps ramler under ~80, så begynner jeg å oppleve bevegelsene på skjermen som hakkete. Og slik vil det være for mange som blir "for godt vandt". Andre rapporterer at de fint ser forskjell på 120fps og 140fps. Jeg ville nok aldri sett forskjell på det, men om noen sier de ser forskjell, så skal ikke jeg påstå at de ikke gjør det. Og i andre enden, så har vi de som synes 60Hz/fps er helt topp. Kan ikke se vitsen i noe mer, og vil ihvertfall ikke ha slike nymotens ting som en telefon man kan ha med seg ut hjemmen ifra. Og i grunnen var det en dum ting å sette hjul på ting også. ;)

 

Hvis man har en 144Hz skjerm, og spiller med VSync skrudd på. Så vil skjermen oppdatere seg hvert ~7'ende millisekund (6,94ms). Om skjermkortet har klart å lage et nytt bilde inne disse 7 millisekundene har gått, så vil skjermen oppdatere seg med et nytt bilde. Hvis ikke, vil det samme bildet som allerede stod der, bli vist om igjen. Bildet blir altså stående i ~14ms. Så selv om et bildet blir stående i 2 oppdateringer på en 144Hz skjerm, så er det fremdeles ~3ms mindre enn en skjermoppdatering på en 60Hz skjerm. Og forskjellen på at en frame blir stående en refresh lenger er forskjellen på ~7ms ekstra, og ~17ms. Så jo lavere HZ du har på skjermen, desto mer interesse bør du ha av at skjermen får et nytt bilde til hver refresh.

 

En måte å gjøre det på med en 60Hz skjerm, er å ha en kraftig nok GPU til å lage f.eks. 80 bilder i sekundet i gjennomsnitt. Svært få refresh på skjermen vil da bestå av samme bildet som forrige refresh. Men 20 av bildene skjermkortet kunne lagd går jo i søpla. Eller sagt på en annen måte; i gjennomsnitt er skjermkortet 25% raskere enn det trenger å være. Men vi må ha denne bufferen for å sikre jevn avspilling.

 

Det som skjer med VSync skrudd på, er at om en refresh inneholder samme bildet 2 ganger etter hverandre, så henger bildet. Eller man vil si at det hakker. Men man kan også oppleve hakking når man har "for kraftig" GPU. La oss si skjermkortet klarer å lage 2 bilder raskere enn skjermen klarer å oppdatere seg. På en panorering forbi et tre f.eks. Så vil da treet flytet seg mot ene siden, med la oss si 5 pixler per refresh når skjermkortet lager like mange bilder som skjermens Hz. Men lager den et og annet "bonus bilde", så er det jo siste tegnede bilde som blir fremvist. Og på det bildet har treet flyttet seg 10 pixler til siden. Så selv om du har helt jevn strøm av unike bilder per skjerm refresh, så kan du likevel oppleve hakking. Spesielt på så trege skjermer som nede i 60Hz.

 

Dette er hva som skjer, om du ikke ser det, eller ikke bryr deg. Er selvfølgelig fullstendig individuelt. Men det hjelper på ingen måte diskusjonen, om vi skal ta utgangspunkt i at en ting ikke er der. Fordi enkelte ikke legger merke til, eller ikke er i stand til, å se det som resten av oss gjør...

 

Min "fetish" er med Freesync. Fordi adaptive sync er en flott ting. Og med Freesync betaler man svært lite ekstra for å få det med på kjøpet. For ikke lenge siden var den billigste 24" 144Hz skjermen du kunne få i Norge, en Freesync skjerm. Det var det billigste alternativet! Og som jeg sier så er det galskap å bruke ~4000Kr på en 144Hz G-Sync skjerm til et GTX1050. Men jeg mener det vil være svært fornuftig å spandere en ~1200 kroners 75Hz Freesync skjerm på et RX460. Da kan man kjøre på høyere grafikk kvalitet, og likevel oppleve mindre hakking enn med et GTX1050 med vanlig 60Hz skjerm...

  • Liker 1
Lenke til kommentar

 

i NCP også kan sette VSync til "Adaptive (half refresh rate)".

Har det kommet noen nye funksjoner? Har ikke sett den half refresh rate før.

Med adaptive vsync fra og med Kepler skrudde jo bare vsync seg av om man lå under 60hz.

 

 

Ja, og med "half refresh rate" vil den gjøre det når fps faller under 30 på en 60Hz skjerm. Men skjermkortet vil aldri forsøke å lage 60fps. Om man har en raskere skjerm, kan man "pace" skjermkortet med å sette skjermen til f.eks. 80Hz. Og så sette på "VSync (adaptive half refresh)" slik at skjermkortet forsøker å lage 40fps. Men om det ikke klarer det, så skrur det av VSync for de frames der det er for tregt. Da slipper man å lage en "Custom resolution" på 40Hz, og ikke er det sikker skjermen hadde støttet det uansett.

 

Ellers har det kommet noe nytt ja. Nvidias "Fast sync" er foreløpig bare tilgjengelig på Pascal og Maxwell skjermkort. Men jeg mener å ha lest at man kan aktivere det på Kepler kort også med "Nvidia Inspector". Jeg har en liten paragraf om "Fast sync" i min FAQ. :)

Lenke til kommentar

Kommentarfeltet har sklidd ut fra GTX 1050 lansering til en debatt om freesync/g-sync.

Sannheten er at folk fleste ikke vet hva freesync eller g-sync er, gamere inkludert.

Best sellers fra Amazon:
UK: https://www.amazon.co.uk/Best-Sellers-Computers-Graphics-Cards/zgbs/computers/430500031/ref=zg_bs_nav_computers_2_428655031/255-7977091-9142817

 

US: https://www.amazon.com/Best-Sellers-Computers-Accessories-Computer-Graphics-Cards/zgbs/pc/284822

 

Ett AMD produkt inne på topp 20 både i UK og US. 

Håper på suksess for AMD fremover, som nevnt hundre ganger før. Det er rom for to spillere, og strengt tatt nødvendig for sunn konkurranse.

Endret av fflex
Lenke til kommentar

Kommentarfeltet har sklidd ut fra GTX 1050 lansering til en debatt om freesync/g-sync.

 

Sannheten er at folk fleste ikke vet hva freesync eller g-sync er, gamere inkludert.

 

Best sellers fra Amazon:

UK: https://www.amazon.co.uk/Best-Sellers-Computers-Graphics-Cards/zgbs/computers/430500031/ref=zg_bs_nav_computers_2_428655031/255-7977091-9142817

 

US: https://www.amazon.com/Best-Sellers-Computers-Accessories-Computer-Graphics-Cards/zgbs/pc/284822

 

Ett AMD produkt inne på topp 20 både i UK og US. 

Håper på suksess for AMD fremover, som nevnt hundre ganger før. Det er rom for to spillere, og strengt tatt nødvendig for sunn konkurranse.

 

Nå er vel årsaken til at Amd sliter med å være inne på topp 20 fordi de har vært utsolgt en god stund og såvidt jeg vet er det kortene som er på lager som kommer opp i den topp 20 lista. Amazon og slike kjeder er jo ute etter å selge og man tjener jo ikke på å påpeke at dette kortet er superpopulært men vi har ingen på lager, da drar jo kunden en annen plass.

 

Med en gang man øker prisene på Amd kortene derimot begynner de å komme på lager , men det er ikke så mye å skryte av...

Sånn sett mener jeg at skal man kjøpe et RX 480 bør man kjøpe kortet som koster rundt 239$ da både minnemengden og ytelsen tilsier at det bør holde en stund , synd derimot at partnerkortene koster en god del mer , men dette er trolig pga etterspørsel.

 

Kan vel nevne at det faktisk begynner å se langt bedre ut for Amd da de både har hatt en god oppgang på børsen og har fått solgt unna en god andel av de kortene de har produsert.

 

Og hvor vil jeg hen med dette? Vel jeg prøver jo å påpeke at nvidia sitt 1050 kommer til å få rimelig god konkurranse , bare det at Amd greide å lansere sine produkter til en lav pris og god ytelse kan ha bidratt til at de har klart å ta en god del av etterspørselen for slike kort og da blir det tøft for nvidia å konkurrere med mindre de kommer med god ytelse til nærmest gi bort priser.

Lenke til kommentar

Og har jeg skrevet 3 ganger at det vil være galskap å kjøpe en G-Sync skjerm til GTX1050. Så fint om du tar det også med deg.

 

Det er jo dette jeg for det meste har kommentert.

Hvorfor sier du dette? Hva vil du frem til?

 

Er det noen her som har sagt at de planlegger å handle et 1050 til 1000kr og en G-Sync skjerm til 4000kr?

Eller var dette bare en random setning du skrev?

Hvis sistnevnte er tilfellet, så er det ganske matnyttig, for det vil antageligvis være svært få mennesker som kommer til å gjøre akkurat det.

 

Jeg er helt enig i utsagnet, jeg har aldri påstått noe annet, men jeg skjønner bare ikke hva slags kommentar eller utsagn du baserer dette på. Eller mener du at ingen burde handle 1050 siden det vil være for dyrt å ta i bruk G-Sync?

 

Hva med de som ikke ønsker G-Sync, bare et bedre kort i så fall?

 

EDIT: Ang 4K BluRay kommentaren din som jeg først svarte på, så skrev jeg det jeg skrev fordi det så ut som om du mente at ingen skjermkort var kraftige nok til å behandle slike datamengder. Men det var tydeligvis en misforståelse, du kunne kanskje formulert deg litt annerledes på den biten, men okei. Vi er hvertfall enige om 4K BluRay nå.

Endret av IceBlitz
Lenke til kommentar

 Det at Nvidia ikke har gjort dette for desktop tror jeg sier noe om salgstallene for Freesync vs G-Sync. Nvidia tjener nok fortsatt ganske godt på G-Sync. Du har jo alle de som kjøper 980/980 Ti, og ikke minst GTX 1070 og GTX 1080. joda G-Sync er dyrere, men hva har AMD som kan konkurrere med disse NVidia kortene liksom? Og folk som kjøper disse kortene kjøper og gaming skjermer, som ofte nå har G-sync. Og folk som kjøper her vet mer om hva adaptive sync er. Og det har ingenting å si at de vet at AMD er billigere. Fordi de har kun et valg: Nvidia.

 

Feil. Nvidia er ikke avhengig av lisenseringsalg av Freesync for å overleve som et selskap. Ei heller er de i en posisjon der de ikke kan gå i minus/selge med tap. Det er for eks. mange mobiltelefonselskaper som selger mobilene sin med tap (HTC har gjort det i 10 år nå). Matvarebutikker selger ofte enkelte produkter med så lav pris, at de taper på det. Intel investerer ofte flere titalls millioner, og noen ganger hundrede millioner, på ulike produkter/prosjekter, selv om de taper på det. Hvorfor gjør man slik? For å vinne markedsandeler/kunder. Det er ofte markedsfiendtlig og upraktisk; men har man makten til det, så hvorfor ikke?

 

 

Fra et økonomisk perspektiv gir ingenting av at det du skriver mening, uansett. Om Nvidia hadde gjort det du påstår hadde de gitt opp på G-Sync så snart Freesync kom på markedet. I stedet har de valgt å kunstig holde G-Sync i live. Det er nøyaktig samme teknologi med et annet navn, og låst til Nvidia-maskinvare. At produsenter av skjermer likevel fortsetter å produsere G-Sync-skjermer kommer av den enkle grunn at Nvidia har et overveldende flertall i skjermkort for laptop- og desktopmarkedet. Når Nvidia samtidig nekter å gi støtte til Freesync, manøvrerer de industrien til å velge det minst ugunstige (både for kunder og for videre utvikling, da de lukker ut partnere som Intel og AMD) alternativet. Likeså har ikke kunder med Nvidia-kort noe annet valg enn G-sync.

 

I stedet for en løsning, må man nå altså ha to typer/produkter av samme skjerm med to forskjellige løsninger av samme teknologi, som støttes av to forskjellige parter. Det skaper fragmentasjon, og alle parter, Nvidia, AMD, Intel, skjermprodusenter og oss kundene, taper på det. Det fins ingen annen rasjonell grunn for Nvidia å gjøre det de gjør, annet enn at det skader AMD og Intel mer enn det skader dem selv (da de selv allerede har stor nok markedsandel til å ikke tape like mye på det). At de på toppen av det tar seg ekstra betalt for å lisensere ut G-sync (fordi de kan) gjør det hele bare enda mer motbydelig.

 

 

 

Det burde jo hatvunget Nvidia til å lage G-Sync skjermene uten brikke, men her kan altså Nvidia fortsette å ta en ganske god premium per skjerm, selv om de finnes noe like bra, til mye mindre.

 

Hele formålet med G-Sync er nettopp eksklusiviteten. Det er deres "leverage". Freesync hadde ikke trengt å eksistere, hadde Nvidia introdusert Freesync som en åpen løsning. Selv i dag kan Freesync "dø" på flekken, om de gjør G-Sync åpent -- selv med de ekstra kostnadene. Nvidia kommer aldri til å gjøre det -- noe mer enn de for eks. gjorde GameWorks åpent.

 

Enn trenger ikke å se lenger enn hva effektene av å gjøre slike teknologier eksklusive blir, til se hva formålene med de er.

Lenke til kommentar

 

Og har jeg skrevet 3 ganger at det vil være galskap å kjøpe en G-Sync skjerm til GTX1050. Så fint om du tar det også med deg.

 

Det er jo dette jeg for det meste har kommentert.

Hvorfor sier du dette? Hva vil du frem til?

 

Er det noen her som har sagt at de planlegger å handle et 1050 til 1000kr og en G-Sync skjerm til 4000kr?

Eller var dette bare en random setning du skrev?

Hvis sistnevnte er tilfellet, så er det ganske matnyttig, for det vil antageligvis være svært få mennesker som kommer til å gjøre akkurat det.

 

Jeg er helt enig i utsagnet, jeg har aldri påstått noe annet, men jeg skjønner bare ikke hva slags kommentar eller utsagn du baserer dette på. Eller mener du at ingen burde handle 1050 siden det vil være for dyrt å ta i bruk G-Sync?

 

Hva med de som ikke ønsker G-Sync, bare et bedre kort i så fall?

 

EDIT: Ang 4K BluRay kommentaren din som jeg først svarte på, så skrev jeg det jeg skrev fordi det så ut som om du mente at ingen skjermkort var kraftige nok til å behandle slike datamengder. Men det var tydeligvis en misforståelse, du kunne kanskje formulert deg litt annerledes på den biten, men okei. Vi er hvertfall enige om 4K BluRay nå.

 

 

Jeg skrev i det aller første innlegget:"GTX 1050 er det mest unødvendige kortet man kan få, med mindre man allerede har skjerm uten adaptive sync, og ikke har planer om å oppgradere".

 

Det virker nå på meg som at hele protesten din handler om at jeg innledet med setningen du mener jeg burde avsluttet med, og avsluttet med setningen du mener jeg burde innledet med. Og det må du selvfølgelig få lov til å mene. Men for meg var det altså like naturlig å fremme en påstand. Og så understøtte den med en liten utdypning.

 

Jeg mener at ALLE burde ønske seg adaptive sync nå som man kan få det nesten uten å betale ekstra for det. Så hvorfor kjøpe et GTX1050 da? Når det billigste G-Sync alternativet er mer enn 3 ganger så dyrt som et greit Freesync alternativ? Det er hovedbudskapet mitt, og derfor begynte jeg med å si det.

 

Om du allerede har en vanlig skjerm, og ingen planer om å oppgradere den i samme slengen. Skal man velge GTX1050 da? Det kan man selvfølgelig, akkurat som jeg skrev i første posten min. Men det vil i mine øyne være en litt dum ting å gjøre likevel. Ikke veldig, men litt.

 

Mange sitter i dag med gamle 60Hz monitorer med CCFL baklys. Og når lysrørene blir slitne, så gjør de det de som kikker på også. Man legger kanskje ikke merke til flimringen bevisst. Men den er der, og fører til tørre øyne, trøtthet og hodepine for mange. For mye blått lys fra skjermen kan også føre til søvnproblemer og dårlig døgnrytme. Eller man er kanskje lei av dårlig responstid på pikslene, og ønsker oppgradere skjermen også, bare ikke riktig enda.

 

Skjermen kan også ramle i bakken, bli tatt av lynet, eller rett og slett slutte å fungere slik eldre elektronikk gjør av og til. 

 

Men så har man kjøpt et GTX1050 da, fordi det "alle" sier at Nvidia er best. Så stikker man over til en kompis som nettopp har handlet et RX460 og en Freesync skjerm, og legger merke til at ting rett og slett ser bedre ut hos kompisen. Hvor fornøyd blir den unge håpefulle med sitt valg av GTX1050 da? Når han på toppen av alt finner ut at selv om han kjøper samme skjermen som kompisen, så blir det fremdeles seende bedre ut hos ham?

 

I dette segmentet, til denne bruken er RX460 det trygge valget. Rett og slett.

 

Man kan selvfølgelig handle GTX1050 til HTPC bruk. Kanskje det trekker 10W mindre strøm enn RX460? Er det noen som forstår hvor kjipt det er med for mye støy i Hifi hylla under filmen, så er det meg. Jeg kunne kanskje til og med selv valgt GTX1050 med det argumentet til den bruk. Men så er det meldt om at det snart skal komme TV'er også med Freesync, og da hadde det jo vært greit å være klar om TV'en man har skulle ryke. Selv har jeg et lite håp om at neste "Evolution Kit" til min Samsung vil komme med Freesync støtte. Samsung har jo flere Freesync skjermer. Så det er ikke helt utenkelig..

 

Men til spill på 4K TV... Vel, en GTX1050 vil uansett aldri komme i nærheten av å gjøre nytten. Jeg har maskinen i signaturen min i stua. Og selv ikke den er egentlig nok for 4K. Så det argumentet for GTX1050 ramler helt i fra hverandre for min del. Med 4K oppløsning må man ha "muskler". Ellers blir det verre bilde enn med en TV med 1080p oppløsning. Jeg har prøvd litt XONE/X360 med 4K TV'en min. Og oppskaleringen av spillgrafikk er rett og slett forferdelig. Skal man spille på noe slikt, så må man ha musklene til det. Jeg har prøvd "In house streaming" med både Steam til PC og fra PC til Shield TV. Og det fungerer nesten, men input lag ødelegger det dessverre for meg. Så altså Corsair 900D i stua... Slike øyeblikk jeg er glad jeg er single.. :p

 

Jeg kunne "formulert meg litt annerledes" angående hva jeg mente om 4K med en gang. Men nå spesifiserte jo du at det var snakk om 4K BluRay i ditt innlegg. Og det heter jo ikke BluRay når det ikke er på platen lenger. Da er det en videofil. Den som burde formulert seg litt annerledes på dette området mener jeg altså er deg selv.. ;)

Endret av Gabri3L
Lenke til kommentar

Ellers har det kommet noe nytt ja. Nvidias "Fast sync" er foreløpig bare tilgjengelig på Pascal og Maxwell skjermkort. Men jeg mener å ha lest at man kan aktivere det på Kepler kort også med "Nvidia Inspector". Jeg har en liten paragraf om "Fast sync" i min FAQ. :)

Det eneste nye er at man kan tvinge vsync'ed tripple buffering med maximum pre-renderend frames til 0 i NVCP, som er vel det Fast Sync gjør.

Jeg taklet ihvertfall ikke judder effekten jeg fikk av Fast Sync.

Endret av MistaPi
Lenke til kommentar

 

Ellers har det kommet noe nytt ja. Nvidias "Fast sync" er foreløpig bare tilgjengelig på Pascal og Maxwell skjermkort. Men jeg mener å ha lest at man kan aktivere det på Kepler kort også med "Nvidia Inspector". Jeg har en liten paragraf om "Fast sync" i min FAQ. :)

Det eneste nye er at man kan tvinge vsync'ed tripple buffering med maximum pre-renderend frames til 0 i NVCP, som er vel det Fast Sync gjør.

Jeg taklet ihvertfall ikke judder effekten jeg fikk av Fast Sync.

 

 

Nei, alle frames som "ramler mellom to stoler" blir jo kastet. Jeg tenker det egentlig er en nødløsning for de med 144Hz+ skjerm, som får 300+ fps i CS:GO som ikke takler screen tearing. At denne funksjonen egentlig er beregnet på. Bonusen ved lavere Hz skjermer, er jo at man får kortere input lag uten screen tearing. Men som du sier, det kommer ikke gratis. Skjønt for alt jeg vet kan det jo være at du er så følsom for judder at du faktisk plages med det selv på 144Hz/fps+

Endret av Gabri3L
Lenke til kommentar

Jeg merker hvertfall fps mye bedre om jeg spiller League of Legends, eller kjører rask med bil i GTA V enn mange andre spill. Der kan jeg ha fps som dropper fra 300 til 100, og da merker jeg det, på min 60 Hz skjerm. Om det er frame time eller hva det er vet jeg ikke (kommer som regel av veldig høy CPU last pga noe annet, f.eks et spill i bakgrunnen).

 

Som du sier, så er ikke VSync bra når du kommer under 60 regelmessig, ettersom Vsync er for enten 30 eller 60 fps. Skaper mye variasjon. Og vi mennesker kan klare å kompansere, det er jo derfor 60 Hz oppleves som bra, men med en gang du går til 120 eller høyere så vil du oppleve 60 som hakkete igjen. Derfor er jo uregelmessighet det alle verste en kan ha. Det er jo det som er det beste med adaptive sync. Som jeg tidligere sa derimot så bruker jeg aldri vsync, jeg har prøvd i League der jeg har 300 fps, og jeg har aldri noen gang tearing. Paradox spill, Civ 5 ol gir meg heller ikke tearing. Spill som GTV har jeg ikke høy nok fps til tearing uansett, og vsync hadde vært ganske dårlig for meg der, pga det du nevnte. Og i slike spill kan jeg falle ned mot 40-50 uten at jeg merker det (litt avhengig av spill). 40-50 i League derimot ville vært forferdelig. Spiller jeg på Intel HD graphics setter jeg heller alt på laveste for 100 fps (slik at den aldri er under 60 garantert) enn å ha bedre grafikk (vondt å se på mangelen av AA). Så for meg så er ikke problemene med faste fps tall for Vsync et problem hvertfall, men jeg ser jo selvfølgelig fortsatt hvorfor adaptive sync gir en klart bedre gaming opplevelse. Er og veldig enig i at hvis du vil ha best mulig gaming opplevelse er nok RX + Freesync det beste, om du skal både kjøpe GPU og skjerm. Selv om GTX kortene kan være bedre enn Radeon kortene, så er jo skjermene altfor dyre for GTX.

 

 

 

 


TKongen, den 06 Sept 2016 - 21:15, sa:
Det at Nvidia ikke har gjort dette for desktop tror jeg sier noe om salgstallene for Freesync vs G-Sync. Nvidia tjener nok fortsatt ganske godt på G-Sync. Du har jo alle de som kjøper 980/980 Ti, og ikke minst GTX 1070 og GTX 1080. joda G-Sync er dyrere, men hva har AMD som kan konkurrere med disse NVidia kortene liksom? Og folk som kjøper disse kortene kjøper og gaming skjermer, som ofte nå har G-sync. Og folk som kjøper her vet mer om hva adaptive sync er. Og det har ingenting å si at de vet at AMD er billigere. Fordi de har kun et valg: Nvidia.

Feil. Nvidia er ikke avhengig av lisenseringsalg av Freesync for å overleve som et selskap. Ei heller er de i en posisjon der de ikke kan gå i minus/selge med tap. Det er for eks. mange mobiltelefonselskaper som selger mobilene sin med tap (HTC har gjort det i 10 år nå). Matvarebutikker selger ofte enkelte produkter med så lav pris, at de taper på det. Intel investerer ofte flere titalls millioner, og noen ganger hundrede millioner, på ulike produkter/prosjekter, selv om de taper på det. Hvorfor gjør man slik? For å vinne markedsandeler/kunder. Det er ofte markedsfiendtlig og upraktisk; men har man makten til det, så hvorfor ikke?


Fra et økonomisk perspektiv gir ingenting av at det du skriver mening, uansett. Om Nvidia hadde gjort det du påstår hadde de gitt opp på G-Sync så snart Freesync kom på markedet. I stedet har de valgt å kunstig holde G-Sync i live. Det er nøyaktig samme teknologi med et annet navn, og låst til Nvidia-maskinvare. At produsenter av skjermer likevel fortsetter å produsere G-Sync-skjermer kommer av den enkle grunn at Nvidia har et overveldende flertall i skjermkort for laptop- og desktopmarkedet. Når Nvidia samtidig nekter å gi støtte til Freesync, manøvrerer de industrien til å velge det minst ugunstige (både for kunder og for videre utvikling, da de lukker ut partnere som Intel og AMD) alternativet. Likeså har ikke kunder med Nvidia-kort noe annet valg enn G-sync.

I stedet for en løsning, må man nå altså ha to typer/produkter av samme skjerm med to forskjellige løsninger av samme teknologi, som støttes av to forskjellige parter. Det skaper fragmentasjon, og alle parter, Nvidia, AMD, Intel, skjermprodusenter og oss kundene, taper på det. Det fins ingen annen rasjonell grunn for Nvidia å gjøre det de gjør, annet enn at det skader AMD og Intel mer enn det skader dem selv (da de selv allerede har stor nok markedsandel til å ikke tape like mye på det). At de på toppen av det tar seg ekstra betalt for å lisensere ut G-sync (fordi de kan) gjør det hele bare enda mer motbydelig.




TKongen, den 06 Sept 2016 - 21:15, sa:
Det burde jo hatvunget Nvidia til å lage G-Sync skjermene uten brikke, men her kan altså Nvidia fortsette å ta en ganske god premium per skjerm, selv om de finnes noe like bra, til mye mindre.

Hele formålet med G-Sync er nettopp eksklusiviteten. Det er deres "leverage". Freesync hadde ikke trengt å eksistere, hadde Nvidia introdusert Freesync som en åpen løsning. Selv i dag kan Freesync "dø" på flekken, om de gjør G-Sync åpent -- selv med de ekstra kostnadene. Nvidia kommer aldri til å gjøre det -- noe mer enn de for eks. gjorde GameWorks åpent.

Enn trenger ikke å se lenger enn hva effektene av å gjøre slike teknologier eksklusive blir, til se hva formålene med de er.

 

Hva er feil? Jeg er helt enig i alt du skriver, og ser ikke at jeg har skrevet noe annet? Hvis du har tolket det slik, var det i så fall ikke slik det var ment fra min side.

 

Det du skriver er akkurat det jeg mente. Nvidia selger fortsatt G-sync for en god del ekstra, fordi de har markedsandelene og kan. Jeg mente heller aldri at Nvidia skulle kutte ut G-Sync, jeg nevnte bare mulighetene for å kutte ut G-Sync brikken og gå over til samme løsning som i laptopene deres, altså samme løsning som AMD også bruker, men fortsatt G-Sync som bare kan brukes med Nvidia kort. Eksklusiviteten kommer de nok til å beholde i all evighet, men G-Sync skjermer trenger ikke å koste ekstremt mye mer i all evighet.

 

Men det var en veldig fin utdyping av akkurat det jeg mente hvertfall :)

Lenke til kommentar

 

Nei, alle frames som "ramler mellom to stoler" blir jo kastet.

Men det er vel det som skjer når man setter "maximum pre-rendred frames" til 0 med tripple buffering.

 

 

Jeg ser nå det er lett å missforstå hva jeg mente her. Jeg mente altså å bekrefte ditt utsagn..

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...