Dubious Skrevet 10. desember 2015 Del Skrevet 10. desember 2015 Altså : Samboer/gift og har barn = GTX 970 Singel = GTX 980Ti Valget er LETT Har kjerring og 2 unger, men uten å snuse og røyke så har man plutselig råd til det man vil Alt handler om prioriteringer Ja kanskje om man tjener 50 tusen netto i mnd så Kjerringa betaler jo alt i huset og Nizzen betaler for alt det andre og ja det er prioriteringer fra min side og, nettop kjøpt ny bil på avbetaling Lenke til kommentar
Mumriken Skrevet 11. desember 2015 Del Skrevet 11. desember 2015 This is new information! Så det dere sir er om jeg slutter å snuse så kan jeg kjøpe bedre hw Fra et seriøst ståsted så hadde jeg sikkert ikke fått dårlig samvittighet av å kjøpe et ekstra 980ti eller to og en 5860x eller ti kjerne krympen når den kommer Lenke til kommentar
Knutgrus Skrevet 11. desember 2015 Del Skrevet 11. desember 2015 Jeg lever allerede ganske sparsomt med en gjennomsnittlig årslønn. Så 10kjerner og quad-pascal er forsåvidt ingen problem. Men kommer ikke til å prioritere det ...eller skal jeg dumpsterdive til release på begge to? Sette av matbudsjettet hver måned til sånt? Lenke til kommentar
Netrum Skrevet 11. desember 2015 Del Skrevet 11. desember 2015 Prioriterer man rett så får man råd til det meste. Det tar bare litt lengre tid Lenke til kommentar
Malvado Skrevet 11. desember 2015 Del Skrevet 11. desember 2015 Prioriterer man rett så får man råd til det meste. Det tar bare litt lengre tid Finnes kjappe veier også. Tur ned til jernbanestasjonen om kvelden , litt vaseling og gummi og vips har man råd til det utroligste. Litt sår i baken da, men pytt pytt ... Lenke til kommentar
Christian Thork Skrevet 11. desember 2015 Del Skrevet 11. desember 2015 Prioriterer man rett så får man råd til det meste. Det tar bare litt lengre tid Finnes kjappe veier også. Tur ned til jernbanestasjonen om kvelden , litt vaseling og gummi og vips har man råd til det utroligste. Litt sår i baken da, men pytt pytt ... Dette har du nevnt et par ganger. ^^ Så nå vet vi hvordan du klarer deg så bra når økonomien er trang ( ) 4 Lenke til kommentar
Malvado Skrevet 11. desember 2015 Del Skrevet 11. desember 2015 Prioriterer man rett så får man råd til det meste. Det tar bare litt lengre tid Finnes kjappe veier også. Tur ned til jernbanestasjonen om kvelden , litt vaseling og gummi og vips har man råd til det utroligste. Litt sår i baken da, men pytt pytt ... Dette har du nevnt et par ganger. ^^ Så nå vet vi hvordan du klarer deg så bra når økonomien er trang ( ) Du vet , når enden er trang er altting bra! He he he, joda litt "spøk" er alltid bra for stemningen føler jeg , er jo ikke gøy å være for seriøs heller , kan jo nevne at jeg ble oppringt av en FB venn som lurte på om jeg kunne fikse pcen hans. Sa det luktet svidd, ba ham bruke mobilen og sette på webcam så jeg kunne ta en rask titt , morsom kombinasjon av kinesisk strømforsyning med et Amd 290X kort... Når han slo på dritten (som jeg insisterte på at han ikke skulle ) så gjett hva som tok fyr... Tviler på at han får nytt skjermkort på garanti i alle fall og jeg hadde advart ham både mot å oppgradere ( han hadde et eldre Nvidia skjermkort som ikke trakk for mye strøm ) og å ta vare på den gamle strømforsyninga som "duger" i følge ham.... Ja ja, dustin skal få en morsom sak på seg... Lenke til kommentar
efikkan Skrevet 13. desember 2015 Del Skrevet 13. desember 2015 ...Selv om jeg ikke har tilgang på interne strategi notater fra Nvidia, så er det en svært plausibel forklaring på hvorfor et skjermkort som ikke en gang kan utnytte 3,5GB minne (i henhold til deg selv). Likevel blir utstyrt med 4GB. Dette vil absolutt ikke være første gang skjermkort produsenter putter mer minne på skjermkortet enn det kan utnytte.Skjermkort som GTX 950, GTX 960, GTX 750 Ti og til og med GT 730 kan leveres med 4 GB som de aldri vil få bruk for til spill i praksis. Selv R9 390/390X leveres med 8 GB som de ikke har bruk for, mens AMDs toppmodell "bare" har 4 GB. Hvorfor reagerer ikke folk på dette? GTX 970 kan utnytte over 3.5 GB, men ikke på måten du tror. Hvis et spill hadd brukt nærmere 4 GB for hvert bilde så hadde hastigheten blitt en utfordring, men minnebussen blir et problem lenge før det som jeg har sagt. Men det betyr ikke at spill ikke kan bruke 4 GB. Som sagt så allokerer spill mye mer minne enn de bruker i ett enkelt bilde. Hvis et spill f.eks. allokerer 3-4 GB, så bruker det som regel under 1.5 GB av de i ett typisk bilde, og da blir ikke reallokeringen et problem. Og når spill bruker såpass mye data blir det som regel tungt for GTX 970, så regnekraften er allerede en langt større utfordring. Samme hvordan vi ser på det så valgte Nvidia det beste av alternativene. De kunne levert GTX 970 med bare 3 GB, 3.5 GB eller 4 GB med 2 GB i full hastighet og 2 GB som deler én buss. Løsningen de valgte er bedre enn alle disse. 1 Lenke til kommentar
Dubious Skrevet 14. desember 2015 Del Skrevet 14. desember 2015 Eller de kunne valgt 4 GB i full hastighet Lenke til kommentar
Nizzen Skrevet 14. desember 2015 Del Skrevet 14. desember 2015 Eller de kunne valgt 4 GB i full hastighet Den heter gtx 980 2 Lenke til kommentar
Malvado Skrevet 14. desember 2015 Del Skrevet 14. desember 2015 ...Selv om jeg ikke har tilgang på interne strategi notater fra Nvidia, så er det en svært plausibel forklaring på hvorfor et skjermkort som ikke en gang kan utnytte 3,5GB minne (i henhold til deg selv). Likevel blir utstyrt med 4GB. Dette vil absolutt ikke være første gang skjermkort produsenter putter mer minne på skjermkortet enn det kan utnytte.Skjermkort som GTX 950, GTX 960, GTX 750 Ti og til og med GT 730 kan leveres med 4 GB som de aldri vil få bruk for til spill i praksis. Selv R9 390/390X leveres med 8 GB som de ikke har bruk for, mens AMDs toppmodell "bare" har 4 GB. Hvorfor reagerer ikke folk på dette? GTX 970 kan utnytte over 3.5 GB, men ikke på måten du tror. Hvis et spill hadd brukt nærmere 4 GB for hvert bilde så hadde hastigheten blitt en utfordring, men minnebussen blir et problem lenge før det som jeg har sagt. Men det betyr ikke at spill ikke kan bruke 4 GB. Som sagt så allokerer spill mye mer minne enn de bruker i ett enkelt bilde. Hvis et spill f.eks. allokerer 3-4 GB, så bruker det som regel under 1.5 GB av de i ett typisk bilde, og da blir ikke reallokeringen et problem. Og når spill bruker såpass mye data blir det som regel tungt for GTX 970, så regnekraften er allerede en langt større utfordring. Samme hvordan vi ser på det så valgte Nvidia det beste av alternativene. De kunne levert GTX 970 med bare 3 GB, 3.5 GB eller 4 GB med 2 GB i full hastighet og 2 GB som deler én buss. Løsningen de valgte er bedre enn alle disse. Kanskje fordi du faktisk ikke har helt rett i det du kommer med... Nvidia har relativ god komprimering av det som brukes i minnet på skjermkortene sine og mens forskjeller på AMD sine modeller gjør at det ekstra minnet faktisk har litt å si , noe som vises godt i denne testen hvor Fury X sine 4Gb gjør at kortet taper langt mer i ytelse enn det et Nvidia eller Amd skjermkort gjør med mer minne. Det er klart at dagens skjermkort ikke er kraftige nok til å kjøre 7680x4320 oppløsning med akseptabel fps , men det er tydelig at minnet har noe å si her og kan faktisk tippe fps fra omtrent helt uspillbart til spillbart ved noen justeringer og oppløsning på 5760x3240 ( 3 skjermer a 1920x1080). For et oppsett med en enkel skjerm er jeg enig i at den løsningen Nvidia har brukt er helt kurrant , så får vi se om spillutviklerene kan finne flere måter å utnytte det ekstra minnet mange kort kommer med for å unngå Microstuttering , relativt lange lastetider på noen kart og andre ting som er med på å ødelegge opplevelsen til de som spiller. Lenke til kommentar
efikkan Skrevet 14. desember 2015 Del Skrevet 14. desember 2015 Eller de kunne valgt 4 GB i full hastighetHvis du forstod hvordan GPUer produseres så hadde du forstått at Nvidia hadde valgt full hastighet om det var mulig. De fleste av brikkene som ble GTX 970 har ikke god nok kvalitet til å tillate det, og Nvidia hadde aldri funnet på crossbar-løsningen om de kunne bruke hele minnebussen direkte. Nvidia har relativ god komprimering av det som brukes i minnet på skjermkortene sine og mens forskjeller på AMD sine modeller gjør at det ekstra minnet faktisk har litt å siJa modeller som R9 390X har dårligere komprimering enn f.eks. Fiji-modellene. Men så er også Fiji betydelig raskere og når 4 GB er "nok" på Fiji, så burde egentlig 4 GB (med litt dårligere komprimering) vært nok på R9 390/390X. Jeg vil minne om at 4 GB ikke var et stort problem på R9 290/290X. For et oppsett med en enkel skjerm er jeg enig i at den løsningen Nvidia har brukt er helt kurrantFlere skjermer øker som regel ikke minnebelastningen betydelig, men øker derimot GPU-lasten. Så flerskjermoppsett gjør ikke konfigurasjonen mindre egnet. Men så er GTX 970 alt for svakt uansett til dette formålet. , så får vi se om spillutviklerene kan finne flere måter å utnytte det ekstra minnet mange kort kommer med for å unngå MicrostutteringOg der kom den igjen. Microstuttering er som sagt urelatert. relativt lange lastetider på noen kart og andre ting som er med på å ødelegge opplevelsen til de som spiller.Det var en god spøk Når hastigheten over PCIe er betydelig lavere enn det "trege" minnet på GTX 970 så kan du ikke skylde på minnekonfigurasjonen. Dette lukter nocebo lang vei! 3 Lenke til kommentar
Malvado Skrevet 14. desember 2015 Del Skrevet 14. desember 2015 Eller de kunne valgt 4 GB i full hastighetHvis du forstod hvordan GPUer produseres så hadde du forstått at Nvidia hadde valgt full hastighet om det var mulig. De fleste av brikkene som ble GTX 970 har ikke god nok kvalitet til å tillate det, og Nvidia hadde aldri funnet på crossbar-løsningen om de kunne bruke hele minnebussen direkte. Nvidia har relativ god komprimering av det som brukes i minnet på skjermkortene sine og mens forskjeller på AMD sine modeller gjør at det ekstra minnet faktisk har litt å si1 Ja modeller som R9 390X har dårligere komprimering enn f.eks. Fiji-modellene. Men så er også Fiji betydelig raskere og når 4 GB er "nok" på Fiji, så burde egentlig 4 GB (med litt dårligere komprimering) vært nok på R9 390/390X. Jeg vil minne om at 4 GB ikke var et stort problem på R9 290/290X. For et oppsett med en enkel skjerm er jeg enig i at den løsningen Nvidia har brukt er helt kurrant2 Flere skjermer øker som regel ikke minnebelastningen betydelig, men øker derimot GPU-lasten. Så flerskjermoppsett gjør ikke konfigurasjonen mindre egnet. Men så er GTX 970 alt for svakt uansett til dette formålet. , så får vi se om spillutviklerene kan finne flere måter å utnytte det ekstra minnet mange kort kommer med for å unngå Microstuttering3 Og der kom den igjen. Microstuttering er som sagt urelatert. relativt lange lastetider på noen kart og andre ting som er med på å ødelegge opplevelsen til de som spiller. 4 Det var en god spøk Når hastigheten over PCIe er betydelig lavere enn det "trege" minnet på GTX 970 så kan du ikke skylde på minnekonfigurasjonen. Dette lukter nocebo lang vei! 1 : Det her starter egentlig bra for oss to , men du har tydeligvis ikke satt deg godt nok inn i temaet , komprimeringen er trolig et driver relatert problem (algoritmene som brukes ) med mindre dette er hardcodet i gpu'en , og forsåvidt jeg vet er det dermed et software problem / firmware? . 2 : Det er nok avhengig av spillet som kjøres , teksturene som brukes og en del andre faktorer , ta en titt på Skyrim med de beste modifikasjonene på utseendet og lignende så ser man fort at dette er et spill som sluker gpu ram. HD teksturer og andre modifikasjoner får til og med kort med mer enn 3.5 minne til å kneble. Igjen så har jeg sett et par skjermkort som greier seg bedre her og det er som regel med mer minne. Om det er verdt den 5 - 10% økningen får bli opp til spilleren. Et 970 kort burde greie å dra opp mot 5760x3240 med noen modifikasjoner og under dette burde det være langt mer detaljer og effekter man kan legge til uten at det burde ha noen problemer. Men igjen er det trolig her minnet spiller inn og vil derfor begrense litt den maksimale ytelsen 970 kortet kan få , greit nok svært få tilfeller , men igjen så finnes det eksempler på det. 3 : Fint at du kuttet mellom 3 og 4 , men igjen så er Microstuttering svært relevant for de som legger merke til det. Noen spill har det , noen har det ikke , før så var det hovedsakelig Amd som sleit med dette , men nå er det langt mindre spill hvor man har dette problemet og det er vel forsåvidt akkurat nå GTAV , igjen ser problemet ut til å dukke opp på tja, trenger jeg egentlig å skrive inn modelnummeret igjen? Selvsagt , er man villig til å punge ut mange flere tusen kroner og kjøper en G-sync skjerm blir man kanskje kvitt problemet , men igjen det ser ut til være litt mer vanlig med 970 kortene , man kan jo spekulere i hvorfor. 4 : Jeg tror faktisk at du ikke spiller så mange spill... Jeg tror personlig at det bør gå an å bruke Gpu minnet langt bedre enn det man gjør per dags dato , dette kan trolig hjelpe til å kutte ned på lastetider og forbedre spillopplevelsen , men det er tydelig at du har misforstått det jeg prøvde å påpeke. 1 Lenke til kommentar
Nizzen Skrevet 14. desember 2015 Del Skrevet 14. desember 2015 ...Selv om jeg ikke har tilgang på interne strategi notater fra Nvidia, så er det en svært plausibel forklaring på hvorfor et skjermkort som ikke en gang kan utnytte 3,5GB minne (i henhold til deg selv). Likevel blir utstyrt med 4GB. Dette vil absolutt ikke være første gang skjermkort produsenter putter mer minne på skjermkortet enn det kan utnytte.Skjermkort som GTX 950, GTX 960, GTX 750 Ti og til og med GT 730 kan leveres med 4 GB som de aldri vil få bruk for til spill i praksis. Selv R9 390/390X leveres med 8 GB som de ikke har bruk for, mens AMDs toppmodell "bare" har 4 GB. Hvorfor reagerer ikke folk på dette? GTX 970 kan utnytte over 3.5 GB, men ikke på måten du tror. Hvis et spill hadd brukt nærmere 4 GB for hvert bilde så hadde hastigheten blitt en utfordring, men minnebussen blir et problem lenge før det som jeg har sagt. Men det betyr ikke at spill ikke kan bruke 4 GB. Som sagt så allokerer spill mye mer minne enn de bruker i ett enkelt bilde. Hvis et spill f.eks. allokerer 3-4 GB, så bruker det som regel under 1.5 GB av de i ett typisk bilde, og da blir ikke reallokeringen et problem. Og når spill bruker såpass mye data blir det som regel tungt for GTX 970, så regnekraften er allerede en langt større utfordring. Samme hvordan vi ser på det så valgte Nvidia det beste av alternativene. De kunne levert GTX 970 med bare 3 GB, 3.5 GB eller 4 GB med 2 GB i full hastighet og 2 GB som deler én buss. Løsningen de valgte er bedre enn alle disse. Kanskje fordi du faktisk ikke har helt rett i det du kommer med... Nvidia har relativ god komprimering av det som brukes i minnet på skjermkortene sine og mens forskjeller på AMD sine modeller gjør at det ekstra minnet faktisk har litt å si , noe som vises godt i denne testen hvor Fury X sine 4Gb gjør at kortet taper langt mer i ytelse enn det et Nvidia eller Amd skjermkort gjør med mer minne. Det er klart at dagens skjermkort ikke er kraftige nok til å kjøre 7680x4320 oppløsning med akseptabel fps , men det er tydelig at minnet har noe å si her og kan faktisk tippe fps fra omtrent helt uspillbart til spillbart ved noen justeringer og oppløsning på 5760x3240 ( 3 skjermer a 1920x1080). For et oppsett med en enkel skjerm er jeg enig i at den løsningen Nvidia har brukt er helt kurrant , så får vi se om spillutviklerene kan finne flere måter å utnytte det ekstra minnet mange kort kommer med for å unngå Microstuttering , relativt lange lastetider på noen kart og andre ting som er med på å ødelegge opplevelsen til de som spiller. Vise til en test hvor fps er under 60, får strykkarakter av meg. Dette betyr bare at testen er uviktig, siden å spille under 60fps er helt jævlig. 3 Lenke til kommentar
efikkan Skrevet 14. desember 2015 Del Skrevet 14. desember 2015 Nvidia har relativ god komprimering av det som brukes i minnet på skjermkortene sine og mens forskjeller på AMD sine modeller gjør at det ekstra minnet faktisk har litt å siJa modeller som R9 390X har dårligere komprimering enn f.eks. Fiji-modellene. Men så er også Fiji betydelig raskere og når 4 GB er "nok" på Fiji, så burde egentlig 4 GB (med litt dårligere komprimering) vært nok på R9 390/390X. Jeg vil minne om at 4 GB ikke var et stort problem på R9 290/290X. Det her starter egentlig bra for oss to , men du har tydeligvis ikke satt deg godt nok inn i temaet , komprimeringen er trolig et driver relatert problem (algoritmene som brukes ) med mindre dette er hardcodet i gpu'en , og forsåvidt jeg vet er det dermed et software problem / firmware? . Komprimeringen er i hardware og skjer transparent for shader-koden. Komprimeringen er lossless og skjer i sanntid. For et oppsett med en enkel skjerm er jeg enig i at den løsningen Nvidia har brukt er helt kurrantFlere skjermer øker som regel ikke minnebelastningen betydelig, men øker derimot GPU-lasten. Så flerskjermoppsett gjør ikke konfigurasjonen mindre egnet. Men så er GTX 970 alt for svakt uansett til dette formålet. Det er nok avhengig av spillet som kjøres , teksturene som brukes og en del andre faktorer , ta en titt på Skyrim med de beste modifikasjonene på utseendet og lignende så ser man fort at dette er et spill som sluker gpu ram. HD teksturer og andre modifikasjoner får til og med kort med mer enn 3.5 minne til å kneble. Igjen så har jeg sett et par skjermkort som greier seg bedre her og det er som regel med mer minne. Om det er verdt den 5 - 10% økningen får bli opp til spilleren. Et 970 kort burde greie å dra opp mot 5760x3240 med noen modifikasjoner og under dette burde det være langt mer detaljer og effekter man kan legge til uten at det burde ha noen problemer. Men igjen er det trolig her minnet spiller inn og vil derfor begrense litt den maksimale ytelsen 970 kortet kan få , greit nok svært få tilfeller , men igjen så finnes det eksempler på det. 3x1920x1080 kontra 1x1920x1080 vil nesten tredoble GPU-lasten mens minneforbruket knapt øker, så nok en gang er det GPU-ytelsen som er flaskehalsen. Som jeg har nevnt før, om du fyller et skjermkorts minne så består det av alle ressursene til brettet, også de som ikke blir brukt der og da til tegning. Teksturer vil lagres i det vi kaller mipmaps(LoD). Hvis en tekstur i høyeste detaljnivå er 16 MB, så vil neste bli 4 MB, 1 MB osv. Om du tegner et enormt landskap så vil bare det området nærmest kamera tegnes i høye detaljer. Så selv om du har et spill med mange GB med data så vil aldri alt brukes samtidig. , så får vi se om spillutviklerene kan finne flere måter å utnytte det ekstra minnet mange kort kommer med for å unngå MicrostutteringOg der kom den igjen. Microstuttering er som sagt urelatert. Fint at du kuttet mellom 3 og 4 , men igjen så er Microstuttering svært relevant for de som legger merke til det. Reell microstuttering er absolutt et problem, men saken her er at du og mange andre tilskriber all verdens urelaterte "problemer" til GTX 970s minnekonfigurasjon. Som sagt utallige ganger; hvis spill hakker bilde etter bilde så har det ingen verdens ting med minnekonfigurasjonen å gjøre. Reelt microstutter kommer som regel av drivertrøbbel, multi-GPU eller lignende som gir kontinuerlige små timing-problem. Selv om spill allokerer hele minnet så vil de ikke bruke den trege biten i hvert bilde, det vil kontinuerlig reallokeres for å eliminere problemet. Men de aller fleste som snakker om "microstutter" mener egentlig at spillet hakker fordi de stiller detaljene for høyt og GPUens regnekraft blir et problem. Det later til at kanskje ikke du heller klarer å forstå forskjellen. Selvsagt , er man villig til å punge ut mange flere tusen kroner og kjøper en G-sync skjerm blir man kanskje kvitt problemet , men igjen det ser ut til være litt mer vanlig med 970 kortene , man kan jo spekulere i hvorfor.Hva i huleste har adaptiv synkronisering med saken å gjøre? Jeg har problemer med å ta deg seriøst når du åpenbart blander totalt forskjellige ting. relativt lange lastetider på noen kart og andre ting som er med på å ødelegge opplevelsen til de som spiller.Det var en god spøk Når hastigheten over PCIe er betydelig lavere enn det "trege" minnet på GTX 970 så kan du ikke skylde på minnekonfigurasjonen. Dette lukter nocebo lang vei! Jeg tror faktisk at du ikke spiller så mange spill... Nå har jeg nok en gang tatt deg på alle fire punkter på ting du åpenbart ikke har snøring på og så svarer du med å skjelle meg ut? Jeg tror personlig at det bør gå an å bruke Gpu minnet langt bedre enn det man gjør per dags dato , dette kan trolig hjelpe til å kutte ned på lastetider og forbedre spillopplevelsen , men det er tydelig at du har misforstått det jeg prøvde å påpeke.Spill som bruker mye data vil i større og større grad bruke streaming av ressurser. Med smart prefetching så vil selv 3 GB være tilstrekkelig for et kort i klasse med GTX 980 Ti. Nettopp dette er kanskje det mest interessante med "async compute", siden prefetching blir mulig uten avbrudd. 2 Lenke til kommentar
Malvado Skrevet 15. desember 2015 Del Skrevet 15. desember 2015 Komprimeringen er i hardware og skjer transparent for shader-koden. Komprimeringen er lossless og skjer i sanntid. 3x1920x1080 kontra 1x1920x1080 vil nesten tredoble GPU-lasten mens minneforbruket knapt øker, så nok en gang er det GPU-ytelsen som er flaskehalsen. Som jeg har nevnt før, om du fyller et skjermkorts minne så består det av alle ressursene til brettet, også de som ikke blir brukt der og da til tegning. Teksturer vil lagres i det vi kaller mipmaps(LoD). Hvis en tekstur i høyeste detaljnivå er 16 MB, så vil neste bli 4 MB, 1 MB osv. Om du tegner et enormt landskap så vil bare det området nærmest kamera tegnes i høye detaljer. Så selv om du har et spill med mange GB med data så vil aldri alt brukes samtidig. Reell microstuttering er absolutt et problem, men saken her er at du og mange andre tilskriber all verdens urelaterte "problemer" til GTX 970s minnekonfigurasjon. Som sagt utallige ganger; hvis spill hakker bilde etter bilde så har det ingen verdens ting med minnekonfigurasjonen å gjøre. Reelt microstutter kommer som regel av drivertrøbbel, multi-GPU eller lignende som gir kontinuerlige små timing-problem. Selv om spill allokerer hele minnet så vil de ikke bruke den trege biten i hvert bilde, det vil kontinuerlig reallokeres for å eliminere problemet. Men de aller fleste som snakker om "microstutter" mener egentlig at spillet hakker fordi de stiller detaljene for høyt og GPUens regnekraft blir et problem. Det later til at kanskje ikke du heller klarer å forstå forskjellen. Hva i huleste har adaptiv synkronisering med saken å gjøre? Jeg har problemer med å ta deg seriøst når du åpenbart blander totalt forskjellige ting. Nå har jeg nok en gang tatt deg på alle fire punkter på ting du åpenbart ikke har snøring på og så svarer du med å skjelle meg ut? tider og forbedre spillopplevelsen , men det er tydelig at du har misforstått det jeg prøvde å påpeke. Spill som bruker mye data vil i større og større grad bruke streaming av ressurser. Med smart prefetching så vil selv 3 GB være tilstrekkelig for et kort i klasse med GTX 980 Ti. Nettopp dette er kanskje det mest interessante med "async compute", siden prefetching blir mulig uten avbrudd. Hvordan skal jeg ta deg seriøst når du tror at jeg kommer med et personangrep / skjeller deg ut når jeg sier at jeg tror at du ikke spiller så mange spill? Ta deg en donut og en kaffe og slapp av , jeg er ikke ute etter å skjelle deg ut. Microstuttering er et problem på mange skjermkort og ikke kun begrenset til 970 , noe annet har jeg heller ikke påstått , men det er tydelig at 970 har noen spill der det fungerer dårligere. Det går sikkert an å legge skylden på dårlige drivere eller lite optimalisert spill , men igjen er det noen skjermkortmodeller som sliter mer i noen spill enn andre ( dette gjelder flere i Nvidia og Amd serien selvsagt). At du også velger helt å overse at jeg sier at innstillingene i et spill har en god del å si for hvor mye belastning det får og ikke minst eventuelt modifikasjoner som man har pakket inn i spillet så kan behovet for Gpu minne øke betraktelig. Og joda , flerskjermsoppsett har litt å si for hvor mye minne som behøves , det samme har bedre teksturer osv osv. Jeg påpeker også at ytelse-forskjellen i noen konkrete scenarioer er ikke enorm, det kan være snakk om en 5 - 10 % forskjell , noe som kan gjøre et spill spillbart for noen (Glem nizzen, han må ha 60+ fps) , men igjen så er per dags dato ikke snakk om enorme forskjeller når man får en haug med mer minne. Men mer minne har faktisk litt å si i visse oppsett og man ser jo også at Fury X blir så og si forbigått i noen konkrete tilfeller av et 390X kort med 8 Gb minne... At du ikke har fått med deg at G-sync skjermen faktisk løser en del problemer for Nvidia brukere som sleit med Microstuttering eller tearing (nei, jeg vet det er forskjell på disse to) i flere spill så vet jeg ikke helt hva du holder på med , ta deg en tur innom GTAV forumene og les litt der så vil du se flere brukere som har investert i G-sync og som er fornøyde og et par kunder som ikke er det ( som også har elendige skjermkort). 1 Lenke til kommentar
skripis Skrevet 15. desember 2015 Del Skrevet 15. desember 2015 Så, det dere sier er at jeg må dumpe mine 970 SLI på finn, for å kjøpe 980 Ti SLI? Lenke til kommentar
Christian Thork Skrevet 15. desember 2015 Del Skrevet 15. desember 2015 Nei, dump dine 970 og kjøp 1080 Sli (Kommer ann på hva Nvidia kaller de) når de kommer ut ^^ Lenke til kommentar
Netrum Skrevet 15. desember 2015 Del Skrevet 15. desember 2015 Nei alle her bør selge kortene sine og sende pengene til meg. Så eg kan oppgradere til Pascal neste år :-P 1 Lenke til kommentar
Christian Thork Skrevet 15. desember 2015 Del Skrevet 15. desember 2015 Eller... Donere dem til meg, så folder jeg på kortene Gleder meg til Pascal, altså store Pascal som kommer litt senere. 980Ti kortet får holde til da ^^ Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå