Gå til innhold

2080 Ti coil whine?


lasse_hansen87

Anbefalte innlegg

@N o r e n g om en forhandler ikke oppfatter hyling av alle typer og andre ulyder i et elektro produkt som reklamasjons årsak er det vel lurest og holde seg unna og handle hos noen som ser det annerledes?

 

Jeg vet ikke om noen som tolererer ulyd i et elektro produkt eller andre produkter for den saks skyld, at det ikke er farlig er ikke et argument for og nekte reklamasjon.

 

Om jeg ikke husker feil er det vel noen som har blitt kvitt "coilwhine" hyling og lignende lyder med og kjørt gpu på full belastning et døgn eller 2, eller husker jeg feil?

Lenke til kommentar
Videoannonse
Annonse

 

Tja...

Spiller du CSGO, Overwatch, eller R6 (for å nevne noen) er det et direkte handicap å låse framerate til så lite som 144 fps.

 

 

Ja, en knekk i strømkabelen kan forårsake den klassiske "elektrisitetslyden" kjent fra film/TV, og potensielt bli litt varmere enn normalt. Har derimot vanskelig for å tro at det er direkte farlig.

 

Jord skal det normalt sett aldri gå noe strøm gjennom, den er der primært for å sørge for at elektrisiteten har en lavere motstand å gå gjennom enn mennesker før sikringen slår ut.

 

Det er bare positivt at Komplett ser på hvining som reklamasjonsgrunnlag, men normalt sett er det ikke farlig.

Men så lever vi i et samfunn der folk flest ser på realfag som "vanskelig", og matematikken bak som "magi".

 Hvorfor er det et handicap? Vant så mange turneringer den gang jeg var drittunge og spilte CS, de fleste av oss hadde låst fps.

 

Personlig liker jeg en stabil fps i stede for variabel. Gjør aiming enklere

Endret av DirekteDemokrati
Lenke til kommentar

Hvorfor er det et handicap? Vant så mange turneringer den gang jeg var drittunge og spilte CS, de fleste av oss hadde låst fps.

 

Personlig liker jeg en stabil fps i stede for variabel. Gjør aiming enklere

Fordi input lag er en direkte funksjon av hvor høy fps du kjører. Riktignok mindre i dag med disse Ultra-Low-Latency mulighetene i driveren, men fortsatt viktig selv da.

 

Du kuttet 10 ms ved å gå fra 100 til 200 fps, hele 15 ms om du gikk opp til 400 fps

Lenke til kommentar

Fordi input lag er en direkte funksjon av hvor høy fps du kjører. Riktignok mindre i dag med disse Ultra-Low-Latency mulighetene i driveren, men fortsatt viktig selv da.

 

Du kuttet 10 ms ved å gå fra 100 til 200 fps, hele 15 ms om du gikk opp til 400 fps

 

 

Minste input lag får du ved og cappe fps slik at gpu ikke blir saturert med og gjøre klar masse frames som skal vises og cpu må vente på gpu for og rendere nye frames.

 

Lavest input lag får du når cpu og gpu jobber i "tandem" for mangel på et bedre ord.

 

Spiller ikke veldig stor rolle i spill som krever lite. Men input lag vil øke veldig med krevende spill. 

 

Slik som CS:GO vil du nok redusere input lag med og la fps gå fritt. Siden det er et spill som er meget gammelt, og husker jeg spilte det på en Compaq Pentium 3 med 450mhz med geforce 280GTX og hadde 99fps som jeg cappet den til (hadde bare 60 hertz skjerm den gang) :p Og vil aldri klare og saturere en moderne gpu.

 

For og minske input lag så cap feks 180fps på en 144 skjerm. Så er det så si ingenting og tjene over det. Bortsett fra og få deg en kjappere skjerm.

 

Men spiller du et krevende spill der du sliter med og holde en stabil fps når det skjer noe (pga prerenderd frames blir ubrukelige) så er capping absolutt nødvendig for en "smooth" følse. Slik at din aim er alltid 100% og du ikke hakker bortover enkelte ganger pga frame drops.

 

Som en som spiller Ark (et spill som spiser 100% gpu konstant, så må jeg rett og slett cappe) ellers vil jeg lagge som en hest om noen drar frem en flammekaster i nærkamp. Da gpu er saturert og må lage en haug med nye frames.

 

Flammekaster er faktisk et meget effektivt våpen pga folk får 3 sek lagspike om de ikke har cappet sin fps. Eller har en skit data

Endret av DirekteDemokrati
Lenke til kommentar

Dette er totalt offtopic, håper en moderator kan flytte det over i en annen tråd.
 

Minste input lag får du ved og cappe fps slik at gpu ikke blir saturert med og gjøre klar masse frames som skal vises og cpu må vente på gpu for og rendere nye frames.

???? Nei.

Input lag stiger lineært med antall bilder som er bufret, og hvor lang tid mellom hvert bilde.
Har du 200 fps med en buffer på fire bilder er det tilsvarende 100 fps med en buffer på to bilder.
200 fps med to bildebuffere gir 10 ms, 100 fps med to bildebuffere gir 20 ms.
Minimum antall bildebuffere er to: et som tegnes og et som vises.

I tillegg kommer spillogikk, som også skalerer lineært med framerate, men sjelden er like "hyggelig" når det kommer til lag. PUBG for eksempel er noe tregere enn CSGO: https://www.flickr.com/photos/152943219@N08/44330173222/
Kilde: Battle (non)sense
 

Jeg antar du tror det hjelper på inputlag å ha krefter "til overs" for CPU/GPU slik at den klarer å "ta igjen" gapet om det blir hardt et øyeblikk, problemet er at det øyeblikket maksimalt kan vare 1 frame før du vil få merkeligheter.

 

Lavest input lag får du når cpu og gpu jobber i "tandem" for mangel på et bedre ord.

 

Hva?
 

Spiller ikke veldig stor rolle i spill som krever lite. Men input lag vil øke veldig med krevende spill.

Ja, fordi framerate går ned!
 

Slik som CS:GO vil du nok redusere input lag med og la fps gå fritt. Siden det er et spill som er meget gammelt, og husker jeg spilte det på en Compaq Pentium 3 med 450mhz med geforce 280GTX og hadde 99fps som jeg cappet den til (hadde bare 60 hertz skjerm den gang) :p Og vil aldri klare og saturere en moderne gpu.

Tviler sterkt på at du spilte CS:GO på en prosessor som var over 10 år gammel da det kom ut.
 

For og minske input lag så cap feks 180fps på en 144 skjerm. Så er det så si ingenting og tjene over det. Bortsett fra og få deg en kjappere skjerm.

Dette er det eneste du skrev som har et fnugg av sannhet: fra 180 fps til 360 fps er det ikke en voldsom forbedring i inputlag, det er vesentlig mer å vinne på å gå fra 90 til 180, for ikke å snakke om 60 til 180.
 

Men spiller du et krevende spill der du sliter med og holde en stabil fps når det skjer noe (pga prerenderd frames blir ubrukelige) så er capping absolutt nødvendig for en "smooth" følse. Slik at din aim er alltid 100% og du ikke hakker bortover enkelte ganger pga frame drops.


Skal du ha konsistent og presis aim må du ha 0 pre-rendered frames og framerate-cap på minimum framerate, for typiske kompetetive shooters snakker vi da om 250-300 fps avhengig av CPU. Med 3 pre-rendered frames, framerate cap på 120 fps, og drypp under dette har du bare konsistent upresis aim.
 

Som en som spiller Ark (et spill som spiser 100% gpu konstant, så må jeg rett og slett cappe) ellers vil jeg lagge som en hest om noen drar frem en flammekaster i nærkamp. Da gpu er saturert og må lage en haug med nye frames.


Eller så kan du redusere grafikkinnstillingene til et punkt der du ikke får slik drypp i ytelsen.
Det er alltid mulig å redusere grafikken til et punkt der skjermkortet ikke er flaskehals, med mindre man har integrert GPU.

 

I 2560x1440 med innstillinger satt til medium eller low (view distance til high) i ARK: Survival Evolved i første område kunne jeg se fall ned mot 170 fps, da var GPU load på knappe 60%

Det da med et 2080 Ti @ 2070 MHz, 9900k @ 5.2/4.8, og 32GB RAM @ 4000 MHz CL16

Hvis flammekasteren skaper drypp i ytelse på grunn av GPU load tviler jeg på at du har riktige grafikkinnstillinger, hvis det er på grunn av CPU load er det vel bare enda en bekreftelse på at ARK er elendig optimert.

Lenke til kommentar

Dette er totalt offtopic, håper en moderator kan flytte det over i en annen tråd.

 

???? Nei.

 

Input lag stiger lineært med antall bilder som er bufret, og hvor lang tid mellom hvert bilde.

Har du 200 fps med en buffer på fire bilder er det tilsvarende 100 fps med en buffer på to bilder.

200 fps med to bildebuffere gir 10 ms, 100 fps med to bildebuffere gir 20 ms.

Minimum antall bildebuffere er to: et som tegnes og et som vises.

 

I tillegg kommer spillogikk, som også skalerer lineært med framerate, men sjelden er like "hyggelig" når det kommer til lag. PUBG for eksempel er noe tregere enn CSGO: https://www.flickr.com/photos/152943219@N08/44330173222/

Kilde: Battle (non)sense

 

Jeg antar du tror det hjelper på inputlag å ha krefter "til overs" for CPU/GPU slik at den klarer å "ta igjen" gapet om det blir hardt et øyeblikk, problemet er at det øyeblikket maksimalt kan vare 1 frame før du vil få merkeligheter.

 

 

Hva?

 

Ja, fordi framerate går ned!

 

Tviler sterkt på at du spilte CS:GO på en prosessor som var over 10 år gammel da det kom ut.

 

Dette er det eneste du skrev som har et fnugg av sannhet: fra 180 fps til 360 fps er det ikke en voldsom forbedring i inputlag, det er vesentlig mer å vinne på å gå fra 90 til 180, for ikke å snakke om 60 til 180.

 

Skal du ha konsistent og presis aim må du ha 0 pre-rendered frames og framerate-cap på minimum framerate, for typiske kompetetive shooters snakker vi da om 250-300 fps avhengig av CPU. Med 3 pre-rendered frames, framerate cap på 120 fps, og drypp under dette har du bare konsistent upresis aim.

 

Eller så kan du redusere grafikkinnstillingene til et punkt der du ikke får slik drypp i ytelsen.

Det er alltid mulig å redusere grafikken til et punkt der skjermkortet ikke er flaskehals, med mindre man har integrert GPU.

 

I 2560x1440 med innstillinger satt til medium eller low (view distance til high) i ARK: Survival Evolved i første område kunne jeg se fall ned mot 170 fps, da var GPU load på knappe 60%

Det da med et 2080 Ti @ 2070 MHz, 9900k @ 5.2/4.8, og 32GB RAM @ 4000 MHz CL16

Hvis flammekasteren skaper drypp i ytelse på grunn av GPU load tviler jeg på at du har riktige grafikkinnstillinger, hvis det er på grunn av CPU load er det vel bare enda en bekreftelse på at ARK er elendig optimert.

Da får vi si oss uenige. 

 

CS:GO, CS... Same shit... Spilte beta CS tilbake i 1998 hvertfall.. 

 

Prøv Ark før du snakker.. Har en relativt grei pc og jeg har bare 7-45fps i hovedbasen. Kan få 100 om jeg kikker rett i bakken.. Nå har vi noe voldsom base skal de sies da. Men slik er det spillet, horde opp ting for og så krige.

 

Utenfor base områder er jeg på 100 stort sett hele tiden( der jeg har cappet den). Er et veldig uoptimisert spill som er kjent for lag. Selv servere sliter med dette spillet. Skal du ha 100 folk på en server bør du helst ha 5ghz overclocka cpu.

 

Og selv da er det rubberband ut av milde. Slik går det når man skal bruke en milliard polygons på 1 dyr, også kan en base inneholde mange tusen dyr. Legg til automatiserte "turrets" overalt som har en viss avstand de tracker. Krever konstant kalkulasjoner, også kan det fort være en 6000-10000 av disse per server.

 

Og nei, singleplayer er ikke ark. Eller "beach bob" på stranda. Spill ordentlig så er du 100+ i en tribe som tar over en eller fler servere. Og spillet får da mye og rendere ettersom man bygger.

Endret av DirekteDemokrati
Lenke til kommentar

Da får vi si oss uenige. 

 

CS:GO, CS... Same shit... Spilte beta CS tilbake i 1998 hvertfall.. 

 

Prøv Ark før du snakker.. Har en relativt grei pc og jeg har bare 7-45fps i hovedbasen. Kan få 100 om jeg kikker rett i bakken.. Nå har vi noe voldsom base skal de sies da. Men slik er det spillet, horde opp ting for og så krige.

 

Utenfor base områder er jeg på 100 stort sett hele tiden( der jeg har cappet den). Er et veldig uoptimisert spill som er kjent for lag. Selv servere sliter med dette spillet. Skal du ha 100 folk på en server bør du helst ha 5ghz overclocka cpu.

 

Og selv da er det rubberband ut av milde. Slik går det når man skal bruke en milliard polygons på 1 dyr, også kan en base inneholde mange tusen dyr. Legg til automatiserte "turrets" overalt som har en viss avstand de tracker. Krever konstant kalkulasjoner, også kan det fort være en 6000-10000 av disse per server.

 

Og nei, singleplayer er ikke ark. Eller "beach bob" på stranda. Spill ordentlig så er du 100+ i en tribe som tar over en eller fler servere. Og spillet får da mye og rendere ettersom man bygger.

 

Jeg har ingen interesse av å prøve ARK skikkelig, fordi jeg er ikke noen fan av survival-, open world-, eller BR-spill.

Problemene du opplever i ARK er forøvrig typisk for CPU-begrensninger, ikke GPU. Hadde du hatt en grafikkprosessor fra 2000 hadde det kanskje vært den, men over de siste 15 årene har GPUer blitt rimelig gode til å kaste vekk polygoner som ikke synes i sluttbildet (culling).

 

Uansett blir ikke inputlag lavere av å strupe ytelsen, du får en mer lik opplevelse, men det blir ikke bedre responstid. Det er veldig enkelt å teste dette i spill: fyr opp et skytespill, strup ytelsen til 60 fps, og så struper du til 200 fps og sammenligner.

Endret av N o r e n g
Lenke til kommentar

Jeg har ingen interesse av å prøve ARK skikkelig, fordi jeg er ikke noen fan av survival-, open world-, eller BR-spill.

Problemene du opplever i ARK er forøvrig typisk for CPU-begrensninger, ikke GPU. Hadde du hatt en grafikkprosessor fra 2000 hadde det kanskje vært den, men over de siste 15 årene har GPUer blitt rimelig gode til å kaste vekk polygoner som ikke synes i sluttbildet (culling).

 

Uansett blir ikke inputlag lavere av å strupe ytelsen, du får en mer lik opplevelse, men det blir ikke bedre responstid. Det er veldig enkelt å teste dette i spill: fyr opp et skytespill, strup ytelsen til 60 fps, og så struper du til 200 fps og sammenligner.

Igjen nei, CPU jobber langt fra 100. Faktisk kan jeg enkelt streame ved siden av og. Uten at jeg merker mye ytelses messig. Med cpu som encoder.

 

Jeg har alt av tools, så ser hva som jobber når. GPU jobber 100% fra jeg launcher ark, og så si er på 100% til jeg lukker spillet.

 

Cpu ligger på en 35% til 50%. 

Lenke til kommentar

Igjen nei, CPU jobber langt fra 100. Faktisk kan jeg enkelt streame ved siden av og. Uten at jeg merker mye ytelses messig. Med cpu som encoder.

 

Jeg har alt av tools, så ser hva som jobber når. GPU jobber 100% fra jeg launcher ark, og så si er på 100% til jeg lukker spillet.

 

Cpu ligger på en 35% til 50%. 

Tror du virkelig at du vil se 100% CPU-belastning i spill?

Ingen spill er så flertrådet at de utnytter en 6-kjerne 100% i dag, spesielt ikke om du har hyperthreading. Det lille jeg testet tilsa at spillet kanskje kunne saturere en 4-kjerner uten hyperthreading, men mest sannsynlig ville du ikke sett mer enn 80% belastning på en slik heller.

 

Alternativt kjører du grafikkinnstillinger som er for krevende, mitt 2080 Ti kunne kun kjøre medium skygger og teksturer i 2560x1440 før jeg merket at ytelsen gikk nedover.

Lenke til kommentar

Tror du virkelig at du vil se 100% CPU-belastning i spill?

Ingen spill er så flertrådet at de utnytter en 6-kjerne 100% i dag, spesielt ikke om du har hyperthreading. Det lille jeg testet tilsa at spillet kanskje kunne saturere en 4-kjerner uten hyperthreading, men mest sannsynlig ville du ikke sett mer enn 80% belastning på en slik heller.

 

Alternativt kjører du grafikkinnstillinger som er for krevende, mitt 2080 Ti kunne kun kjøre medium skygger og teksturer i 2560x1440 før jeg merket at ytelsen gikk nedover.

Spørs på spill. På ark så har jeg fjerna veldig mye teksturer. Da jeg er tryhard og slikt som busker bare hindrer meg fra og se fienden.

Samt overflate på vann etc, jeg har en meget clean grafikk som min kompis kaller for "minecraft"

 

Selv da lagger det med 35000 individuelle bygningsblokker som skal renderes. Samt noen tusen dyr på en milliard+ polygons per stk.

Sier seg selv at det ikke går på dagens data :p

 

Selv da, så min grafikk er horribel. Er rett og slett et dårlig laget spill når de lar en "kunstner" gå løs på og lage dyr der. Og lager de av så mange polygons vi skulle helst hatt PC fra 2030 for og kjøre dette i stor skala som multiplayer.

 

Jeg kan se ytelse per kjerne.. Ark drar det meste på 1 kjerne men den kjernen er så si aldri over 50%, kjører lyd og noe annet surr som krever lite på nr 2. Men spillet krever ikke cpu. Og selv i3 folk blir ikke bottlenecka av sin cpu. Ark vil ha gpu, og all gpu den kan få.

 

Flere jeg spiller med som bruker 2080ti og, lagger like mye de og. Enten så vet du bedre enn alle de tusen jeg har snakka med i community opp igjennom åra. Og alt jeg ser på stream er bare uvitende folk

 

Jeg kjører 3880x1440 som er grafikken en bør kjøre med en skjerm som min.

 

Googla "ark eats gpu"

 

Første svaret er = ARK is quite demanding on graphics cards, even though it doesn't look as good as many new games. ... Essentially, [/size]ARK will [/size]eat up any [/size]graphics card you can afford. [/size]

 

Edit: Og lol, selv når jeg er på hoved menyen før jeg går inn i spillet er gpu på 80%....

 

Selv ikke Space Engineers bruker mer en 80%, og vi har da enorme ting der og.

Endret av DirekteDemokrati
Lenke til kommentar

Spørs på spill. På ark så har jeg fjerna veldig mye teksturer. Da jeg er tryhard og slikt som busker bare hindrer meg fra og se fienden.

Samt overflate på vann etc, jeg har en meget clean grafikk som min kompis kaller for "minecraft"

 

Selv da lagger det med 35000 individuelle bygningsblokker som skal renderes. Samt noen tusen dyr på en milliard+ polygons per stk.

Sier seg selv at det ikke går på dagens data :p

 

-snip-

 

Alt det du skriver der er et tegn på mange draw calls, det blir for mange polygoner/objekter for CPU å fortelle GPU skal tegne og skyggelegge. Det er samme grunn som at ingen voxel-baserte spill har små voxler animert, det blir for mange bevegelser.

 

Task Manager vil alltid lyve om CPU-forbruk, det er totalt meningsløst å måle CPU-utnyttelse ut fra den.

Den eneste måten du kan vurdere om du er flaskehalset av CPU eller GPU på er hva GPU usage ligger på, og selv ikke det stemmer alltid

Den enkleste måten er å se om det hjelper å redusere oppløsning, enten gjennom resolution scale eller direkte oppløsning.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...