-
Innlegg
26 058 -
Ble med
-
Besøkte siden sist
-
Dager vunnet
3
Innholdstype
Profiler
Forum
Hendelser
Blogger
Om forumet
Alt skrevet av N o r e n g
-
74C er jo ikke noe å bekymre seg for? Når hotspot kommer opp i 100C er når du vil merke at ytelsen vil begynne å reduseres. Beskyttelsesmekanismene i Nvidia-skjermkort har vært rimelig effektive i over 10 år nå
-
Var ikke klar over at det var mulig å laste ned offisielle drivere fra andre sider enn Nvidia, Windows Update, eller Guru3D
-
Engelskmenn kaller silisium for silicon. Silikon, som ofte brukes i brystimplantater, kalles silicone på engelsk. En liten forskjell 😁
-
Lite varmeutvikling? Mitt 4090 spytter ut 480W med varme i spill som faktisk bruker GPU-en. Det er en rimelig effektiv varmeovn for et 15 m^2 rom
-
Men altså, hva er forskjellen fra vanlig 4090? Samme antall CUDA-kjerner, samme minnefrekvens, klokkefrekvens er allerede på grensen for vanlig 4090...
-
Beste for enhver pris? ASUS RTX 4090 Matrix Intel Core i9 14900K (om en måneds tid, eller 13900KS i dag) 1000W PSU av et eller annet slag ASUS Z790 Apex refresh (når det kommer ut) Kjøling ut fra hva du er villig til å sette deg inn i, custom loop med direct die kjøling er best, men mange syns sånt blir skummelt Hvis du trenger minimum 64GB RAM: https://www.proshop.no/RAM/GSkill-Ripjaws-S5-DDR5-6800-BK-C34-DC-96GB/3171618 Hvis du kan klare deg med 48GB RAM er dette raskere: https://www.proshop.no/RAM/GSkill-Trident-Z5-RGB-DDR5-7600-BK-C38-DC-48GB/3184952
-
Har prøvd et 4090 med overklokket 8700K i Starfield, og det var 4090 som var flaskehalsen der. Svaret på spørsmålet ditt er heller "det kommer an på", framfor noe så kontant som 12400F eller 13900KS. Hvis en 13600K er flaskehalsen i spill for deg, kan jeg garantere at en 13900KS også vil være en flaskehals. Du må øke ytelsen med minimum 30% for at en forskjell skal være merkbar
-
En kan jo håpe at AMD har endelig lært at det er bedre å relansere kort slik Nvidia gjør
-
7700 XT er priset slik for å dytte folk over på 7800 XT
-
Eller bare var uheldig? De aller fleste 7950X og 7900X kræsjer jo på standardinnstillinger når man kjører AVX2 for eksempel, bare fordi AMD har pushet V/F-kurven litt for langt
-
Når du nærmer deg 8000 vil du etter hvert oppleve at de nøyaktig samme minneinnstillingene vil variere i stabilitet fra boot til boot. Selv om du låser inn skews, ODTs, og spenninger. Det er ærlig talt rimelig frustrerende, for du kan oppleve at 8400 er "stabilt", men om du starter om maskinen er plutselig 8400 fullstendig håpløst ustabilt. I tillegg er det ikke vanskeligere å degradere 13900K enn at du kjører 300A i et par timer, så er plutselig ikke stock stability lengre heller 🤣
-
Haha, det var ikke bare X3D som ikke takler høy SOC, vanlig Zen 4 har også masse problemer med høy SOC
-
Var ikke noe problem med Proshop nei, fikk ny tilsendt med en gang. Det fine for min del er at jeg vet at 1.40V og oppover ikke er å anbefale
-
Nei, den døde av 1.50V auto SOC
-
Død cpu, samme som skjedde med min første 7800x3d
-
Går en del snakk om at Directstorage skaper problemer med Nvidia-kort i R&C: https://twitter.com/sebasti66855537/status/1685389848603951111?s=46&t=_d_Gxn6_vhYIpQ9lb9sg1A Det kan selvfølgelig være svakheter i maskinvaren, men i slike tilfeller reflekteres det i gjennomsnittlig framerate også.
-
Kort oppsummert tar du feil
-
6900XT var alltid raskere i Time Spy enn 3090, likevel kom det ikke på topp i faktiske tester som brukte spill. Angående 3DMark-resultater, her er det beste 6900 XT-resultatet i Port Royal: https://www.3dmark.com/pr/2191726 Her er hva jeg fikk med standardinnstillinger på et 3090: https://www.3dmark.com/pr/1287048 Speed way er på ingen måte mer hyggelig: https://www.3dmark.com/compare/sw/171917/sw/376136 Hvis det er grafiske forskjeller i BF2042 mellom Radeon og Nvidia bør du dokumentere det. Du kunne startet din egen Techtuber-karriere med en slik avsløring. At du ikke bruker DLSS kan jeg forstå når du ikke har Nvidia, men faktum er at DLSS/DLAA er bedre til å skjule kravlende kanter som dukker opp når du beveger kameraet i spill, enn det FSR2 (og ofte innebygd TAA) er. For folk med 4090 er det nok ofte best å bruke DLSSTweaker for å sette inn DLAA istedenfor DLSS, men for de med et 4060 vil det være bedre å spille med DLSS Balanced enn FSR Quality både ytelsesmessig og bildekvalitetsmessig. I tillegg har du Nvidia Broadcast, som kommer med greenscreen-software og støyreduksjon for mikrofonen du bruker, det er glimrende når du skal delta på en videokonferanse. Se nøye på pelsen til Ratchet her for eksempel. Legg merke til at FSR og XeSS flimrer mer enn DLSS.
-
Hvis du ikke ønsker å kjøpe produkter fra griske selskap vil jeg anbefale deg å ikke kjøpe en PC. AMD, Intel, Nvidia, Apple, Samsung, SK Hynix, ASUS, Gigabyte, MSI, og så videre, er alle griske selskaper som ønsker å maksimere profitten sin. Grunnen til at denne generasjonens skjermkort koster mer er fordi COVID viste Nvidia og AMD hvor mye folk egentlig er villige til å betale for gaming-skjermkort. Økonomene har rett og slett bommet fullstendig. Angående pris/ytelse? Hva så? 4090 kunne levert 18500 poeng i Time Spy Extreme, og Nvidia kunne fortsatt tatt 50% høyere pris for 4090 enn 7900 XTX, rett og slett fordi 4090 er best. Per idag har Nvidia en så overlegen markedsposisjon mot Radeon at majoriteten av forbrukere rett og slett ikke vurderer Radeon, noe av årsaken er at Radeon-kortene er rimelig svake alternativer når man må ofre RT, DLSS, CUDA, +++
-
Når begge kortene leverer under 40 fps er det i mine øyne ganske irrellevant at 16GB-varianten takler innstillingene bedre...
-
Nye kort kommer til å bruke en modifisert variant. Adapteren som fulgte med er mest sannsynlig helt fin å bruke
-
PC-salget er ned 30% fordi folk kjøpte seg mette under lockdown. I tillegg vil den nye tilkoblingen være bakoverkompatibel. Den eneste endringen er at sense-pinnene har mindre kontaktflate.
-
Billigere å selge det gamle hovedkortet og kjøpe en 12400 i min mening.
- 16 svar
-
- 1
-
Hva oppgraderer du for? Mange mener at RT-ytelse ikke er så viktig, og det stemmer bra hvis du tenker å spille kompetitive skytespill. Hvis du imidlertid oppgraderer for single-player spill som Starfield, ville jeg heller gått for Nvidia fordi de er langt foran AMD på RT i tillegg til DLSS + DLSS3 er bedre.
-
Den tabellen er jo bare tull. "4070 Super" og "4080 Super" vil jo ende opp med å bruke henholdsvis AD103 og AD102 med de spesifikasjonene, men så vanvittig nedkuttet at det er fullstendig meningsløst. Ada som generasjon har åpenbart gode yields, så hvorfor skal Nvidia kappe av 25% av AD102, og 20% av AD103, bare for å skape nye kort? Selv Ampere, som var mye verre yield-messig, ble ikke kuttet så hardt ned for vanlige SKUs. Jeg mistenker heller at et eventuelt "4070 Super" blir tilnærmet 4070 Ti ytelsesmessig, men med en hyggeligere pris, en slags "relaunch" på mange måter. Samme for "4080 Super", men da med 2 eller 4 ekstra SM aktivert og en hyggeligere pris.