-
Innlegg
26 058 -
Ble med
-
Besøkte siden sist
-
Dager vunnet
3
Hjelpsomme svar
-
N o r e n g's innlegg in Hvor stor strømforsyning trenger jeg? ble markert som svaret
Her er noen faktisk stillegående modeller til en god pris:
Fractal Design ION+ 660P: https://www.tomshardware.com/reviews/fractal-design-ion-660p-power-supply-review,6266-2.html
Fractal Design ION+ 860P: https://www.tomshardware.com/reviews/fractal-design-ion-860p-power-supply,6239-2.html
Her skal jeg innrømme at 860P er stort sett mer effektiv over hele linja, som faktisk gjør den til et ålreit kjøp, men hvor mye taper du på å gå for 660P?
Her kan vi se at ION+ 660P spinner opp vifta ved 200W belastning, mens 860P spinner opp vifta ved 300W belastning, men hvilken hastighet snakker vi om? Jo, ved 500W (som vil være absolutt maksimal belastning i dette tilfelle) er det snakk om en 14cm vifte på 700 RPM eller 450 RPM, altså hastigheter der enhver aktiv skjermkortkjøler vil overdøve støyen fra strømforsyningen.
Men det er kanskje forskjellig for Corsairs RM-serie?
RM850: https://www.tomshardware.com/reviews/corsair-rm850-power-supply,6127-2.html
RM650: https://www.tomshardware.com/reviews/corsair-rm650-power-supply,6187-2.html
Effektivitetskurven er veldig lik, med kanskje et prosentpoeng i favør av RM850 fra 400W og utover.
Vifta begynner å spinne på 250W for RM650, 300W for RM850, begge to starter på 800RPM!
RM-serien er altså ikke de mest stillegående strømforsyningene i utgangspunktet, selv om de er langt bedre enn superNOVA G3
På 500W belastning er RM850 fortsatt på 800RPM, mens RM650 er oppe i ca 900RPM, igjen minimal forskjell, men det er høyere hastigheter uansett.
På 650W er RM650 rett og slett bråkete på 1400RPM, til sammenligning når 660P ION+ bare 1100RPM på samme belastning, og RM850 er oppe i 1000RPM på 650W.
La oss nå se på dagens AX850: https://www.tomshardware.com/reviews/corsair-ax850-psu,5986-2.html
Det er absolutt en stillegående modell, men det er ikke fordi den har høy effekt, det er fordi den har vesentlig høyere effektivitet, bedre komponenter, og sannsynligvis litt bedre layout for kjøling.
Den kommer opp i 90% effektivitet på 110V før 80W belastning!
Vifta starter på 600RPM ved 300W belastning, på 500W er den oppe i 650RPM, på 650W er den på 750RPM, og på 850W spinner den fortsatt ikke raskere enn 900RPM.
For all del, vi lever i Norge der prisene på disse produktene generelt er overkommelige, men man trenger ikke anbefale 850-1000W til alle og enhver bare fordi man kanskje en gang i fremtiden skal oppgradere til en dobbelt så dyr plattform.
-
N o r e n g's innlegg in Er dette en bra nok skolepc? Ser etter en middelsstor pc til skolearbeid. ble markert som svaret
Hvis du kan klare deg uten Geforce MX150 og Thunderbolt sparer du nesten 2500 kr og 600 gram med denne:
https://www.power.no/data-og-tilbehoer/pc/baerbar-pc/acer-swift-5-sf514-52t-580n-14-baerbar-pc-blaa/p-684940/
-
N o r e n g's innlegg in Støtter UHD 630 dual 2560*1440 ble markert som svaret
Hvilke utgangsporter har du tilgjengelig på maskinen?
Du må nok regne med å bruke Displayport på de fleste 2560x1440 skjermer, eventuelt Dual Link DVI
Ut fra denne siden: https://www.intel.com/content/www/us/en/support/articles/000025675/graphics-drivers.html
Ser det ut til at du kan kjøre maks oppløsning på opp til tre skjermer.
-
N o r e n g's innlegg in Hjelp med B-2.7 oppgave fysikk 1 ergo ble markert som svaret
Uten vei og arbeid tror jeg du skal se bort fra friksjon i første oppgave og bare regne ut akselerasjon ut fra tyngdens akselerasjon.
Edit:
Bruk bevegelsesligningene for oppgave a
Din antagelse om er korrekt for senere deloppgaver
-
N o r e n g's innlegg in Svak prosessor? ble markert som svaret
Hvorfor ikke sjekke selv hva som stopper?
Last ned og kjør GPU-Z Gå inn på sensor-fanen Start Rocket League Spill en match Gå ut og sjekk GPU Load under sensor-fanen Hvis GPU Load er konstant under 80%, så er det definitivt CPU som stopper deg.
Hvis GPU Load ligger mellom 80% og 99%, så er nok både GPU og CPU begrensende.
Hvis GPU Load ligger konstant på 99%, så er det GPU som stopper deg.
Dette kan med fordel brukes i alle situasjoner du lurer på om du bør oppgradere CPU eller GPU, og er uendelig mer nøyaktig enn hva noen på et forum kan tro vil være rett steg.
-
N o r e n g's innlegg in Sony KD65XE9005 eller Samsung UE65MU7075? ble markert som svaret
Sonys XE9005 er sammenlignbar/bedre i bildekvalitet enn Samsungs Q8F, det er en betraktelig bedre TV enn MU70X5
KD65XE9005 kan komme på tilbud en gang eller to i vår før den sluttes å selges, den fikk ny standardpris i november/desember i følge prisjakt.
Etter mars er over bør du regne med at det er håpløst å skaffe den.
-
N o r e n g's innlegg in Asus R9 290 "hot-spots" ble markert som svaret
Litt mer enn TheKims må kjøles ned. Det oppstår ganske mye varme i strømforsyningen til skjermkortet.
-
N o r e n g's innlegg in [Løst] 65" LG eller 60" Samsung-"testvinner" ble markert som svaret
LG-en har bedre innsynsvinkler, men vesentlig svakere bildekvalitet fordi:
M+ LCD panel gir lavere bildekvalitet per piksel, det er rett og slett færre sub-piksler i TV-en, som er glimrende om strømforbruk er viktig, men en svakhet om du tenker å kjøpe TV-en for å se 4K UHD på den.
IPS-paneler har gode innsynsvinkler, men svak kontrast. M+ LCD-paneler gir spesielt dårlig kontrast med fargetemperatur satt til 6500k (som er standarden for SD, HD, og UHD HDR) fordi den hvite subpikselen har et kraftig blåstikk.
Kort oppsummert: om du ser mye film og serier om kvelden på TV-en din, og du generelt bruker bildemodus Film/Cinema/Movie vil Samsungen være et vesentlig bedre valg.
I tillegg vil Samsungen ha vesentlig færre refleksjoner grunnet et bedre anti-refleks-belegg, høyere lysstyrke om du ser på TV om dagen, større fargerom om du ser på HDR-innhold (stort sett alt av 4K Netflix, UHD Bluray), vesentlig bedre kontrast, og bedre fjernkontroll.
Om du stort sett trekker for gardinene når du ser på TV om dagen, og bildekvalitet i et mørkt rom ikke er så viktig, vil LG-en være billigere og en større TV, men det er ingen tvil om at Samsungen leverer bedre bildekvalitet.
Tester av de to TV-ene: http://www.rtings.com/tv/reviews/lg/uh6150
http://www.rtings.com/tv/reviews/samsung/ks8000
-
N o r e n g's innlegg in HDR TV til PS4 Pro ble markert som svaret
Samsung har kommet med en ny programvare som aktiverer HDR under Game Mode på KS-modellene sine, du trenger ikke tenke på det.
Sonys ZD9 er jo mer enn dobbelt så dyr, men den er jo også en god del bedre på HDR i seg selv takket være den lokale dimmingen sin. Hvis du vil ha et steg opp fra KS-modellene til Samsung uten å betale 50 000 kr bør du holde et øye med LG sine OLED-modeller, det er rimelig å anta at en eller annen butikk vil gjøre et stunt der.
-
N o r e n g's innlegg in CrossFire med 2 forskjellige AMD-skjermkort ble markert som svaret
Kortet du har i PC-en nå vil jeg fraråde å kjøre i CFX, det er for svakt til at det er noe poeng. Hovedkortet du bruker i PC-en din nå vil ikke gi en god opplevelse under CFX, primært fordi det andre kortet vil få vesentlig høyere forsinkelse mot CPU og det andre kortet. R7 260X kan kun kjøres i CFX med R7 260X eller R7 360, men som tidligere nevnt er det for svakt til at det vil gi en god opplevelse.
Kjøp heller et R9 380 som er mer enn dobbelt så raskt som ditt nåværende kort.
-
N o r e n g's innlegg in Mulig med DDR4 ram i AMD prosessor? ble markert som svaret
Her er grunnen til å integrere minnekontroller på CPU-brikken: http://www.guru3d.com/articles_pages/core_i5_750_core_i7_860_870_processor_review_test,15.html
Integrerte minnekontrollere øker minneytelsen, reduserer latency, reduserer kompleksiteten av kretskortet, og reduserer strømforbruket.
-
N o r e n g's innlegg in 970 eller 390 msi ble markert som svaret
Jeg vil tro komponentene vil fungere i hvert fall frem til 2020, men om det vil vare kommer helt an på dine forventninger til ytelse i spill. Det er helt umulig for meg å vite hvordan spillkravene vil være om to år, men om det fortsetter med samme tempo som fra 2012 er det gode muligheter.
-
N o r e n g's innlegg in Oppgradere fra Crossfire Radeon HD 6950 1GB til ? ble markert som svaret
Rent ytelsesmessig er det ikke store forskjellen på GTX 970, 290X, og R9 390, som er de mest aktuelle kortene for din oppløsning. Men sånn rent praktisk sett:
R9 390 har 8GB VRAM, men GTX 970 og 290X har fortsatt mer enn nok VRAM i alle tilfeller på 1440p.
GTX 970 har halve (!) strømforbruket sammenlignet med R9 290X og R9 390, dette gir forskjeller i varmeproduksjon og støynivå.
GTX 970 har støtte for MFAA, som gir deg nesten like bra kvalitet som 2xMSAA med nesten like bra ytelse som 0xMSAA.
R9 390 og 290X har mer rå regnekraft og minnebåndbredde, men dette har ikke gitt noen fordeler i spill frem til nå. Mulig det vil gi utslag med dx12 når det begynner å bety noe om et par år, men sannsynligvis vil GTX 970 levere kompetetiv ytelse.
Nvidia er flinkere til å levere støtte for flere skjermkort om du skulle finne på å oppgradere til SLI/CFX i fremtiden som du gjorde med dine 6950, en del nyere titler som Witcher 3 og Dying Light har rett og slett ikke fungert skikkelig med CFX.
Både AMD og Nvidia har fungerende
Dessverre er ikke AMD like flinke til å konkurrere i 2015 som de har vært i 2008, 2009, 2010, 2011, og 2012 der de konsekvent leverte bedre ytelse per krone enn Nvidia uten å henge betydelig etter funksjonalitetsmessig, og i tillegg var tidligere ute på markedet med nye kort. R200-serien var knallbra da den kom ut i oktober 2013, men det fungerer vanvittig dårlig å relansere R200-serien nesten to år senere uten å gjøre annet enn å øke prisene sammen med et Fury-kort som AMD med fordel kunne lansert rimeligere eller i det hele tatt latt vær.
Kort oppsummert:
Kjøp GTX 970, AMD er ikke et reelt alternativ i dag.
-
N o r e n g's innlegg in [Løst] Ny skjerm og nytt skjermkort for Gaming ble markert som svaret
En trygg og god kombinasjon er en 1080p monitor med G-sync og et GTX 970. Neste steg opp blir helt åpenbart 980 Ti med 27" Swift, å gå for GTX 980 er rent tull i dag.
En ting man bør være obs på: med en G-sync monitor er du nødt til å ha et Nvidia-skjermkort for å kunne bruke G-sync, hvis AMD (eller en nykommer) i fremtiden skulle vise seg å ta ledelsen på markedet er du i så tilfelle nødt til å enten bytte skjerm, ta til takke med Nvidias skjermkort, eller godta at du ikke får brukt G-sync på skjermen.
-
N o r e n g's innlegg in [Løst] Sammenligning av 5850 og R7 240 ble markert som svaret
Ettersom AMD har gjort en helrenovering av grafikkarkitekturen sin er det umulig å sammenligne spesifikasjoner mellom GPUer. Et kort i R200-serien får unnegjort vesentlig mer arbeid med samme kjernetall og frekvenstall, men R7 240 er såpass svakt at det ikke slår ut. Første kort i R200-serien som er sterkere enn et 5850 TOXIC blir R7 260X, ytelse i forhold til pris har ikke forbedret seg i nærheten av så bra som tidligere generasjoner.
-
N o r e n g's innlegg in AOC g2460PQU Kun 60Hz, får ikke satt 144Hz ble markert som svaret
Det kommer av at hovedkortet i desktop-replacementen din ikke har signalbaner for Dual Link DVI, det støtter bare Single Link.
AMD støtter forøvrig 144Hz oppdatering over displayport, problemet her er at skjermen din kun kan kjøre 144Hz over DVI takket være dårlige løsninger fra AOC.
HDMI er tiltenkt TVer, PCer kjører ofte noe som heter overskalering når HDMI-porter brukes. En PC-skjerm skal du aldri bruke HDMI på.
DVI er tiltenkt PCer, og er et greit alternativ om skjermen mangler displayport. Ikke kjøp en PC-skjerm uten displayport i dag.
Bildekvalitetsmessig skal det ikke være noen forskjell på HDMI/DVI/displayport, det har kun noe å si i forhold til maksimal oppløsning og eventuell tukling med farger/kontraster på driversiden (HDMI får nesten aldri samme farger og kontraster som DVI med Nvidia-kort...)
-
N o r e n g's innlegg in Trenger hjelp! intel i7 eller AMD A10 til bilderedigering? ble markert som svaret
Ingen laptop-prosessorer fra AMD er virkelig firekjernet, i praksis er det bare to kjerner som jobber på fire arbeidsoppgaver samtidig.
Intel-prosessoren du ser på er firekjernet, men i praksis jobber de fire kjernene på åtte arbeidsoppgaver samtidig.
Frekvensen en prosessor jobber på har veldig mye å si for ytelsen, men det er viktig å ta i betraktning at på mikronivå jobber ikke alle prosessorer på samme måte. Kort fortalt: Intels prosessorer får gjort unna betydelig mer arbeid per puls enn AMDs prosessorer.
CPU Cache er hurtigminne for prosessorer så de slipper å hente inn data fra systemminnet, dette er fordi det tar prosessorer omtrent 100 ganger så lang tid for hvert nivå med Cache data må hentes fra. Jo mer jo bedre selvsagt, men igjen har det mye å si hvordan prosessorene arbeider med Cache.
-
N o r e n g's innlegg in Battlefield 4: Multiplayer ble markert som svaret
Skytingen er designet så man har lengre tid på å sikte, større hitboxer, mindre rekyl, dårlig designet hitdetection, kort og godt for å kompensere for at 70% av spillerne bruker en xbox- eller PS-kontroll. Det er fortsatt "skyt først for å vinne" som regjerer framfor "skyt mer presist for å vinne."
Kartene er også designet på en slik måte at man alltid er i action, meta-områder har få vinkler for angrep samtidig som gjør det enkelt å dekke flere områder samtidig og samtidig slår hardt ned på aggressiv spilling, det er også ekstremt mye cover i akkurat passe høyde som gjør det enklere å holde seg beskyttet.
Fokuset er i stor grad på enkeltmannsprestasjoner, men det er ikke noe ranking-system i spillet (utenom hvor mange timer/XP du har giddet å skaffe deg) som styrer hvem du møter.
For all del, det er et greit spill, men det er ingenting ved det som gjør meg interessert.
-
N o r e n g's innlegg in [Løst] Passer en 560ti i en PCI Express 3.0 x16? ble markert som svaret
PCIe er bakoverkompatibel både fra CPU og utvidelseskortets perspektiv, det som skjer er at hastigheten blir begrenset til toppfarten for den "tregeste" komponenten.
Hvorfor du ikke har satt ditt nåværende skjermkort i PCIe 3.0-sporet skjønner jeg virkelig ikke, for dette pleier å stå skrevet i hovedkortmanualen.
Angående flere skjermkort, så støtter ikke hovedkortet ditt SLI, så du vil ikke få noen ytelsesøkning i de fleste spill av å bare sette inn et ekstra skjermkort.
Angående VRAM, så må innholdet i dette speiles mellom hvert skjermkort for at SLI og CFX skal fungere, i praksis får du altså ikke høyere VRAM-kapasitet.
Hvis du skal ha en reell oppgradering vil jeg anbefale deg å se etter et brukt 670, 680, eller 7970, alternativt et nytt R9 280, 280X, 760, eller 770. Det er definitivt ikke verdt det å bytte hovedkort bare for å kunne kjøre SLI.
Det er ingen grunn til å beholde 560 Ti som hovedkort om du setter inn et kraftigere skjermkort heller.
-
N o r e n g's innlegg in Problem med amd dual graphics ble markert som svaret
Etter litt undersøkelse har jeg funnet ut at APUen har mer minnebåndbredde enn den dedikerte GPUen, så du får nok bedre spillytelse fra APUen enn fra den dedikerte GPUen uansett, det forklarer også hvorfor dual graphics fungerer så dårlig som det gjør.
-
N o r e n g's innlegg in [Løst] AMD hjelp, APU og "dual graphics". ble markert som svaret
Med så svake prosessorer som du får på FM2+ har det ingenting å si hvor mye båndbredde det er melom CPU og GPU, flaskehalsen er prosessorytelsen. PCIe 3.0 har enda ikke vist seg å være nyttig for en normal forbruker.
A10-7850k kan parres med R7 240 og R7 250, men jeg er skeptisk til om det er noe å anbefale framfor en billigere prosessor og et GTX 750 Ti.
Selv et HD 7750 holder greit følge med en Dual Graphics-løsning: http://www.computerbase.de/2014-03/amd-dual-graphics-auf-dem-a10-7850k-kaveri/2/
GTX 750 Ti er jo godt og vel dobbelt så raskt som et 7750...
-
N o r e n g's innlegg in [Løst] RenderAheadLimit? ble markert som svaret
2 eller 3, lavere enn det skaper ujevn og varierende ytelse.
-
N o r e n g's innlegg in Har ustabil multiplier... Asus Formula v-- amd 8350 ble markert som svaret
Her er løsningen:
Ta skjermbilde av CPU-Z Åpne skjermbildet i Paint Fjern (7-22) ??? Profit Det er ingen måte å fikse "problemet" ditt.
EDIT:
Værsågod
-
N o r e n g's innlegg in GTX 770 sli instillinger (PCI-E) ble markert som svaret
Nei, det som skjer er at LGA115X-plattformene bare har 16 spor med PCIe 3.0-båndbredde, med to kort blir det da bare x8 for hvert kort. Det har ingenting å si om det er SLI eller ikke.