Gå til innhold

Myter som går meg på nervene


Anbefalte innlegg

Skriver denne tråden, da jeg føler det er noen antagelser og nesten-myter jeg bare må ut på det digitale arket i dette forumet. I hardware-verdenen har jeg vært en god del interessert i skjermer, skjermkort og prosessorer. Og det har det blitt en generell antakelse om hva som er "bra" og "nødvendig" (eller "akseptabel"), for enkelte. Mye av det har vist seg, fra personlig erfaring, å være svada, og da ønsker jeg å ta opp emnet og høre hva deres meninger er (vil høre virkelige kjennsgjerninger og erfaringer, ikke repeteringer av hva folk "tror" basert på det de har lest). Legg også merke til at denne tråden er skrevet i en veldig personlig og essayistisk stil, og er ment som en personlig kjennsgjerning (om du kan kalle det det) fra min side, og er på ingen måte et forsøk på å etablere fakta, men heller provosere frem diskusjon og meninger fra dere.


Myte 1: i7 er hele tiden veien å gå, hvis man ønsker flertrådet arbeid. Hvorfor det? Jo, for med i5 har man bare 4 kjerner, mens i7 gjerne "emulerer" 4 ytterligere kjerner. I tillegg har CPUer i det enda høyere sjiktet hele 6 kjerner og 12 tråder, eller 8 kjerner og 16 tråder (5000-serien).


Og jeg leste meg inn på dette når jeg bygde min først PC. Jeg leste meg ganske mye inn på det, og fant ut at rent spillmessig så var flerkjernede spill antatt som "fremtidsrettet", mens det for de som kjørte bilde- og videoredigeringsprogrammer "måtte ha det" -- ettersom disse programmene var flertrådet. Og dette var noe jeg hørte for 5 år siden. Så hvordan er realiteten, og hvordan har det utviklet seg?


Jeg hadde en i7 2600K (4 kjerner, 8 tråder) på min stasjonære PC. Og der kjørte jeg Photoshop, et program jeg vil påstå er nokså godt til å inkludere størsteparten av bilderedigeringssegmentet, både for amatører og mer dyktige arbeidere. Programmet kjørte helt perfekt uten noen som helst problemer. Jeg kjørte også enkelte populære videoredigeringsprogrammer uten store problemer -- men her vil jeg uansett påstå at dette er en gruppe som ikke inkluderer en stor andel, og at majoriteten gjerner driver med enkel videoredigering (Youtube-videor og ikke noe profesjonelt), noe jeg gjorde.


Myte 2: Minne er viktig, da PCen din bruker alt mulig rart. Igjen er dette en ting som opphøyes som "superviktig". Ikke bare minnestørrelse, men også fart. På min i7 2600K valgte jeg å kjøpe meg 16 GB minne med i 1866 MHz. Såpass måtte man tross alt ha for å kjøre nye spille eller "tunge programmer" (en annen morsom ting er måten kravet mot minne og CPU brukes om hverandre; så du sitter ganske så godt fast hvis du ikke tar av helt med god CPU + god minne i følge enkelte).


Debunk av Myte 1 og Myte 2: Men så kjøpte jeg meg en ultrabook denne høsten. Jeg kjøpte meg en Sony Vaio Pro 13. Den hadde en i7 4500U. Det var snakk om 2 kjerner og 4 tråder. Samtidig hadde den bare 4 GB minne. "Dette kan jo vel ikke kjøre flertrådede programmer enkelt", eller "det kan ikke kjøre mange programmer med en gang før det blir treigt og fylt opp", tenkte jeg, med alle de overnevte påstandene i bakhodet.

Så lastet jeg ned Photoshop. Og selv på "standard performance" og CPU og vifte i stillemodus kjører den Photoshop helt glatt. Og da snakker jeg om bilderedigering på bilder med over 4K-oppløsning. Og så hadde jeg gjerne Photoshop, Spotify, Chrome med 14 faner (ja, jeg er den type uryddige person!), uTorrent med full nedlastning og en rekke andre ting oppe på en gang. Og det tok meg opp i 80% minnebruk. Jeg gikk enda lenger og åpnet og kjørte enda flere programmer (CS: GO, antivirusprogrammer, osv.) samtidig, og klarte å komme meg på 100% minnebruk, mens jeg fortsatte å stable på bare for å se hva som skjedde. Og selv om jeg hadde 100% minnebruk, måtte jeg gå et enda steg lenger, til å ha et urealistisk antall programmer oppe, før jeg merket lagg av typen som gikk utover ytelsen.


Konklusjon: minnekravet folk slenger rundt seg er overdrevent og feil. Og selv om man får 70-100% minnebruk, så er det ikke nødvendigvis noe krise. Selv de som driver med tunge videoprogrammer, som angivelig må ha massevis av minne, føler jeg (ut fra det scenarioet jeg utsatte meg selv for) kunne ha greid seg helt fint med 8-12 GB minne.

Når det gjelder CPU gjelder forøvrig det samme. Jeg har ikke mye anelse om hvorvidt arbeidet til en CPU er, men jeg legger merke til den stadige uttalelsen om at CPU er viktig for flertrådet arbeid (altså programmer som støtter dette eller at man kjører flere programmer/økter og dermed benytter flere tråder). Men eksempelet mitt viste jo det nettopp motsatt. Jeg klarte fint med 2-4 kjerner å kjøre Photoshop og en hel rekke andre programmer. Så dette forteller vel egentlig at "støtte for flere tråder" ikke er synonymt med "bør ha", slik mange skal ha det til. Adobe Photoshop støtter sikkert mange tråder, men klarte seg fint med de 2-4 jeg hadde. Og jeg vil fra et rent logisk ståsted at de mest CPU-tunge spill i dag i langt mindre grad har denne flertrådede støtten optimalisert/integrert enn noe sånt som Photoshop, så da vil vel påstanden være enda sterke angående gaming. Et spill som BF4 støtter kanskje opp til 8 tråder; men vil det si at folk med 2-4 kjerner vil ha vesentlige ytelsesforskjeller i spillet enn med 4-8 kjerner? Min egen erfaring på BF4, samt eksempler på nettet med folk som kjører 2-4 kjerner på BF4 med bedre grafikkort enn det jeg har (har gjerne sammenlignet grafikkortytelsen på en stasjonær GPU og på den måten sammenlignet), har vist at det virkelig ikke er det.

Så hvorfor det store fokuset på flere kjerner, når 4 kjerner viser seg å være mer enn nok? Og selv en 4 kjerners CPU med 8 tråder (som i min erfaring er mer ekstremt og bredt enn det folk skal ha det til), som selges ganske billig, blir gjerne nedprioritert til fordel for sekskjerende Intel-CPUer. Hvorfor det!? Jeg vil nok få mange "jeg"-svar, hvis jeg spør de antall personer som venter på Star Citizen, tror de er klar til spillet med en 3930K/4930K. Likevel har jeg det vanskelig å tro at en 4-kjerners i7 vil ha noen som helst ytelsesforskjell.


Myte 3: Responstid i skjermer er essensielt for å få god flyt og gode "skills" i FPS-spill og andre konkurranse-baserte spill.


Debunk av Myte 3: Dette er en ting som jeg har irritert meg grusomt over. Folk snakker om responstid i skjermer på lik linje med Hz, når dette på ingen måter er tilfellet. Der jeg som erfaren gamer uten tvil kan differentiere en 120Hz- med en 60Hz-skjerm, er det samme ikke tilfellet angående responstid. Jeg har 120Hz-skjermer med alt fra 1-3ms, og kan håndet på hjertet si at jeg merker NULL (og da har jeg tom. studert de nøye og nærmereflere ganger der jeg konsekvent og urealistisk har "lett" etter ulikheter) forskjell. Jeg kjøpte meg forøvrig en koreansk QNIX IPS-skjerm med 1440P som hadde 6ms. Den overklokket jeg til 120Hz, og testet ut med min 120Hz BenQ-skjerm med 1ms. Og selv der måtte jeg nærmest lete for å kunne se forskjellen i responstid. Jeg tror i tillegg at overklokkinga av QNIX-skjermen ga den en del mer latency, og kan ha bidratt litt til at jeg merket denne forskjellen -- selv om den uansett var knapt merkbar.


Konklusjon: responstid er ikke så vesentlig folk skal ha det til, og man må ha større forskjeller for å kunne skille skjermer med ulike responstid. Dette kan dog være en subjektiv sak, men jeg finner det bemerkelsesverdig at jeg med 20 år First Person Shooter-spilling kan enkelt se forskjell mellom ulike FPS og andre lignende faktorer som er utløsende for refleks og syn, men ikke forskjellen mellom et par ms responstid.


Myte 4: Det er best å ha grafikkort med VRAM som er på høyde og gjerne høyere enn det spillet i ønsket oppløsning og grafikkinstillinger tar opp.


Dette er igjen svada. som med eksempelet om om minne ovenfor, så betyr det nødvendigvis ikke at man må alltid holde seg godt under 100% minnebruk. Det er ikke slik at det er verdens ende, eller at man får seriøse ytelsestape med 100% minnebruk. Dessuten er minne ikke bestemmende for ytelse i et skjermkort. GTX 780 Ti-kort med 3 GB minne klarer selv i høyere oppløsning (3K-4K) å enkelt konkurrere med et Radeon 290X-kort med 4GB videominne. Det er også bare å se hvor godt et GTX 690 med 2 GB videominne yter i høyere oppløsning: tapet er ikke så stort i forhold til en Radeon 7990, med tilsvarende ytelse og 50% mer VRAM.


Debunk av myte 4: jeg har allerede nevnt gode eksempler. Men et enda bedre et er mine to gamle GTX 570 i SLI. Ett GTX 570 yter ca. 60% av en GTX 780, og likeså skal GTX 570 yte rundt 90-100% så bra som et GTX 780 -- og nøyaktig dette resultat får jeg hvis jeg tester det på spill fra 570s generasjon, som BF3 (GTX 780 får i gjennomsnitt 110 FPS, mens GTX 570 SLI får rundt 100 FPS), da vi må, for å følge myten om "VRAM", forholde oss til spill som krever lite VRAM. GTX 570 har 1,3 GB VRAM. Det er rett under hvor mye VRAM BF3 bruker i 1080P og i Ultra.

Hva med BF4? Den bruker nesten dobbelt så mye: 2,8-3GB VRAM i 1080P og i Ultra, dvs. over dobbelt så mye VRAM som GTX 570 har. Likevel fikk jeg 85 FPS på GTX 570 SLI, mens jeg på et GTX 780 fikk 90 FPS.


Jeg føler for å skrive dette utrolig lange innlegget dels fordi jeg har drukket en god del kaffe i dag, og dels fordi jeg føler dette er den eneste måten å gi utspring for frustrasjonen min på; for jeg ser daglig enkelte brukere, samt faste brukere som ellers utstråler stor kunnskap for datahardware, som kommer med uttalelser og påstander som jeg som en "casual" person føler ikke holder mål med deres kunnskapsnivå. For eks. er det utrolig frustrerende å lese Hardware.nos anmeldere, eller dets brukere på forumet, snakke varmt og høyt om "ytelsen" til "den nye Intel-CPUen", når realiteten er at ytelse i Intel-CPUer har forblitt mer eller mindre det samme i mange, mange år nå. Et annet eksempel som daglig gir meg facepalm er hypen over 4K-TV (les: TV, ikke SKJERM). Å se erfarne brukere skrive om hvordan de "ikke kan vente til de får kjøpt en 4K-skjerm", når disse personene veldig godt vet at innhold og brukbarhet for 4K ikke vil være av en vesentlig mengde innen 4-5 år (og selv da vil den være nokså beskjeden), er nesten til å gråte av. Er det slik at enkelte er så rike og bortskjemte i dette miljøet at de tillater seg selv å være dumme, irrasjonelle og lite tenkende? Eller er det bare jeg som er pirkete? Her om dagen fikk jeg kritikk fra en dataingeniør (!!!) om hvor patetisk det hadde vært av meg å kjøpe et i7 3930K: "det er jo et så gammelt CPU", uttalte han! Og samtidig driver folk å anbefaler mennesker med oppsett som ikke krever mer enn 400W, 750-800W strømforsyninger med argumentet om at "det er uansett bedre å ha høyere", når de godt vet at en 400W-PSU vil vare i mange, mange år (lenge før de kjøper ny PC).

Endret av La Menthe
  • Liker 4
Lenke til kommentar
Videoannonse
Annonse

Kort oppsummert er jeg enig - vi har egentlig lenge vært i en posisjon hvor det er vanskelig å få noe dårlig i det helt moderate prissjiktet; det eneste måtte være om man finner noe gammelt som noen har glemt å prise ned. Hvis man kjøper en ny i3, 4GB RAM, og et nytt skjermkort til ~1500 kan man egentlig håndtere det meste av spill og andre hjemme-aktiviteter helt fint.

 

Ikke for det, jeg har mer. Men man skal ikke undervurdere hvor mye man får for pengene i dag, og hvor lite effekt de siste tusenlappene har.

 

 

På den annen side driver jeg og balanserer kjerner/hastighet/minne for nok en analysemaskin på jobben, og der er myte 1 og 2 helt sanne. Raskere kjerner er raskere, flere kjerner er bedre, hyperthreading hjelper (10-15% sist jeg lekte med det), det er avgjørende å ha nok RAM til å slippe å swappe (vi har 128GB i den nyeste, men vil gjerne ha 256GB i den neste - men det er mye ekstra penger), og i det hele tatt. Men det er vel ikke akkurat denslags maskiner du snakker om.

Endret av Djn
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...