Gå til innhold
  
      
  
  
      
  

siDDis

Medlemmer
  • Innlegg

    10 294
  • Ble med

  • Besøkte siden sist

Alt skrevet av siDDis

  1. De fleste vil nok foretrekke IKKE OC, for da får du mindre strømforbruk, mindre støy, og mindre fare for kræsj. Det har vist seg gang på gang de siste årene at overklokking også kan redusere ytelse fordi produsenten AMD/Nvidia har optimalisert autooverklokk og justerer du på basefrekvsensen så blir deres autooverklokk algoritme ikke like god. Overklokking er noe som er totalt dødt idag. Har ikke overklokket noe på 10 år nå. Ser ikke gevinsten lengre, bare tap av verdiful tid.
  2. Hele greia er en big shitshow nå. Jeg tipper det mangel på produksjonskapasitet siden enterprise har et stort behov for GPUer. Situasjonen er mye mye verre idag enn data minere hamstret GPUer for mange år siden. Og tredjepartene utnytter situasjonen med å ta betalt 5000kr ekstra for OC firmware. Det prøver seg på det samme med Amd korta. Greier meg helt fint med 3090, ingen krise. Tipper mye vil skje de neste 2-3 årene som gjør det verdt å vente.
  3. AMD har de beste Linux driverne, og er de eneste som per nå fungerer med HDR (sammen med Plasma 6)
  4. OC modeller er tullball. Det samme er å betale 5000kr for et ekstra RGB lys. Overklokking er helt dødt i dag, alle CPUer og GPUer har dynamisk klokking basert på strømforbruk og temperatur. Bytta kjøler på 9950X her for 2 måneder siden, gav meg 10% bedre ytelse uten å måtte stille på en dritt.
  5. Ser at flere kilder nevner at restock av RTX 5090 til et mer normalt nivå kan ta flere måneder. Da tror jeg at jeg mister interessen, for jeg gamer ikke så mye på sommeren. Får vente til neste generasjon, eventuelt se hva som skjer til høsten.
  6. Gjør det? Finner ingenting om det. Du vil også spare VRAM med å bruke DLSS, selv om det spiser opp 1GB av minnet. Nvidia har også flere spennende ting som kan hjelpe VRAM bruk med tiden, som neural rendering. Mange av dere har også sikkert flere programmer oppe som også stjeler en chunk av VRAM
  7. 16GB vram er nok, Det er forskjell på bruk og allokert, samt noen spill har veldig uoptimaliserte innstillinger der f.eks textures blir lastet inn uten noen compression.
  8. Sånn har det vært siden Nvidia lansert CUDA for 8000 serien for snart 20 år siden. Så har kom AI-bølgen, for 15 år siden, så eksploderte ai-bølgen med chatgpt for 2 år siden. Om du tror AMD sliter? Hvordan tror du Norske og EU bedrifter stiller seg? De henger enda mer etter AMD.
  9. Prøvde i 5 minutter eg og, gav opp. Kan aldri huske å ha hatt så store problemer på lanseringsdato, prøvde proshop, komplett, elkjop og nvidia. Uten tvil at Nvidia har gjort en skikkelig dårlig jobb med å få produsert nok til lansering.
  10. Det er veldig lite som har blitt bedre, de som kjøpte 4090 fikk mye valuta for pengene. Ikke minst har de også tjent på at kronen har svekket seg. For de som er på 3080/3090 og som valgte å vente, så er nok tiden inne for å oppgradere. Men det er ingen krise, de fleste kan også vente 2 år til.
  11. De har vell alltid pleid å annonsere ny arkitektur til bedriftsmarkedet først?
  12. Tok 2.5 år fra 40xx til 50xx, kan godt ta 2.5 år til
  13. Det er mye ai til gaming også. Gi det noen år, så vil nok forskjellen på 4090 og 5090 være enda større. Eller du kan vente til 6090. Eg har vært knallfornøyd med 3090 i 4.5 år, men jeg ser at det er på tide å oppgradere. Har du 4090, så greier du nok å vente til 6090.
  14. Selvfølgelig, det er jo fremtiden. Å teste gamle spill som allerede kjører helt maks på min RTX 3090 er totalt uinteressant.
  15. Hardware unboxes folka er så talentløse, hvor er benchmark av Cyberpunk i RT Overdrive? Hvor er Indy med Path Tracing? Linus hadde ihvertfall test av diverse AI programmer og workstations. Selv om de også manglet en skikkelig test. Heldigvis var den en dude som utførte en skikkelig test:
  16. Du skal virkelig jobbe for å legge merke til artifacts, og inputlag er så lite som 10ms mer for de fleste. For online spill, så er allerede idag latterlig enkelt å få lav inputlag og 200fps så lenge du har et skjermkort som er maks 10 år gammelt.
  17. 4090 vil holde seg høyere enn enn 5080 pågrunn av VRAM. Det er et community der ute som gjerne støvsuger markedet for billige GPUer med mye VRAM. Og sånn vil det være noen år til. Samme gjelder 3090, om folk begynner å selge 3090 for under 5000kr, så vil jeg i hverfall begynne å hamstre.
  18. DLSS 4 kommer også til 3 og 4 serien 🙂 Men 3 serien får ikke FrameGen, fordi den mangler hardware for den, enten det er i form av Optical Flow Accelleration eller Tensorer med FP8 støtte, hva DLSS 4 egenlig bruker er litt uklart, noen sier OPA, andre sier ren FP8. 4 og 5 serien har FP8 støtte. Men 4 serien får ikke multi fram gen, hvorfor er også uklart. DLSS 4 bruker transformerarkitektur fremfor CNN. Tranformere har vist seg å være mye bedre på ekstrapolering, men har ofte krevd betydelig lengre treningstid og krever også mye mer data å trene på. Spilldata er heldigvis lett å produsere i store mengder. Nvidia har tydligvis gjort en god del optimaliseringer her, så dette blir utrolig spennende for alle. Men de fleste som eier skjermkort i 4 serien i dag, vil få 10-20% bedre ytelse med DLSS 4 + bedre bildekvalitet. De som eier 3 serien får kanskje 10% bedre ytelse, men uansett bedre bildekvalitet. F.eks du kan gå ned fra DLSS quality til DLSS 4 balanced og enda ha bedre bildekvalitet enn DLSS 3 Quality.
  19. Nei, du har jo allerede framegen og du får DLSS 4 som er raskere og bedre. Du kan fint vente 2 år til 🙂 Jeg har 3090, selv om jeg likte framegen, så er det først den siste tiden spill har fått støtte for det, så nå er det på tide å oppgradere. Men selv 3090 holder til det meste.
  20. Ingen anelse, har ikke datagrunnlag for å si hva som er problemet. Men ser du på andre videoer med 4090, så ser du at den allokerer lett over 20GB vram med samme innstillinger. Memory management er et komplisert emne, med 50 års innovasjon. Jeg ser feil på dette overalt, f.eks mange som deaktiverer swap. Det blir litt som å fortelle ekspertene på dette som f.eks Apple med 8GB laptopper eller Nvidia at de ikke vet hva de holder på med. Men de kan dette mye bedre enn youtube-gjengen som ikke kan fnatt om memory management. En må også huske på at PS5 PRO er den råeste konsollen, og det blir ikke akkurat masseprodusert spill som krever mer enn PS5, og den tilsvarer en RTX 2070, og sånn vil det være i minst 4 år til. Cyberpunk er jo et av de vakreste spilla enda, og er nettopp blitt 4 år.
  21. Er 16GB vram som ble allokert. Det er ikke det samme som å bruke. Vi vet heller ikke om de tallene baseres på andre apper som også har allokert vram. Du glemmer også at GPUen også har L1 og L2 cache, som er mye mye mer sensitiv for å få maks ytelse. Om du skulle oversubscribe minnebruken, så vil driveren automatisk bruke systemminne. Men andre ord, det er ingen grunn til bekymring så lenge du ikke skal drive på med trening av modeller med høy batch size. 16GB vil være mer enn nok de neste årene. Det skal være nok til spill + video capture, dlss, frame gen, nvidia broadcast, osv osv osv.
  22. Forskjell på bruk og allokert. 16GB vil nok være nok for de fleste spill i 4K. En må heller ikke glemme at Nvidia også lanserer Neural textures/shaders for å spare enda mer minne.
  23. Tror jeg går for 5080, jeg trenger ikke 300 fps i Indiana Jones med path tracing. 200 holder i massevis, jeg er egentlig super fornøyd med 60 fps i single player spill.
  24. Basert på dette, https://wccftech.com/early-pricing-nvidia-geforce-rtx-5090-rtx-5080-based-acer-predator-pcs/ så ser det ut som jeg hadde rett i antakelsen om at prisen på 5090 kommer til å blir mellom 2499-2999 USD.
×
×
  • Opprett ny...