Gå til innhold
  
      
  
  
      
  

siDDis

Medlemmer
  • Innlegg

    10 297
  • Ble med

  • Besøkte siden sist

Alt skrevet av siDDis

  1. Nei, det blir som Bill Gates sa at 640kb er nok. Får ikke RDMA, begrensa til MB/s istedenfor GB/s, og når du har 20x kabler, så bruker du 100 watt istedenfor 20 watt. Og latency, så kan du tenke deg når du bruker lynraske NVMe disker hvor mye tregere de blir over et nettverk med høy latency, altså du går fra 1 million iops til 50 000.
  2. Kabler kjøpt på AliExpress er ofte av VELDIG dårlig kvalitet. Selvfølgelig finnes det seriøse selgere der, men jeg har gitt opp hele plattformen til kjøp av datautstyr. Problemene koster i form av tid brukt på unødvendig feilsøking og det florerer av piratkopier og varer som har feil og mangler. Derimot å handle via Ebay fra USA så får jeg alltid skikkelige kabler. Av og til er det noen som selger bulker av kabler på Finn og som jeg har hatt god suksess med og. Men CAT5e, CAT6, CAT6a osv er dødt. Det er altfor altfor tregt, bruker for mye strøm, har for høy latency. Nå har jeg fiber rundt hele huset, kjører 40GbE, 50GbE og 100GbE på det meste. Kan oppgradere til 200GbE eller 400GbE med samme fiberkabel. Disse hastighetene har blitt grisebillig de siste årene. Har noen kameraer som bruker PoE på CAT 5e kabler. Det som er så fint med disse hastighetene er at lagring, f.eks Steam spillene er plassert langt vekke fra maskinen. Men er alltid tilgjengelig, enten det er PC1 eller PC2 eller PC3 som skal spille. Ytelsen er minst like god som å ha det lagret lokalt, men stort sett mye bedre, fordi serveren har så mye ram at de mest populære spillene blir da cachet i ram. Og når vi snakker om sånne hastigheter så er det selvsagt at en bruker RDMA for å slippe å involvere CPU for å lese data fra andre maskiner. Mange klager også over strømslukere med skyhøyt støynivå for disse hastighene, men en Mellanox 40GbE sx6036 switch bruker veldig lite strøm, ca 30 watt ved idle, og kan justeres til et veldig behagelig støynivå.
  3. Dette er ser ut som et minst 15 år gammelt spill. Likte Metroid Prime på Gamecube, men fullførte aldri nummer 3 på Wii. Er utrolig skeptisk til dette, ser ut som samme type gameplay som før, og det er helt utdatert.
  4. De fleste vil nok foretrekke IKKE OC, for da får du mindre strømforbruk, mindre støy, og mindre fare for kræsj. Det har vist seg gang på gang de siste årene at overklokking også kan redusere ytelse fordi produsenten AMD/Nvidia har optimalisert autooverklokk og justerer du på basefrekvsensen så blir deres autooverklokk algoritme ikke like god. Overklokking er noe som er totalt dødt idag. Har ikke overklokket noe på 10 år nå. Ser ikke gevinsten lengre, bare tap av verdiful tid.
  5. Hele greia er en big shitshow nå. Jeg tipper det mangel på produksjonskapasitet siden enterprise har et stort behov for GPUer. Situasjonen er mye mye verre idag enn data minere hamstret GPUer for mange år siden. Og tredjepartene utnytter situasjonen med å ta betalt 5000kr ekstra for OC firmware. Det prøver seg på det samme med Amd korta. Greier meg helt fint med 3090, ingen krise. Tipper mye vil skje de neste 2-3 årene som gjør det verdt å vente.
  6. AMD har de beste Linux driverne, og er de eneste som per nå fungerer med HDR (sammen med Plasma 6)
  7. OC modeller er tullball. Det samme er å betale 5000kr for et ekstra RGB lys. Overklokking er helt dødt i dag, alle CPUer og GPUer har dynamisk klokking basert på strømforbruk og temperatur. Bytta kjøler på 9950X her for 2 måneder siden, gav meg 10% bedre ytelse uten å måtte stille på en dritt.
  8. Ser at flere kilder nevner at restock av RTX 5090 til et mer normalt nivå kan ta flere måneder. Da tror jeg at jeg mister interessen, for jeg gamer ikke så mye på sommeren. Får vente til neste generasjon, eventuelt se hva som skjer til høsten.
  9. Gjør det? Finner ingenting om det. Du vil også spare VRAM med å bruke DLSS, selv om det spiser opp 1GB av minnet. Nvidia har også flere spennende ting som kan hjelpe VRAM bruk med tiden, som neural rendering. Mange av dere har også sikkert flere programmer oppe som også stjeler en chunk av VRAM
  10. 16GB vram er nok, Det er forskjell på bruk og allokert, samt noen spill har veldig uoptimaliserte innstillinger der f.eks textures blir lastet inn uten noen compression.
  11. Sånn har det vært siden Nvidia lansert CUDA for 8000 serien for snart 20 år siden. Så har kom AI-bølgen, for 15 år siden, så eksploderte ai-bølgen med chatgpt for 2 år siden. Om du tror AMD sliter? Hvordan tror du Norske og EU bedrifter stiller seg? De henger enda mer etter AMD.
  12. Prøvde i 5 minutter eg og, gav opp. Kan aldri huske å ha hatt så store problemer på lanseringsdato, prøvde proshop, komplett, elkjop og nvidia. Uten tvil at Nvidia har gjort en skikkelig dårlig jobb med å få produsert nok til lansering.
  13. Det er veldig lite som har blitt bedre, de som kjøpte 4090 fikk mye valuta for pengene. Ikke minst har de også tjent på at kronen har svekket seg. For de som er på 3080/3090 og som valgte å vente, så er nok tiden inne for å oppgradere. Men det er ingen krise, de fleste kan også vente 2 år til.
  14. De har vell alltid pleid å annonsere ny arkitektur til bedriftsmarkedet først?
  15. Tok 2.5 år fra 40xx til 50xx, kan godt ta 2.5 år til
  16. Det er mye ai til gaming også. Gi det noen år, så vil nok forskjellen på 4090 og 5090 være enda større. Eller du kan vente til 6090. Eg har vært knallfornøyd med 3090 i 4.5 år, men jeg ser at det er på tide å oppgradere. Har du 4090, så greier du nok å vente til 6090.
  17. Selvfølgelig, det er jo fremtiden. Å teste gamle spill som allerede kjører helt maks på min RTX 3090 er totalt uinteressant.
  18. Hardware unboxes folka er så talentløse, hvor er benchmark av Cyberpunk i RT Overdrive? Hvor er Indy med Path Tracing? Linus hadde ihvertfall test av diverse AI programmer og workstations. Selv om de også manglet en skikkelig test. Heldigvis var den en dude som utførte en skikkelig test:
  19. Du skal virkelig jobbe for å legge merke til artifacts, og inputlag er så lite som 10ms mer for de fleste. For online spill, så er allerede idag latterlig enkelt å få lav inputlag og 200fps så lenge du har et skjermkort som er maks 10 år gammelt.
  20. 4090 vil holde seg høyere enn enn 5080 pågrunn av VRAM. Det er et community der ute som gjerne støvsuger markedet for billige GPUer med mye VRAM. Og sånn vil det være noen år til. Samme gjelder 3090, om folk begynner å selge 3090 for under 5000kr, så vil jeg i hverfall begynne å hamstre.
  21. DLSS 4 kommer også til 3 og 4 serien 🙂 Men 3 serien får ikke FrameGen, fordi den mangler hardware for den, enten det er i form av Optical Flow Accelleration eller Tensorer med FP8 støtte, hva DLSS 4 egenlig bruker er litt uklart, noen sier OPA, andre sier ren FP8. 4 og 5 serien har FP8 støtte. Men 4 serien får ikke multi fram gen, hvorfor er også uklart. DLSS 4 bruker transformerarkitektur fremfor CNN. Tranformere har vist seg å være mye bedre på ekstrapolering, men har ofte krevd betydelig lengre treningstid og krever også mye mer data å trene på. Spilldata er heldigvis lett å produsere i store mengder. Nvidia har tydligvis gjort en god del optimaliseringer her, så dette blir utrolig spennende for alle. Men de fleste som eier skjermkort i 4 serien i dag, vil få 10-20% bedre ytelse med DLSS 4 + bedre bildekvalitet. De som eier 3 serien får kanskje 10% bedre ytelse, men uansett bedre bildekvalitet. F.eks du kan gå ned fra DLSS quality til DLSS 4 balanced og enda ha bedre bildekvalitet enn DLSS 3 Quality.
  22. Nei, du har jo allerede framegen og du får DLSS 4 som er raskere og bedre. Du kan fint vente 2 år til 🙂 Jeg har 3090, selv om jeg likte framegen, så er det først den siste tiden spill har fått støtte for det, så nå er det på tide å oppgradere. Men selv 3090 holder til det meste.
  23. Ingen anelse, har ikke datagrunnlag for å si hva som er problemet. Men ser du på andre videoer med 4090, så ser du at den allokerer lett over 20GB vram med samme innstillinger. Memory management er et komplisert emne, med 50 års innovasjon. Jeg ser feil på dette overalt, f.eks mange som deaktiverer swap. Det blir litt som å fortelle ekspertene på dette som f.eks Apple med 8GB laptopper eller Nvidia at de ikke vet hva de holder på med. Men de kan dette mye bedre enn youtube-gjengen som ikke kan fnatt om memory management. En må også huske på at PS5 PRO er den råeste konsollen, og det blir ikke akkurat masseprodusert spill som krever mer enn PS5, og den tilsvarer en RTX 2070, og sånn vil det være i minst 4 år til. Cyberpunk er jo et av de vakreste spilla enda, og er nettopp blitt 4 år.
  24. Er 16GB vram som ble allokert. Det er ikke det samme som å bruke. Vi vet heller ikke om de tallene baseres på andre apper som også har allokert vram. Du glemmer også at GPUen også har L1 og L2 cache, som er mye mye mer sensitiv for å få maks ytelse. Om du skulle oversubscribe minnebruken, så vil driveren automatisk bruke systemminne. Men andre ord, det er ingen grunn til bekymring så lenge du ikke skal drive på med trening av modeller med høy batch size. 16GB vil være mer enn nok de neste årene. Det skal være nok til spill + video capture, dlss, frame gen, nvidia broadcast, osv osv osv.
×
×
  • Opprett ny...