Gå til innhold
  
      
  
  
      
  

siDDis

Medlemmer
  • Innlegg

    10 261
  • Ble med

  • Besøkte siden sist

Om siDDis

  • Bursdag 30. mai 1983

Profile Information

  • Kjønn
    Mann

Nylige profilbesøk

29 643 profilvisninger

siDDis sine prestasjoner

946

Nettsamfunnsomdømme

4

Hjelpsomme svar

  1. Current pending sector er bare at en blokk "kan" være dårlig Du kan bruke et program som f.eks badblocks for å rydde opp i det. Enten blir blokken fikset, eller så blir den byttet ut med en reserveblokk. Badblocks bør kjøres på alle harddisker før du tar de i bruk.
  2. Det er ikke helt riktig. Optane har lav latency, som folk hjemme legger fort merke til at alt blir kjappere. F.eks hvor fort applikasjoner starter opp. Det beste eksempelet er når du har lite ram, og begynner å swappe. Noe som skjer altfor ofte idag om du har 32GB eller mindre. Båndbredde har mye mindre å si. Men det er riktig at noen databaser blir sykt med raskere med Optane, spesielt RocksDB. I mindre grad SQL Server og PostgreSQL. Utfordringen med Optane er at det har alltid kosta 10x mer enn SSD.
  3. Jeg mener X3D er unødvendig, men ser jo at det fungerer fantastisk bra når memory bandwidth er så begrensa. Det er jo ikke bare spill som er raskere, men flere databaser drar og god nytte av X3D cache. At konsumentkomponenter enda er bare "dual-channel" viser jo hvor kraftig begrensa dagens CPU'er kan bli. Epyc Turin er jo 12 Channel. Jeg mener at tiden er inne å øke memory bandwidth til quad-channel på vanlige konsumerkomponenter.
  4. De fleste harddisker idag er lik kvalitetsmessig, merke har ikke noe å si. SMR er det viktig å være obs på, men flere har begynt å støtte hybrid formatering der du kan selv velge SMR eller CMR mot litt mindre lagringsplass. Jeg er også enig med at størrelse har litt å si når en disk feiler og du må rebuilde. Før tok det timer, idag kan det ta dager. Derfor blir f.eks raid med 1 parity veldig risky. Jeg foretrekker SAS disker i noe større grad enn SATA, rett og slett fordi det har vært mye mindre tull med SAS kabler versus SATA kabler hvor jeg har måttet kastet i fleng de siste 10 årene. SAS disker har også vært enklere å programmere custom idle og standby timere på. Minuset er jo at SAS harddisker bruker ca 15% mer strøm i snitt.
  5. Det er ikke riktig. En NAS vil cache ofte brukte datablokker i RAM og være overlegen på å levere iops og lav forsinkelse. Med RDMA så kan du kopiere data som er cachet i NAS'et sitt minne og overføre til din maskin på under 1 mikosekund. Altså over 5000 ganger raskere enn å lese fra en vanlig harddisk. iSCSI er så effektivt at du ikke merker forskjell mellom native SATA og en iSCSI disk, men ofte vil iSCSI disken være raskere fordi du får større cache. iSCSI fungerer også over RDMA, og kalles da iSER. Om du f.eks bruker du NVMe-oF med RDMA, så er forskjellen fremdeles minimal mellom lokale og remote NVMe disk, selv om en bruker Intel Optane. Det som derimot ikke anbefales er breie raid striper, du vil oppnå optimal ytelse med veldig små raid striper, f.eks 6 disker stripet over to raid5 med 3 disker hver. Jeg kjører fremdeles de fleste spill på HDD basert raid i NAS. Det som ikke er optimalt er skriveytelsen, for den kan ikke caches. Så noen spill er jævlig irriterende å ha på NAS fordi oppdateringen tar for lang tid.
  6. Ingen problem med å bytte HK eller CPU, Linux har god kompatibilitet i motsetning til Windows. Det er et problem idag også, bare slå opp pfsense dokumentasjon for oppgradering. TrueNAS har også i mellomtiden endret fra FreeBSD til Linux. Så der må du starte med ny installasjon... Fordelene med Linux er ganske betydelig, spesielt med tankte på at du der får RDMA støtte, men ettersom jeg forstår så støtter ikke TrueNAS RDMA? Det er jo i så fall helt håpløst om du har 100GbE
  7. Dette var det noen som sa for endel år siden og...men... Hovedproblemet er at du ikke får tilgang eller fleksibilitet til å gjøre mer avanserte ting, eller f.eks automatisere noen prosedyrer. Med ChatGPT idag, så kan alle bruke CLI og like raskt og effektivt. Hvorfor lære deg noe med høy risiko for endring når du kan bruke noe som er stabilt, og vil oppføre seg helt like de neste 30 årene? Hva om du senere må bruke RHEL pågrunn av compliance og SELinux? Kan du CLI, så er det helt likt. Men TrueNAS kjører på Debian, der SELinux ikke har vært prioritert arbeid og heller anbefaler AppArmor som er langt i fra så bra som SELinux. Hva om du er ute og reiser og må bruke SSH for å sjekke status på ditt ZFS pool? Vil du eksponere web-grensesnittet mot internett(Nei fysj!)? Eller bare bruke SSH? Og da er du jo like langt med å bruke CLI. Ja du kan lage SSH-Tunnel eller bruke Wireguard. For 10 år siden brukte jeg PFSense, TrueNAS og Proxmox. Jeg hatet vedlikeholdsarbeidet, og enda verre når ting gikk galt. Mye enklere å bare kjøre Debian, sette opp brannmur med ufw, nas med ZFS, og virtualisering med virt-install og virsh.
  8. Fordelene med ZFS er at det er et moderne filsystem som bygger på prinsippet at et filsystem også skal handtere administrasjon av flere block devices(harddisker, SSD'er osv.) ZFS har f.eks innebygd feilhåndtering, beskytter mot bitråte, og kan reparere(om redundans er tilgjengelig) feil. Integrert volume manager. Du kan ta sub-second snapshot av filsystemet ditt, så du kan gå tilbake i tid og se historikk. F.eks gjenopprette sletta data. Sanntids compression og decompression av data, som øker ytelsen. Noen ganger veldig betydelig om dataen er veldig komprimerbar. ZFS bruker state of the art compression algoritmer som LZ4 og ZSTD. Er lett å replikere endringer til andre maskiner, da bare endringer som har skjedd siden forrige snapshot sendes over nettverket. Har fleksibilitet med cache løsninger, som f.eks den kan cache sync writes og ha SSD som cache. Som regel vil jeg ikke anbefale SSD til cache da de fleste hjemmebrukere sliter med å cache mer enn ram. Veldig brukervennligt, er lett å monitorere, og å finne ut av feil. Når harddisk feiler, så går rebuilds gå mye fortere enn med vanlig raid. Dynamisk blokkstørrelse, tilpass blokkstørrelse for ditt brukt. Innebygd kryptering. Fast dedup kommer i neste versjon, så kan du faktisk bruke deduplisering for å spare plass.
  9. Har holdt på med NAS i 20 år. Ønsker en noe stabilt med lite fikling så er Debian + ZFS tingen. Gammel hardware går fint, min ene backup server er dual core athlon 2, med 8GB ram som kjører ZFS. Holder enda i massevis til 100TB med data. 1. Steg er å install Debian. Her kan du bruke både Google og Youtube. Det eneste jeg ville ha gjort er manuell partisjonering. Der du har 4-8GB til swap, og 1 GB tom partisjon som senere kan brukes til sync writes. Ingenting trengs, men anbefaler uansett veldig å ha swap partisjon. Har swap selv på servere på 1TB RAM. 2. Installere ZFS på Debian. Alt du trenger her: https://wiki.debian.org/ZFS TrueNAS, Proxmox, Cockpit og alle andre vil gi deg hodebry på sikt. Det ser så enkelt ut med GUI, men det er mye enklere med CLI. Den største fordelen med CLI, når du lærer deg det. Så vil det du lærer deg være helt likt de neste 30 årene, akkurat som det du lærte for 30 år siden er likt idag. Er det noe du lurer på så vil ChatGPT hjelpe deg med å forstå kryptiske kommandoer. Tips: Til backup til andre servere så bruker jeg https://github.com/psy0rz/zfs_autobackup Optimaliser noen innstillinger i ZFS: Bruk special metadata devices, øker ytelsen betydelig ved å bruke SSDer til metadata. Om du har special metadata devices så kan du også aktivere caching av små datablokker på disse. Unngå lagring av ekstra metadata når du allerede har mirror/raid fra før av. Set på automatisk compression, zstd algoritmen har like god decompression speed uansett hvilket nivå du bruker. Jo høyere jo bedre compression ratio, men tregere compression. Bruk lz4 om veldig rask compression ved skriving er nødvending. Deaktiver access time metadata på filer. Brukes stort set til mailservere ZFS har dynamisk blokkstørrelse, som reduserer lagring av metadata. Denne kan også finjusteres på mappenivå i ZFS. Bruk default 128kb til det meste. 1M går fint til store filer, som video. Til databaser så anbefaler jeg 16k eller 32k. Til virtuelle maskiner, bruk 32k. Trenger du raskere nettverk, 10G, 40G, 25G, 50G, 100G, 200G, 400G, så kan du bruke RDMA eller RoCE(Mellanox ConnectX 4+ eller nyere nettverkskort fra andre merker. Da har du protokoller som f.eks iSER, NFSoRDMA, NVMe-oF. 1G, 2.5G og tildels 10G kan gå med rask CPU. Men du vil heller bruke CPU til compression i ZFS. Av nettverkskort så er Mellanox kongen på haugen, Chelsio er også bra, men de blir så varme og krever servergrade kabinett med bråkete vifter. Andre merker, inkludert Intel inntil veldig nylig er crap.
  10. Er det noe rart? Forumet her bidrar ikke på noe som helst måte til tekniske diskusjoner, og flere flytter over til andre forum enten på reddit eller servethehome for å diskutere tekniske ting. Før postet jeg kanskje 1-2 meldinger i snitt her, men idag er jeg innom 1-5 ganger i måneden og skriver noe. Siste innlegg var 15 august. Altså 2 måneder siden. Bare se på nettverksdelen, det har blitt til wifi support.
  11. Det kommer, skyld på Intel som har utsatt AVX512 i 8 år for konsument-cpuer. Uansett når spilla kommer, så har du nok nyere og bedre. For spill, så er det alltid GPU som gjelder. Når X3D gjør det mye bedre så sier det seg selv at dagens spill stresser ikke cpuene i det hele tatt.
  12. Gjør omtrent rent bord på Phoronix, i snitt ca ~18%raskere enn 7950x
  13. Cyberpunk er en av de, om de ikke har deaktivert det pågrunn av bugs i tidligere builds. Ellers har du Rpcs3, PS3 Emulatoren. Det er det en haug spill som bruker AVX2 https://www.reddit.com/r/macgaming/comments/1dekmtz/avx2_game_list/ Siden Intel ikke har støtte AVX512 på konsument CPUer de siste 10 åra, så er det ikke så veldig mange "windows" programmer som støtter det. På Linux er det en helt annen historie. Jeg har sluttet å bli overrasket over hva AVX512 blir brukt til, det er omtrent absolutt alt mulig. Selv til prosessering av tekst. Så det er ikke bare for tallknusing.
  14. Faktisk ikke, det er mange spill og som bruker AVX512. Og det vil bli flere. Nå er det heller ikke trolig mye AVX512 støtte i Excel, men det er et av de programmene som har blitt løftet MYE med AVX støtte. Så hjelper AVX512 også mye med parsing av JSON/XML som de fleste applikasjoner benytter seg av i en eller annen grad. Det hjelper med video enkoding og dekoding. AVX512 begynner å bli integrert "overalt" i en eller annen form på Linux i hvertfall. AVX512 er også en samling av mange forskjellige instrukser, ikke bare 1. AVX512-VNNI er en som booster "AI" betydelig, det er det mange applikasjoner som benytter seg av. Testen på Phoronix viser betydelig løft for Zen 5.
  15. Skjønner at mange av dere er skuffa, men alle noobssites tester jo cpuen på instruksjoner som ikke har blitt oppdatert. Fyrer en opp AVX512, så får en 2X betre ytelse enn forrige generasjon.
×
×
  • Opprett ny...