johome Skrevet 28. juni 2016 Del Skrevet 28. juni 2016 Samsung SM961 SSD Review Fra testen : We attempted to force throttle conditions to determine the temperature threshold where the SM961 would begin to restrict performance. This test also allows us to determine just how much the SSD would restrict performance to reduce temperatures. The SM961 never surpassed 50C in Crystal Disk Info, and we could only reach that temperature under a very heavy workload of 340,000 IOPS. It took several minutes for the temperature to increase from an idle of 22C up to 50C. The SM961 plateaued at 50C and its temperature did not climb any higher. Hvis det stemmer er det gode nyheter , ca en halvering i forhold til 950 pro ... Lenke til kommentar
Nizzen Skrevet 28. juni 2016 Del Skrevet 28. juni 2016 (endret) Hva med noen SM 961 nvme 1TB bechmarks litt sent på kvelden? https://www.diskusjon.no/index.php?showtopic=1686224&&p=23324594&page=9 Første som har testet den på nettet .... ca 2 dager før Toms hardware. Er alle NAND brikkene samlet på samme side av PCB'en ? Samme side ja Satser på førstemann med raid-0 benchmarks også. Kommer i kveld etter planen Endret 28. juni 2016 av Nizzen Lenke til kommentar
johome Skrevet 28. juni 2016 Del Skrevet 28. juni 2016 Har hørt rykter om at det er årsaken til at 950 Pro aldri kom med 1 TB versjon. De klarte ikke å stable NAND brikkene på bare en side. Tror NAND brikkene på SM 961 er produsert med en annen produksjonsprosess ( 3D V NAND med flere layer ) ... Lenke til kommentar
Vakuum Skrevet 28. juni 2016 Del Skrevet 28. juni 2016 Har hørt rykter om at det er årsaken til at 950 Pro aldri kom med 1 TB versjon. De klarte ikke å stable NAND brikkene på bare en side. Tror NAND brikkene på SM 961 er produsert med en annen produksjonsprosess ( 3D V NAND med flere layer ) ... Den store modellen har vel 48-lag nand mens de andre er samme 32-lag som 950. Lenke til kommentar
siDDis Skrevet 28. juni 2016 Del Skrevet 28. juni 2016 Nå er jo 10Gbps nettverk ein kjempeflaskehals. Må ha 40Gbps nettverk nå. Lenke til kommentar
Nizzen Skrevet 28. juni 2016 Del Skrevet 28. juni 2016 Nå er jo 10Gbps nettverk ein kjempeflaskehals. Må ha 40Gbps nettverk nå. Lommeboka er oftere flaskehals med heftig lagring i begge ender Lenke til kommentar
siDDis Skrevet 28. juni 2016 Del Skrevet 28. juni 2016 Trenger ikkje å ha heftig lagring i begge ender, du kjem langt med å lage ein nettverksdisk med f.eks iSCSI. Ofte vil ytelsen også vere betre enn det ville ha vore om disken var "lokal". Det er fordi det er større overhead i OS kernelen enn det er transportlaget. Lenke til kommentar
johome Skrevet 4. juli 2016 Del Skrevet 4. juli 2016 (endret) Tweaktown har testet SM961 med tildels ville resultater i syntetiske tester : Over 100 000 IOPS mer enn specs Alt er ikke bare fryd og gammen, 950 Pro utklasser SM961 i flere av de mere praktiske testene Kan det være at den native NVMe driveren i W10 ikke holder mål ? Endret 4. juli 2016 av johome Lenke til kommentar
siDDis Skrevet 5. juli 2016 Del Skrevet 5. juli 2016 Kan også være at testen er rett og slett elendig og inneheld masse løgn og fanteri. Eg venter på Storagereview, dei brukar fio som er eit skikkeleg benchmark program for storage. Lenke til kommentar
Nizzen Skrevet 5. juli 2016 Del Skrevet 5. juli 2016 Kan også være at testen er rett og slett elendig og inneheld masse løgn og fanteri. Eg venter på Storagereview, dei brukar fio som er eit skikkeleg benchmark program for storage. Jeg har dem selv, det er det aller beste Særlig 2 av dem Lenke til kommentar
johome Skrevet 5. juli 2016 Del Skrevet 5. juli 2016 Eg venter på Storagereview, dei brukar fio som er eit skikkeleg benchmark program for storage. Jeg trodde at Storagereview brukte Iometer .... Lenke til kommentar
Nizzen Skrevet 16. juli 2016 Del Skrevet 16. juli 2016 Regner med at det er noen som ikkje har oppdatert RST i det siste Intel Rapid Storage Technology (RST) version 15.0.0.1039 WHQL Download Lenke til kommentar
Ziff Skrevet 16. juli 2016 Del Skrevet 16. juli 2016 Når vi først snakker om beta drivere, vet du hva som er siste (beta) Intel inf drivere? Jeg lastet ned noen fra Station Drivers for en stund tilbake men installasjonen spurte om jeg var sikker på om jeg ville nedgradere selv om versjonsnummeret var høyere enn de offisielle... Lenke til kommentar
Nizzen Skrevet 16. juli 2016 Del Skrevet 16. juli 2016 Når vi først snakker om beta drivere, vet du hva som er siste (beta) Intel inf drivere? Jeg lastet ned noen fra Station Drivers for en stund tilbake men installasjonen spurte om jeg var sikker på om jeg ville nedgradere selv om versjonsnummeret var høyere enn de offisielle... Siste beta er alltid på station-drivers ja Noe mere vet ikkje jeg, da jeg som oftest bruker den nyeste, iallefall når jeg reinstallerer. Lenke til kommentar
Ziff Skrevet 16. juli 2016 Del Skrevet 16. juli 2016 Var nok bare en bug hos meg.. tvang inn den nyeste, og datoen er nyere så da regner jeg med det er i orden. Lenke til kommentar
Nizzen Skrevet 27. juli 2016 Del Skrevet 27. juli 2016 2 stk SM 961 nvme 1TB på lager på Digitalimpuls.no !! http://www.digitalimpuls.no/WebPages/Produkt/ProduktInfo.aspx?plid=141115&WebSiteMapNodeID=1000001 Lenke til kommentar
kpolberg Skrevet 27. juli 2016 Del Skrevet 27. juli 2016 (endret) Trenger ikkje å ha heftig lagring i begge ender, du kjem langt med å lage ein nettverksdisk med f.eks iSCSI. Ofte vil ytelsen også vere betre enn det ville ha vore om disken var "lokal". Det er fordi det er større overhead i OS kernelen enn det er transportlaget.Den der må du utdype. Disk lokalt vil ha lavere latency samt høyere båndbredde. Det er greit man har noe offloading på iSCSI o.l. Men jeg ser ikke helt hvordan du får iSCSI til å bli bedre? EDIT: Det er jeg som er treig. Skjønner nå hva du sikter til Endret 27. juli 2016 av kpolberg Lenke til kommentar
siDDis Skrevet 27. juli 2016 Del Skrevet 27. juli 2016 Fordi operativsystemer utfører IO veldig forskjellig og introduserer latency for forskjellige operasjoner. Det er også overhead i kontroller firmware og drivere. Ofte har du en IO scheduler som må tilpasses/endres basert på arbeidstype. Nettverkskort idag er såpass optimalisert at du er på nanosekund nivå for overføring av pakker. Så med andre ord, har du mye IO, så balanserer du CPU tid mye bedre over to maskiner der ethernet eller infiniband er transportlaget. Det vil nok variere ut i fra hva du tester, men jeg får f.eks 20% bedre ytelse på både skriv,les og transaksjoner per sekund med SQL Server via iSCSI fra en FreeBSD/ ZFS target enn med samme kontroller og SSD'er i Windows. Forskjellen blir nok enda større med NVMf Lenke til kommentar
kpolberg Skrevet 27. juli 2016 Del Skrevet 27. juli 2016 Fordi operativsystemer utfører IO veldig forskjellig og introduserer latency for forskjellige operasjoner. Det er også overhead i kontroller firmware og drivere. Ofte har du en IO scheduler som må tilpasses/endres basert på arbeidstype. Når jeg leser dette, leser jeg det som om du mener det ikke må gjennom kontroller, firmware og drivere på FreeBSD siden (selv om antar du ikke mener det). Lenke til kommentar
siDDis Skrevet 27. juli 2016 Del Skrevet 27. juli 2016 Jo, det må jo selvsagt det samme der. Men det kanskje raskere der? Altså jeg har hørt om tilfeller der f.eks bytting fra CFS scheduler til deadline har auka ytelsen med 500x. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå