War Skrevet 14. juni 2015 Del Skrevet 14. juni 2015 Det er en trend gjennom hele livet. AMD var bannlyst hjemme, på det meste før + 1366, 2011 og 2011-3 -spillmaskinene mine har det vært nvidia 24/7 i 10-13år et sted før jeg tok med meg amd hjem og BSOD Det slår aldri feil og man kan ikke skylde på meg eller hardwaren heller med 25 pcer i all slags miks. Er ikke bare en driver eller to når det har vært sånn i en mannsalder. Lenke til kommentar
-alias- Skrevet 15. juni 2015 Del Skrevet 15. juni 2015 (endret) Folder nå nacl på en 4P Amd 6276 server, samt på min gamle i7 2600 og min bærbare G74S. Produksjonen er ca. 700 WU pr. døgn og jeg regner med å nå 100.000 WUer i løpet av 4 døgn, som blir mitt siste bidrag til f@h på denne siden av sommeren. Edit: Det gikk til hel...e med med nacl på amd 4P serveren ved at den gikk i sirup etter å gjort ferdig 1 WU, så jeg fyrte heller i gang 4P 4650-serveren og den ser ut til å være mer stabil. Endret 15. juni 2015 av -alias- Lenke til kommentar
War Skrevet 15. juni 2015 Del Skrevet 15. juni 2015 windows server 64bit med nacl skal jeg prøve, det viser seg å være seg mest stabile med 4cpuer. Prøvde 32bit med 2 cpuer og den var stabil ubuntu med 4 cpuer ble krøll 24/7 Lenke til kommentar
-alias- Skrevet 15. juni 2015 Del Skrevet 15. juni 2015 (endret) Du har helt rett, også 4P 4650-serveren med Ubuntu 14.04 gikk i sirup etter 2 - 3 WUer under nacl, så jeg stopper den for godt! Har Windows Server 2012 (64bit) på en eller annen server, men husker ikke hvilken det var, men hvis jeg finner det ut skal jeg forsøke med nacl der. Edit: Fant Windows Server 2012R2, men det fungerte tragisk dårlig ved å bruke 1 time pr. WU. Ser i taskmanager at den bare rusler med noen få % belastning på CPU, men vet ikke hva årsaken kan være. Alle cores / threads er registrert ser jeg. Avsluttet dette og fyrte så i gang standard FACHClient og FAHControl 7.4.4 men med like elendig resultat, total PPD = 43K, TPF = 1 min. Taskmanager viser at CPU-belastning bare er mellom 58 - 60% så noe av årsaken til dårlig PPD ligger der. Prosjekt er P9752 som jeg aldri har hørt om, men finner det i http://fah-web.stanford.edu/new/psummary.html med elendig dårlig utbytte med hensyn til poeng. Nei, 43K for 700Watt går dårlig så den stopper vi tvert. Endret 15. juni 2015 av -alias- Lenke til kommentar
Arve1234567890 Skrevet 15. juni 2015 Forfatter Del Skrevet 15. juni 2015 (...) Avsluttet dette og fyrte så i gang standard FACHClient og FAHControl 7.4.4 men med like elendig resultat, total PPD = 43K, TPF = 1 min. Taskmanager viser at CPU-belastning bare er mellom 58 - 60% så noe av årsaken til dårlig PPD ligger der. Prosjekt er P9752 som jeg aldri har hørt om, men finner det i http://fah-web.stanford.edu/new/psummary.html med elendig dårlig utbytte med hensyn til poeng. Nei, 43K for 700Watt går dårlig så den stopper vi tvert. Kanskje det blir håp om mer fornuftig ytelse på 2P-4P servere når nye SMP-kjernen med AVX støtte kommer ut: It’s important to stress that SMP/CPU donors aren’t left out of new performance (and therefore PPD) updates either: FAH Lead Developer Joseph Coffland has been working hard on a new Gromacs core and that should also see performance benefits, as we roll out AVX support for FAH. Lenke til kommentar
-alias- Skrevet 15. juni 2015 Del Skrevet 15. juni 2015 Må nesten bare si at, jeg tror det ikke før jeg ser det, men håper at Stanford eller PG tar til vettet og lar oss med multicore servere slippe til igjen. Enn så lenge så gir vi vårt bidrag til Boinc. Håper at teksten du la ut her varsler noe nytt med hensyn til CPU-folding! Lenke til kommentar
Rusher Skrevet 16. juni 2015 Del Skrevet 16. juni 2015 Det der går opp og ned. Aldri hatt så stabile foldingmaskiner som 7970'ene jeg har hatt oppe. Ikke hatt mye å klage over på 970'ene annet enn endel lag innimellom, men det varierer vel med WU. Hadde 270X og 660TI i drift samtidig tidligere. Eneste som putret og gikk non-stop var AMD maskinen. Merkelig at det skal være slike variasjoner mellom brukerne Lenke til kommentar
-alias- Skrevet 16. juni 2015 Del Skrevet 16. juni 2015 (endret) Tror det har med hardwaren forøvrig, samt varierende overklokking å gjøre! Edit: Har foldet med 4 x 660Ti i en server (Ubuntu 14.04) over veldig lang tid uten avbrudd, så det varierer nok fra maskin til maskin! Et spørsmål til den som evt vet, om det finnes noen logg bundet til nacl-folding? Normalt klarer begge maskinene som folder nacl omkrin 30 - 35 WUer pr. oppdatering her http://folding.extremeoverclocking.com/user_summary.php?s=&u=408213 ,men noen ganger produseres det bare 11 - 12 stk. som er en reduksjon på på 60 - 67% som jeg ikke forstår hvordan skjer? Nacl må enten være ustabil eller så finnes det noen WUer (prosjekter) som jeg ennå ikke har observert når jeg ser på mens folding pågår. Endret 16. juni 2015 av -alias- Lenke til kommentar
kpolberg Skrevet 16. juni 2015 Del Skrevet 16. juni 2015 Forresten, noen enkel måte å se hvordan hver enkelt komponent leverer i systemet. Eventuelt noe spesielt jeg må tenke på når jeg starter opp med f@h igjen. Jeg har vært borte en stund, og ønsker vel egentlig bare å se på ytelsen av GTX 970 kortet. Jeg har ett HD 6950 i systemet, som jeg i utgangspunktet ikke ser noe poeng i å teste... Lenke til kommentar
Sn1ken Skrevet 16. juni 2015 Del Skrevet 16. juni 2015 Ikke helt sikker på hva du mener? Hvis du tenker på PPD, så vil klienten estimere dette ganske greit. Ellers kan det være nyttig å ta en titt på disse trådene for å finne litt mer informasjon. Komponenter, watt og poeng Blokkere IP-adresser HFM - hfm.net Lenke til kommentar
kpolberg Skrevet 16. juni 2015 Del Skrevet 16. juni 2015 I utgangspunktet ønsker jeg å tvinge maskinen til kun å kjøre jobber på nvidia kortet. Jeg forstår det slik at PPD vanligvis går noe ned hvis man i tillegg kjører CPU jobber? Lenke til kommentar
Sn1ken Skrevet 16. juni 2015 Del Skrevet 16. juni 2015 (endret) Det stemmer at du er best tjent med å bare kjøre GPU og slette CPU under slots. Du kan bare slette den klienten som ikke er ønskelig under Configure - Slots - Remove Her er et bilde som forklarer noe annet, men da ser du også fremgangsmåten for å finne bildet jeg snakker om over (du kan følge fra punkt 2 til 5, men du trykker Remove istedenfor Add som i eksempelet for å fjerne en slot). Endret 16. juni 2015 av Sn1ken Lenke til kommentar
kpolberg Skrevet 16. juni 2015 Del Skrevet 16. juni 2015 Ok, utifra det jeg kan se. Så blokkerer jeg bare for opencl jobber, og tillater kun cuda. Så burde det bli vei i vellinga Lenke til kommentar
Sn1ken Skrevet 16. juni 2015 Del Skrevet 16. juni 2015 Ikke helt sikker på hva du mener da heller, men i prinsippet vil det sikkert gå greit. Men slett unna slots du ikke bruker. Det vil bli det enkleste dersom du kun ønsker å folde på 970 kortet (som er et meget gunstig valg alt under ett). Takk for ditt bidrag Lenke til kommentar
Kjetil Lura Skrevet 16. juni 2015 Del Skrevet 16. juni 2015 (endret) Ok, utifra det jeg kan se. Så blokkerer jeg bare for opencl jobber, og tillater kun cuda. Så burde det bli vei i vellinga Om jeg forstår deg riktig og om du blokkere alle openCL jobbene for du da kun core 15? Jeg vil vite ppd på 970 på ditt system, var det ikke q6xxx cpu du hadde Endret 16. juni 2015 av Kjetil Lura Lenke til kommentar
Sn1ken Skrevet 16. juni 2015 Del Skrevet 16. juni 2015 Nå har jeg fått en ny Core18 som gir 215k PPD på 970. WU 10490, så det varierer ganske stort om dagen Lenke til kommentar
Betroz Skrevet 16. juni 2015 Del Skrevet 16. juni 2015 Nå har jeg fått en ny Core18 som gir 215k PPD på 970. WU 10490, så det varierer ganske stort om dagen Fått samme selv. Lenke til kommentar
Kjetil Lura Skrevet 16. juni 2015 Del Skrevet 16. juni 2015 Jepp og det irritere meg. Lenke til kommentar
Sn1ken Skrevet 16. juni 2015 Del Skrevet 16. juni 2015 Det er forskning, så det går for det samme. Men det er greit å vite for den som er ny Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå