knopflerbruce Skrevet 20. februar 2011 Del Skrevet 20. februar 2011 (endret) Jeg får ca 21k PPD med en w3520 på 4.4 GHz. Jeg mistenker at jeg ikke kjører bigadv atm... må jeg sette en ekstra parameter i shortcut'en til FAH.exe (eller hva man velger å kalle den)? Det står kun -smp 8 etter "target", jeg må kanskje hive på -bigadv også? Edit: glemte å si at jeg puslet litt med big på en P55-rigg før, tror jeg kom over 80% etter hvert da. Bruker samme passkey nå som før. Endret 20. februar 2011 av knopflerbruce Lenke til kommentar
-alias- Skrevet 20. februar 2011 Del Skrevet 20. februar 2011 Den vanlige syntaksen er: -bigadv -smp -verbosity 9 Lenke til kommentar
knopflerbruce Skrevet 20. februar 2011 Del Skrevet 20. februar 2011 Den vanlige syntaksen er: -bigadv -smp -verbosity 9 Takker, da kjører den kanskje big senere i dag Lenke til kommentar
War Skrevet 20. februar 2011 Del Skrevet 20. februar 2011 Lurer på hvor poengene mine kommer ifra, sjekket riggene nå og alle kjører 30% lavere PPD en de plaier, typisk 80K VS 130K / 17K VS 35K osv. Rundetider på 11-13min er 18+ osv. Vi er vel i en sånn tung dal igjen. Lenke til kommentar
-alias- Skrevet 20. februar 2011 Del Skrevet 20. februar 2011 Det er mange P2684 for tiden, PPD på SB falt fra 46K helt ned til 28K. På en standard i7 920 rigg synker det fra 34K til 17K så det merkes når disse WUene kommer. Hadde 3 av dem en stund, og har 2 igjen som ikke vil være ferdige før tirsdag formiddag. Lenke til kommentar
GullLars Skrevet 21. februar 2011 Del Skrevet 21. februar 2011 Hva er det de driver med som gjør at PPD ikke reflekterer arbeid utført? Er det kanskje at det er tungt arbeid som har en lavere prioritet? Lenke til kommentar
knopflerbruce Skrevet 21. februar 2011 Del Skrevet 21. februar 2011 Tror det kan ha en viss sammenheng med hvor krevende WUen er for systemet som helhet - uten at jeg er sikker på om dette er veldig treffsikkert eller ei Lenke til kommentar
-alias- Skrevet 21. februar 2011 Del Skrevet 21. februar 2011 (endret) Sitter å leker meg med å unlokke HD69502GB kort nå, fader for et kupp å få de til 2000,-. Får helt opptil 1000 poeng mer i Furmark uten å klokke men bare unlocke shaderne. Det du gjorde her, var det å låse opp et HD6950 til å bli et HD6970? ei57 Sliter litt med å holde i7 2600K på 4.6GHz stabil. Den kan folde en kanskje 2 WU stabilt for så å feile 2 ganger på den tredje. Har vært helt oppe i Vcore 1.35 uten at det hjelper på stabiliteten. Har også eksperimentert litt med de øvrige voltverdiene men uten at det ble merkbart bedre. P2684 som går nå feilet etter 48% men har siden vært stabil nå i dag. Under folding av P2684 svinger strømforbruket mye, helt fra 174Watt og opp til 192Watt fra veggen. Temperaturer på CPU svinger også mye, spesielt kjerne 3, mellom 53 - 60 Celsius. Har du noen forslag til justeringer? På øvrige WUer holder strømforbruket seg på 190 - 192Watt. Eller kan det ha noe med med de defektene på SATA-portene å gjøre. Mener jeg har disken på port 3 som vel er en av de utsatte som kan være/bli defekt Endret 21. februar 2011 av -alias- Lenke til kommentar
Theo343 Skrevet 21. februar 2011 Del Skrevet 21. februar 2011 (endret) alias: Jeg låste opp et 6950 til å få like mange shadere som 6970. Fra 1408 til 1536. Endret 21. februar 2011 av Theo343 Lenke til kommentar
Rayline TWB Skrevet 21. februar 2011 Del Skrevet 21. februar 2011 Vil det å klokke shader føre til økt folding- ytelse? Lenke til kommentar
Theo343 Skrevet 21. februar 2011 Del Skrevet 21. februar 2011 Det korte svaret er ja Lenke til kommentar
Rayline TWB Skrevet 21. februar 2011 Del Skrevet 21. februar 2011 (endret) Da takker jeg kort med et Danke schön! Edit: Er forresten morsomt å se på førstesiden her http://folding.extremeoverclocking.com/user_list.php?s=&t=37651&p=1 hvordan det holder på å tetne seg til.....:-) Endret 22. februar 2011 av Rayline TWB Lenke til kommentar
knopflerbruce Skrevet 22. februar 2011 Del Skrevet 22. februar 2011 Æda bæda, jeg fikk en 2685 Lenke til kommentar
ei57 Skrevet 22. februar 2011 Del Skrevet 22. februar 2011 Alias, ser du ligger høyere enn meg på de aller fleste spenningene, unntaket er VCC PLL. Jeg fikk en blåskjerm på søndag og gav på litt mer Vcore, og har følgende settings nå: Freq 4,7 Vcore 1,325 Dram 1,6 VCCSA 1 VCCIO 1,0625 VCC PLL 1,8425 PCH 1,05 Load Line UH Jeg byttet også fra Sata 3&4 til 1&2 og har ikke hatt noe større problem. Feil i overføring til disken vil nok straffes hardt, så det er en god ide å bytte for deg også. Lenke til kommentar
-alias- Skrevet 22. februar 2011 Del Skrevet 22. februar 2011 Hadde faktisk benyttet SATA 1&2 så problemet var ikke der. Mistet en P2684 på 97% etter at den bare resatte maskinen. Etter ny start kom den en mdrun og WU ble avsluttet og sendt server, men jeg har ikke registrert at noe ble registrert i stat. Loggen: Arguments: -bigadv -smp 8 -verbosity 9 [10:25:23] - Ask before connecting: No [10:25:23] - User name: -alias- (Team 37651) [10:25:23] - User ID: 19327289668AB6A9 [10:25:23] - Machine ID: 1 [10:25:23] [10:25:24] Loaded queue successfully. [10:25:24] [10:25:24] + Processing work unit [10:25:24] - Autosending finished units... [February 22 10:25:24 UTC] [10:25:24] Core required: FahCore_a3.exe [10:25:24] Trying to send all finished work units [10:25:24] Core found. [10:25:24] + No unsent completed units remaining. [10:25:24] - Autosend completed [10:25:24] Working on queue slot 00 [February 22 10:25:24 UTC] [10:25:24] + Working ... [10:25:24] - Calling '.\FahCore_a3.exe -dir work/ -nice 19 -suffix 00 -np 8 -checkpoint 3 -verbose -lifeline 1344 -version 630' [10:25:24] [10:25:24] *------------------------------* [10:25:24] Folding@Home Gromacs SMP Core [10:25:24] Version 2.22 (Mar 12, 2010) [10:25:24] [10:25:24] Preparing to commence simulation [10:25:24] - Ensuring status. Please wait. [10:25:34] - Looking at optimizations... [10:25:34] - Working with standard loops on this execution. [10:25:34] - Previous termination of core was improper. [10:25:34] - Going to use standard loops. [10:25:34] - Files status OK [10:25:37] - Expanded 24817713 -> 30791309 (decompressed 124.0 percent) [10:25:37] Called DecompressByteArray: compressed_data_size=24817713 data_size=30791309, decompressed_data_size=30791309 diff=0 [10:25:37] - Digital signature verified [10:25:37] [10:25:37] Project: 2684 (Run 13, Clone 15, Gen 35) [10:25:37] [10:25:38] Entering M.D. [10:25:43] Using Gromacs checkpoints [10:25:47] mdrun returned 255 [10:25:47] Going to send back what have done -- stepsTotalG=0 [10:25:47] Work fraction=0.0000 steps=0. [10:25:51] logfile size=253132 infoLength=253132 edr=0 trr=25 [10:25:51] logfile size: 253132 info=253132 bed=0 hdr=25 [10:25:51] - Writing 253670 bytes of core data to disk... [10:25:51] ... Done. [10:26:02] [10:26:02] Folding@home Core Shutdown: UNSTABLE_MACHINE [10:26:04] CoreStatus = 7A (122) [10:26:04] Sending work to server [10:26:04] Project: 2684 (Run 13, Clone 15, Gen 35) [10:26:04] + Attempting to send results [February 22 10:26:04 UTC] [10:26:04] - Reading file work/wuresults_00.dat from core [10:26:04] (Read 253670 bytes from disk) [10:26:04] Connecting to http://171.67.108.22:8080/ [10:26:07] Posted data. [10:26:07] Initial: 0000; - Uploaded at ~62 kB/s [10:26:08] - Averaged speed for that direction ~208 kB/s [10:26:08] + Results successfully sent [10:26:08] Thank you for your contribution to Folding@Home. [10:26:14] Trying to send all finished work units [10:26:14] + No unsent completed units remaining. [10:26:14] + -oneunit flag given and have now finished a unit. Exiting.***** Got a SIGTERM signal (2) [10:26:14] Killing all core threads [10:26:14] Could not get process id information. Please kill core process manually Folding@Home Client Shutdown. Skal forsøke på nytt med dine volt verdier når WU som kjører er ferdig, men det kan se ut som mitt kort generelt vil ha noe høyere volt. Økte minnet fra 4 til 8GB for å se om det kan hjelpe på noe. Takker så langt. Lenke til kommentar
ei57 Skrevet 22. februar 2011 Del Skrevet 22. februar 2011 Det var en usedvanlig rask exit! Mer minne tror jeg ikke har noen betydning, jeg har ikke mer enn 4GB og nesten halvparten er ledig. At på papiret like kort kan være noe forskjellig, er nok normalt. Ingen kan produsere lønnsomt uten en viss toleranse. Lenke til kommentar
-alias- Skrevet 23. februar 2011 Del Skrevet 23. februar 2011 (endret) Sjekk PPD på dette prosjektet som er Project: 6601 (Run 5, Clone 29, Gen 593) og kjører på en helt vanlig 9800GX2 GPU. Det er den øverste i oversikten, som leverer fantastiske 8.4K PPD. Loggen for nevnte WU kan ses i sin helhet nedenfor. Er dette kanskje nye prosjekter som yter godt på gammel maskinvare? [15:08:41] Folding@Home GPU Core [15:08:41] Version 1.31 (Tue Sep 15 10:57:42 PDT 2009) [15:08:41] [15:08:41] Compiler : Microsoft ® 32-bit C/C++ Optimizing Compiler Version 14.00.50727.762 for 80x86 [15:08:41] Build host: amoeba [15:08:41] Board Type: Nvidia [15:08:41] Core : [15:08:41] Preparing to commence simulation [15:08:41] - Looking at optimizations... [15:08:41] DeleteFrameFiles: successfully deleted file=work/wudata_08.ckp [15:08:41] - Created dyn [15:08:41] - Files status OK [15:08:41] - Expanded 73782 -> 383588 (decompressed 519.8 percent) [15:08:41] Called DecompressByteArray: compressed_data_size=73782 data_size=383588, decompressed_data_size=383588 diff=0 [15:08:41] - Digital signature verified [15:08:41] [15:08:41] Project: 6601 (Run 5, Clone 29, Gen 593) [15:08:41] [15:08:41] Assembly optimizations on if available. [15:08:41] Entering M.D. [15:08:47] Tpr hash work/wudata_08.tpr: 572586886 2278751903 3937394526 1446356278 611370204 [15:08:47] [15:08:47] Calling fah_main args: 14 usage=100 [15:08:47] [15:08:48] Working on Protein [15:08:49] Client config found, loading data. [15:08:49] Starting GUI Server [15:09:35] Completed 1% [15:10:21] Completed 2% [15:11:07] Completed 3% [15:11:52] Completed 4% [15:12:38] Completed 5% [15:13:24] Completed 6% [15:14:10] Completed 7% [15:14:56] Completed 8% [15:15:42] Completed 9% [15:16:27] Completed 10% [15:17:13] Completed 11% [15:17:59] Completed 12% [15:18:45] Completed 13% [15:19:31] Completed 14% [15:20:16] Completed 15% [15:21:02] Completed 16% [15:21:48] Completed 17% [15:22:34] Completed 18% [15:23:20] Completed 19% [15:24:06] Completed 20% [15:24:51] Completed 21% [15:25:37] Completed 22% [15:26:23] Completed 23% [15:27:09] Completed 24% [15:27:55] Completed 25% [15:28:40] Completed 26% [15:29:27] Completed 27% [15:30:13] Completed 28% [15:30:58] Completed 29% [15:31:44] Completed 30% [15:32:30] Completed 31% [15:33:16] Completed 32% [15:34:02] Completed 33% [15:34:47] Completed 34% [15:35:34] Completed 35% [15:36:20] Completed 36% [15:37:05] Completed 37% [15:37:51] Completed 38% [15:38:37] Completed 39% [15:39:23] Completed 40% [15:40:09] Completed 41% [15:40:55] Completed 42% [15:41:40] Completed 43% [15:42:26] Completed 44% [15:43:12] Completed 45% [15:43:58] Completed 46% [15:44:44] Completed 47% [15:45:29] Completed 48% [15:46:15] Completed 49% [15:47:01] Completed 50% [15:47:47] Completed 51% [15:48:33] Completed 52% [15:49:19] Completed 53% [15:50:04] Completed 54% [15:50:50] Completed 55% [15:51:36] Completed 56% [15:52:22] Completed 57% [15:53:08] Completed 58% [15:53:53] Completed 59% [15:54:39] Completed 60% [15:55:25] Completed 61% [15:56:11] Completed 62% [15:56:57] Completed 63% [15:57:43] Completed 64% [15:58:28] Completed 65% [15:59:14] Completed 66% [16:00:00] Completed 67% [16:00:46] Completed 68% [16:01:32] Completed 69% [16:02:17] Completed 70% [16:03:03] Completed 71% [16:03:49] Completed 72% [16:04:35] Completed 73% [16:05:21] Completed 74% [16:06:07] Completed 75% [16:06:52] Completed 76% [16:07:38] Completed 77% [16:08:24] Completed 78% [16:09:10] Completed 79% [16:09:56] Completed 80% [16:10:41] Completed 81% [16:11:27] Completed 82% [16:12:14] Completed 83% [16:12:59] Completed 84% [16:13:45] Completed 85% [16:14:31] Completed 86% [16:15:17] Completed 87% [16:16:03] Completed 88% [16:16:48] Completed 89% [16:17:34] Completed 90% [16:18:20] Completed 91% [16:19:06] Completed 92% [16:19:52] Completed 93% [16:20:38] Completed 94% [16:21:23] Completed 95% [16:22:09] Completed 96% [16:22:55] Completed 97% [16:23:41] Completed 98% [16:24:26] Completed 99% [16:25:12] Completed 100% [16:25:12] Successful run [16:25:12] DynamicWrapper: Finished Work Unit: sleep=10000 [16:25:22] Reserved 44468 bytes for xtc file; Cosm status=0 [16:25:22] Allocated 44468 bytes for xtc file [16:25:22] - Reading up to 44468 from "work/wudata_08.xtc": Read 44468 [16:25:22] Read 44468 bytes from xtc file; available packet space=786385996 [16:25:22] xtc file hash check passed. [16:25:22] Reserved 25248 25248 786385996 bytes for arc file= Cosm status=0 [16:25:22] Allocated 25248 bytes for arc file [16:25:22] - Reading up to 25248 from "work/wudata_08.trr": Read 25248 [16:25:22] Read 25248 bytes from arc file; available packet space=786360748 [16:25:22] trr file hash check passed. [16:25:22] Allocated 560 bytes for edr file [16:25:22] Read bedfile [16:25:22] edr file hash check passed. [16:25:22] Allocated 9228 bytes for logfile [16:25:22] Read logfile [16:25:22] GuardedRun: success in DynamicWrapper [16:25:22] GuardedRun: done [16:25:22] Run: GuardedRun completed. [16:25:23] + Opened results file [16:25:23] - Writing 80016 bytes of core data to disk... [16:25:23] Done: 79504 -> 74360 (compressed to 93.5 percent) [16:25:23] ... Done. [16:25:23] DeleteFrameFiles: successfully deleted file=work/wudata_08.ckp [16:25:23] Shutting down core [16:25:23] [16:25:23] Folding@home Core Shutdown: FINISHED_UNIT [16:25:25] CoreStatus = 64 (100) [16:25:25] Sending work to server [16:25:25] Project: 6601 (Run 5, Clone 29, Gen 593) [16:25:25] - Read packet limit of 540015616... Set to 524286976. [16:25:25] + Attempting to send results [February 23 16:25:25 UTC] [16:25:27] + Results successfully sent [16:25:27] Thank you for your contribution to Folding@Home. [16:25:27] + Number of Units Completed: 107 Endret 23. februar 2011 av -alias- Lenke til kommentar
Oleball Skrevet 24. februar 2011 Del Skrevet 24. februar 2011 Alle monner drar sa musa og tissa i havet. Meldte meg opp nå jeg også, ikke at jeg har en spesielt kraftig maskin, men håper bidraget mitt kan hjelpe til å løfte hardware.no's F@H team (litt)oppover på listene. Kjører en standard 1-kjerne klient og en GPU klient for øyeblikket, som kommer til å stå på døgnet rundt. Siden jeg har en 4-kjernes i5-760, skjønner jeg det utifra hva jeg har lest at det vil være en del å hente på å bruke multi-core klienten istedet. Vil jeg fremdeles kunne bruke maskinen med multi-core klienten uten å merke forandringer på hastigheten ved f.eks kompilering av større prosjekter? Legger kanskje til en maskin til etterhvert, som kommer til å være påslått noen timer om dagen. Denne har kun en dual-core, vil det lønne seg å installere single-core eller vil jeg tjene på multi-core klienten her også, selv om den ikke er påslått i lenger perioder om gangen? Takker for svar Lenke til kommentar
Kokosen Skrevet 24. februar 2011 Del Skrevet 24. februar 2011 (endret) Da passerte jeg lykkelig 1 million poeng, ,min average ppd flater ut på 31 000 ppd foreløpig, for jeg klarte å knekke cpu vifta til i7èn så nå kjører den passivt med en noctua kjøler. temp er rundt 50*c med normalt arbeid ( ingen spilling osv.) Håper dere også er fornøyd med foldingen så langt! Laget har virkelig sparket fra seg med tanke på ppd og aktive brukere, fantastisk! Jeg er overbevisst at om vi hadde fått med alle diskusjon og itavisen folka, så hadde vi nok vært på top5 Skiftet navn fra klementino til kokosen. Endret 24. februar 2011 av Kokosen Lenke til kommentar
-alias- Skrevet 24. februar 2011 Del Skrevet 24. februar 2011 Gratulerer. Synes du absolutt skal ha noe av æren for framgangen, det kom mange nye til etter ditt framstøt, hos ITavisen var det vel. Stå på videre, kanskje klarer vi en ny rekord også denne måneden, selv om muligheten er liten. Vi må i tilfelle klare ca. 1.5mill PPD, om i tilfelle blir den femte månedrekorden på rad. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå