traskas waits for alice Skrevet 24. mai 2012 Rapporter Del Skrevet 24. mai 2012 Jaggu er det varmt her i søndre vestfold. Merker at det er småvarmt å la maskinen stå og jobbe døgnet rundt. Blir nok bare et par dager til før jeg skrur av maskin min. Må bare få bikka over 2mill først Har også av en eller annen grunn fått mer PPD den siste uka en det jeg har fått før. Har Stanford skrudd opp bonusen litt, eller? Lenke til kommentar
ei57 Skrevet 24. mai 2012 Rapporter Del Skrevet 24. mai 2012 Det er nok varmt over hele Østlandet, og om det er noen trøst er det ikke bedre noen km lenger nord. Jeg kom hjem til 2 havarerte PC'er her om dagen. Som en konsekvens av det har Windows-PC'en fått foldefri og slås av når den ikke brukes, og en annen ble klokket ned et knepp. 150-200W i avgang ser ut til å gi stabil folding på 3 PC'er. Nå er vel også (trope)varmen forbigående. Årsaken til høyere ppd kan være at du har fått andre WU'er. Det kan være relativ stor forskjell på både gpu og smp. Lenke til kommentar
knopflerbruce Skrevet 25. mai 2012 Rapporter Del Skrevet 25. mai 2012 Mulig jeg også må klokke ned noe. Men er umulig å sjekke maskinene mine jevnlig da jeg ikke vet hvordan jeg deler filer fra ubuntu til win 7 (HFM'en er lagt inn på hovedmaskinen, som altså kjører win 7), så jeg og laget taper nok endel ppd når riggene slokner (har hendt et par ganger på en maskin allerede). Lenke til kommentar
War Skrevet 25. mai 2012 Rapporter Del Skrevet 25. mai 2012 Fah i ubuntu, høyreklikk på mappa og enable share. Lenke til kommentar
knopflerbruce Skrevet 25. mai 2012 Rapporter Del Skrevet 25. mai 2012 Takker. Den ene var faktisk stilt inn rett fra før, men den var utilgjengelig i mange dager etter jeg installerte... rare greier. Lenke til kommentar
-alias- Skrevet 25. mai 2012 Rapporter Del Skrevet 25. mai 2012 Det hender at maskinen må resettes før Ubuntu oppfatter at FAH har blitt delt. Lenke til kommentar
Hight Skrevet 26. mai 2012 Rapporter Del Skrevet 26. mai 2012 yay har vært ei uka med gode nyheter for meg. mc må på verksted, bilen må på verksted, hp-servern er helt død(ikke at det gjør så mye for laget, men hadde håpet og komme blant topp 100 (i hardware laget) før juni:P Lenke til kommentar
zyrex Skrevet 26. mai 2012 Rapporter Del Skrevet 26. mai 2012 Har slått av to maskiner nå, blei altfor varmt der de stod. Prøver å lufte litt, men nytter ikke i +30... Lenke til kommentar
knopflerbruce Skrevet 27. mai 2012 Rapporter Del Skrevet 27. mai 2012 Det beste er å få varmen ut, men da må du nesten ha vannkjøling. Jeg tok ned den ene maskinen her, med 2x gtx460. Nå har jeg kun en maskin som dumper varme i rommet, og det går greit. Kunne sikkert vannkjølt den også, forsåvidt... Ser ut til at jeg får dual socket Hk til uka, det er på vei over atlanteren nå. Håper brakettene komemr snart også... så blir det 200k++ PPD-action forhåpentligvis. Lenke til kommentar
-alias- Skrevet 27. mai 2012 Rapporter Del Skrevet 27. mai 2012 (endret) Da snakker du kort til 2 X Opteron 6128 som du har, eller tar jeg feil her? Selv venter jeg ennå på hovedkortet som har vært en tur i USA med RMA, men som endelig landet i Norge i går, og som jeg regner med skal være her senest torsdag til uka. Da er det temmelig nøyaktig 2 måneder siden jeg sendte det over dammen. Jeg gjetter på en boost i PPD på ca. 400K i snitt når de nye godsakene er i drift. Var heldig og fant 16 stk. 1GB DDR3 minne i Norge for 49 kroner pr. enhet som skal ankomme samme dag som hovedkortet. Jeg plages ikke mye med varmen slik som dere siden alt er veskekjølt, og vi ennå ikke er utsatt for tropevarme. Er dog litt spent på SR2 riggen hvis det blir opp mot 30 Celsius i rommet hvor den står. Nå ved en romtemperatur på 23 - 24 holder CPUene seg på kjølige 50 Celsius selv om de er overklokket til 3.6GHz. G34 riggene holder seg langt kjøligere, 30 - 35 Celsius ved samme romtemperatur, og skal tåle å bli opp mot 60 før de får problemer, og det tror jeg ikke vil skje selv med en romtemperatur på opp mot 30. Endret 27. mai 2012 av -alias- Lenke til kommentar
traskas waits for alice Skrevet 27. mai 2012 Rapporter Del Skrevet 27. mai 2012 Da har jeg nådd 2 mill og har en PPD på 42k. Er nå ranka som 73 på laget, og må nesten si det er litt moro å se resultatene komme inn. Har vel også hatt beste uka med folding, og hvis jeg gidder og folde ut denne uka som er nå, vil jeg ha over 1 mill i mai måned Lenke til kommentar
-alias- Skrevet 27. mai 2012 Rapporter Del Skrevet 27. mai 2012 Det ville vært hyggelig så det synes jeg du skal holde ut. Selv satser jeg på å nå 40mill i juni hvis jeg får i gang den siste maskinvaren før mai er omme. Lenke til kommentar
zyrex Skrevet 29. mai 2012 Rapporter Del Skrevet 29. mai 2012 (endret) Plutselig over helga har jeg fått samme feil på to stk i7 2600 maskiner på jobben: [10:55:42] - Calling './FahCore_a5.exe -dir work/ -nice 19 -suffix 01 -np 8 -checkpoint 15 -verbose -lifeline 1848 -version 634' [10:55:42] [10:55:42] *------------------------------* [10:55:42] Folding@Home Gromacs SMP Core [10:55:42] Version 2.27 (Thu Feb 10 09:46:40 PST 2011) [10:55:42] [10:55:42] Preparing to commence simulation [10:55:42] - Looking at optimizations... [10:55:42] - Created dyn [10:55:42] - Files status OK [10:55:42] Couldn't Decompress [10:55:42] Called DecompressByteArray: compressed_data_size=0 data_size=0, decompressed_data_size=0 diff=0 [10:55:42] -Error: Couldn't update checksum variables [10:55:42] Error: Could not open work file [10:55:42] [10:55:42] Folding@home Core Shutdown: FILE_IO_ERROR [10:55:43] CoreStatus = 75 (117) [10:55:43] Error opening or reading from a file. [10:55:43] Deleting current work unit & continuing... [10:55:43] Trying to send all finished work units [10:55:43] + No unsent completed units remaining. [10:55:43] - Preparing to get new work unit... [10:55:43] Cleaning up work directory [10:55:43] + Attempting to get work packet Hadde skjønt litt mer om det var bare den ene, men begge to - samtidig? hmm. Har slettet work-mappa, queue-fila, skifta machine id, sletta fahcore_a5, ingenting har hittil hjulpet. Linux mint forøvrig. Edit: Merkelige nå var at dette hjalp på den ene, ikke den andre. Da sletter jeg alt og prøver på nytt. Endret 29. mai 2012 av zyrex Lenke til kommentar
-alias- Skrevet 29. mai 2012 Rapporter Del Skrevet 29. mai 2012 (endret) Kan blant annet skyldes Bad work unit, sitat: "- Error: Bad work unit. Digital signatures don't match Error: Could not open work file Folding@home Core Shutdown: FILE_IO_ERROR CoreStatus = 75 (117) Error opening or reading from a file. Deleting current work unit & continuing..." Eller at: "These errors indicate an I/O hardware problem or perhaps an AV program preventing FAH from writing/reading certain work files." sitat slutt Link: http://fahwiki.net/i...oreStatus_codes Det er egentlig vanskelig å gjette på årsaker, men minnefeil, eller overklokking er ofte årsak til: FILE_IO_ERROR er min erfaring. Endret 29. mai 2012 av -alias- Lenke til kommentar
zyrex Skrevet 29. mai 2012 Rapporter Del Skrevet 29. mai 2012 (endret) De er ikke overklokket, men kan kjøre en minnesjekk ja, ikke dumt. Fant den lista selv ved et Google-søk, men AV har jeg ikke og filsystemet påstår det er OK. Skal prøve å slette hele mappa, lage ny med nytt navn, hvis det ikke hjelper, så tar jeg å reinnstallerer den. edit: Ingenting fungerte, så jeg reinstallerte maskina, formatering tok uvanlig lang tid, så noe galt var det nok. Nå fungerer det ihvertfall. Endret 30. mai 2012 av zyrex Lenke til kommentar
-alias- Skrevet 1. juni 2012 Rapporter Del Skrevet 1. juni 2012 Kjører du fra SSD eller tradisjonell harddisk? Lenke til kommentar
zyrex Skrevet 1. juni 2012 Rapporter Del Skrevet 1. juni 2012 (endret) Disse er det vel god gammel magnetdisk i. Er ikke sikker på hva de er bestilt med, må isåfall dobbeltsjekke. edit: Joda, fin Western Digital snurredisk. PS: Varmen er på vei nedover, så kan nok slå på igjen to av riggene som var så varme. edit2: Jeg jubla for tidlig, begge riggene har feila med samme feilmelding igjen. Prøver å kjøre harddisk-sjekk. Endret 1. juni 2012 av zyrex Lenke til kommentar
GullLars Skrevet 1. juni 2012 Rapporter Del Skrevet 1. juni 2012 WD Green kan spinne ned om de ikke er aktive, og bruker noen sekunder på å spinne opp igjen. Det kan være at du har fått en I/O time-out mens disken spinner opp... Lenke til kommentar
zyrex Skrevet 1. juni 2012 Rapporter Del Skrevet 1. juni 2012 WDC Blue på disse maskinene, pluss at begge to har gått feilfritt i 1 måned allerede. Får se hva disksjekken sier. Lenke til kommentar
knopflerbruce Skrevet 2. juni 2012 Rapporter Del Skrevet 2. juni 2012 Da har jeg plutselig blitt storfolder. kjøpte nettopp 4 16core interlagos ES'er på ebay til den nette sum av $1600 2 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå