Gå til innhold

Anbefalte innlegg

Videoannonse
Annonse

Det fungerte ikke, uname -r skulle isåfall kommet opp med 2.6.35-31-generic-ck.

 

"sudo update-grub" lister opp et antall varianter. Du vil kjøre den første som ender på -ck.

Dersom du ikke får frem noe som ser omtrent slik ut, har du et problem:

 

Generating grub.cfg ...

Found linux image: /boot/vmlinuz-2.6.35-28-generic-ck

Found initrd image: /boot/initrd.img-2.6.35-28-generic-ck

Found linux image: /boot/vmlinuz-2.6.35-28-generic

Found initrd image: /boot/initrd.img-2.6.35-28-generic

Found memtest86+ image: /boot/memtest86+.bin

done

 

"sudo nano /etc/default/grub" laster grub inn i editoren og du endrer "GRUB_DEFAULT=n" til den linja første -ck ligger. n vil da bli 0,2,4 osv.

Lenke til kommentar

Jeg kjenner ikke noe til versjon V7 i detalj, men antar at du bare kjører ny installasjon rett fram så vil nødvendige filer erstattes. Dine tidligere innstillinger vil bli ivaretatt av client.cfg og du er i gang igjen etter oppgraderingen som før. Jeg ville likevel tatt backup av client.cfg for sikkerhets skyld, evt. hele fah-mappa.

Endret av -alias-
Lenke til kommentar

Her er litt oppdatering i fra f@h om bigadv problemer i det siste.

 

We wanted to give a quick update on bigadv. No new policies or changes announced here. The purpose of this post is mostly to be a little more transparent about what we've been up to (and why people may have seen changes in bigadv availability).

 

Briefly, one of the servers ran into a code bug ("feature"), and the fix I hacked for it caused other problems, so one of the bigadv servers has been largely offline. That server was handling a lot of the bigadv-8 traffic, resulting in more limited availability of bigadv-8 work units.

 

I have personally been busy with other server transitions, particularly moving data and virtual "servers" from Stanford to new machines I have acquired at Virginia. I have a new bigadv server lined up, but we've also had some issues with the physical installation there (the RAID arrays shipped with sub-standard rails, which is annoying). We're hoping to resolve those early in January, and once that server is up and running, I'll start prototyping projects for bigadv-16. More broadly, we're increasing the geographical distribution of FAH servers, which should help a lot with redundancy at the times (fortunately infrequent) when we have large-scale outages at Stanford.

 

The bottom line is that we haven't been intentionally sunsetting the bigadv-8 projects, but we've had a confluence of bigadv-8 supply and server code issues at the same time that we've been busy with other server transitions. The policy plan remains to bring new bigadv-16 projects online and then sunset bigadv-8 no sooner than Jan 15.

 

Posten står her hos folding forumet.

Endret av BAT
Lenke til kommentar

Kanskje har jeg vært ekstra heldig for det har ikke oppstått noen problemer her med opptatte servere etc, faktisk så har alt etter at problemene med manglende credit var over kjørt 100% stabilt for min del. For tiden kjøres 8 rigger her, alle med 6903 eller 6904. i7 920 og 950 kjører 6903 så det suser, og da er det synd at jeg ikke oppdaget dette tidligere, før jeg solgte noen av dem.

 

Det blir litt spennende å se om 980X og evt. også 2600K ved hjelp av langouste klarer deadline for de nye bigadv-16 som vil overta. Går det ikke så faller nok min PPD til 25 - 30% av hva det ligger på i dag.

Lenke til kommentar

Eneste jeg har merket er at jeg får 01 på alle som leverer en 03 i en ukes tid.

Blir spennende å se hvilken hardware som bli minimum eller den nye 2600K om den ikke kommer til å rekke fristen.

Kanskje vi må opp til 6core på 2011.

 

Bra de sprer serverene litt så ikke mangel på kaldt vann dreper hele maskinparken.

Lenke til kommentar

Regner med å levere ca. 2mill fra big WUer innen 06.00 01.01.12 + noe mer. Når 920 og 950 har levert det de klarer før nytt år har starter jeg 3 x 450GTS + ett GTX275 som burde gi ca. 35K PPD (hvis de ikke får 6901 da som har deadline før året er omme). Det var jo veldig ubeleilig at http://folding.extremeoverclocking.com ikke har sin stat på nett, men vi må jo anta at de kommer på innen kort tid ettersom de annonserte å være online 27 desember morgen. Etter det jeg kan lese fra http://kakaostats.com/t.php?t=37651 så skal vi ligge omtrent an til å klare det, men det kommer jo litt an på deadline for de som folder big.

 

Edit: Ser at en levert 6903 akkurat ble erstattet av 6901 (som War skrev) og da øker jo sjansene for å klare 100mill betydelig siden slike kan leveres før 06.00 1 januar, så jepp, tipper at vi klarer dette.:thumbup:

Endret av -alias-
Lenke til kommentar

Veldig Lurt! Skal gjøre det samme hvis jeg er bevisst (les våken) og klarer å legge inn en restart med -oneunit før WU blir levert. Har flere maskiner som leverer nå i natt fra 03.11 og ut over morgenen, og tror nok ikke jeg er oppe da. Tipper (og håper) de tar ned 6901 som får deadline før 01.01.12.

Endret av -alias-
Lenke til kommentar

Du får 6901/3/4 enten du bruker -bigadv eller -bigbeta. For å være 100% sikker på å unngå 6903/4, må du disable de skripta du la inn for å lure systemet eller endre antall kjerner til 8. Det er 3 skript du må disable under System-Startup Applications. Det er corefix, fah6smp og langouste. Ta en restart og fold som før du gjorde endringene.

Lenke til kommentar

Det holder å editere corefix.sh og endre fra 12 til 8 cores så beholder man automatisk start hvis systemet restarter av seg selv.

 

Edit: Etter en gjennomgang ser det ut som jeg kan klare å levere ca. 1,2 mill før 06.00 01.01.2012. Kjører nå vanlig smp på de gamle riggene etterhvert som de går seg ferdige med big. Jeg kunne lagt om til dette på de nye, men det blir litt mye styr så jeg lar det være og satser på at vi er i rute til rekord likevel.

Endret av -alias-
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...