Gå til innhold

Anbefalte innlegg

Videoannonse
Annonse

Med tanke på at man lager millioner og 0,001mm tykkere koster millioner så tviler jeg på at det er hyllevare :dremel:

Min som tok fyr var 1200W PSU og burde iallefall være designet for høyeste A i 12v-linjene.

 

Det er mye som skjer i foldingkulissene :dremel:

Mer PPD blir det også :dribble:

post-64596-0-44469000-1370065467_thumb.jpg

  • Liker 2
Lenke til kommentar

Det er mye som skjer i foldingkulissene :dremel:

Mer PPD blir det også :dribble:

 

Må legge ut unboxingbilder da :)

 

Med meg så har pcen bare skrudd seg av pga. for høy varme hver natt nå så jeg tar ikke sjansen på å la den stå på med folding om natta. Kjører på i kortere perioder, men det blir ikke så mye poeng ut av det lenger :(

Lenke til kommentar

V7 kjører core17, 680GTX DCII Top og en 2600k på 4.5ghz

Regna med at Core17 ville øke ppd, men ikke så mye..

 

Du kan kanskje prøve å sette SMP-foldingen til bare bruke 6 tråder og se om dette gir deg totalt mer poeng. Gjøres under Configure->Slots->Velg CPU->Edit->Antall tråder settes øverst (står på -1 som default=alle kjerner).

 

Det blir av og til litt feil estiamt i V7, har sett folk som har fått flere titals og hundretalls millioner :p Men rundt 100K er respektabelt! :)

  • Liker 1
Lenke til kommentar
Det er mye som skjer i foldingkulissene :dremel:

Mer PPD blir det også :dribble:

Jøss! Er det to eller fire nye hovedkort på toppen der??? Hvilke CPUer skal du sette i? Hvis det skal brukes til folding kommer du til å innta 1. plassen når det er på plass...

 

Selv skal jeg bestille et eller to nye 4P hovedkort i sommer, men det ene blir for å erstatte et som sa et endelig takk for seg for noen uker siden.

Lenke til kommentar

Med "FreeBSD Clusters" kan man bygge sin egen SuperComputer med nesten hva som helst av standard Hovedkort / CPUer. Om noe slikt kan brukes til folding er jeg usikker på.

 

Om Stanford skriver en core/klient som gjør at man kan få hver node i et cluster til å jobbe med hver sin WU, men likevel bare ha en config ville dette sikkert vert veldig interessant for folk som har tilgang til tonnevis av maskiner (eller et par stykker), men som ikke er lysten på å konfigurere opp hver enkelt maskin hele tiden.

 

Ellers er det som nevnt ekstremt mye koordinering mellom trådene gjennom en WU i SMP-folding, slik at man er avhengig av høy båndbredde (og lav latency) mellom nodene for at det skal lønne seg. Kanskje i tilfeller hvor prosessorene er så svake at det er beregningstiden som blir flaskehals kan dette lønne seg. Men da må vel andre faktorer som strøm, plass, pris etc. gjøre hele prosjektet ulønnsomt i forhold til en 2P/4P :hmm:

 

Vi så faktisk skaleringsprobelemer for dual GPU over PCI-E bus'en når vi lekte oss litt med FAHCore 17.

 

FAH moves massive amounts of data between the threads and you wouldn't be able to keep multiple nodes busy. The SMP client REQUIRES a memory-to-memory data transfers, not something slow like a network to interconnect the nodes.
Lenke til kommentar

Hadde helt glemt foldingen etter å ha brukt serveren til noe annet, så nå har jeg endelig fått satt FAH opp igjen. Første WU ned var en 8104, TPF 9:25. PPD 397k, noe som er en del mer enn 8101 ga så vidt jeg husker.

  • Liker 2
Lenke til kommentar
Om Stanford skriver en core/klient som gjør at man kan få hver node i et cluster til å jobbe med hver sin WU, men likevel bare ha en config ville dette sikkert vert veldig interessant for folk som har tilgang til tonnevis av maskiner (eller et par stykker), men som ikke er lysten på å konfigurere opp hver enkelt maskin hele tiden

Dette kan du sannsynligvis gjøre selv ved å binde FAH cores til logiske CPUer på samme node, og så kjøre fler CPU klienter. Jeg vet ikke om du har mulighet til å gjøre det direkte i OS eller via utilities i FreeBSD. Jeg tror ikke de er veldig mye koding som skal til for å implementere noe slikt.

EDIT: For standford å burde det være rimelig kjapt å implementere et alternativ i klienten sin for at en slot skal bindes til logiske CPU cores brukeren selv kan velge.

Endret av GullLars
Lenke til kommentar

Med hensyn til folding så synes jeg ikke det er verdt oppgraderingen. i7 3970X kan sammenlignes med Intel® Core™ i7-980X Processor Extreme Edition som jeg har 2 av, og de imponerer ikke lenger når det gjelder folding siden de ikke lenger klarer bigadv WUer. Tidligere bigadv generasjon lot seg folde på disse, og PPD kunne ligge omkring 90K dengang. I dag med standard SMP snakker vi omkring 40 - 45K som ikke er hensiktsmessig å bruke 7 - 8.000 kroner på. Da må det være lurere å kjøpe et Titan skjermkort som gir omkring 120K PPD.

Lenke til kommentar

Du kan kanskje prøve å sette SMP-foldingen til bare bruke 6 tråder og se om dette gir deg totalt mer poeng. Gjøres under Configure->Slots->Velg CPU->Edit->Antall tråder settes øverst (står på -1 som default=alle kjerner).

 

Det blir av og til litt feil estiamt i V7, har sett folk som har fått flere titals og hundretalls millioner :p Men rundt 100K er respektabelt! :)

 

100k er gøyalt det, men blir litt lite når det er på hoved PC'en som jeg har en tendens til og spille litt på så blir ikke 24\7 folding.

 

Enda veldig grønn på folding, men er lærelysten og har lyst og bidra til en god sak.

 

Har planer om og sette opp en 24\7 folder, ikke noe mega 700k 4P Rig, men har en 2P Opteron 2382(?) stående folder nå som drar ~25k ppd 24\7 men har lyst og oppgradere med et \ to skjermkort jeg har liggende men har ikke helt satt meg inn i hvor optimalt det vil fungere i ubuntu enda.

Blir bare et stakkerslig 560TI kort som samler støv, fikk tidligere ~ 35k ppd på det med GPUtrackerV2 stående i htpcen og folde - Har et lite håp om ppd'en vil stige med den nye kjernen, men må bare prøve ut diverse og se hvor effektivt det vil bli.

 

Hvis dere har noe informasjon om GPU folding i linux hadde jeg satt pris på det, det lille jeg leste tidligere var at den nye core17 hadde støtte for linux folding men satte meg ikke nok inn i det.

 

Blir eventuelt at jeg kjører windows og en linux VM med SMP folding og gpu folding i windows.

Lenke til kommentar

Chavalito, om du skal oppgradere til hexacore fordi du vil ha det, ikke kun for folding, vil jeg på det sterkeste anbefale 3930K over 3970X. Forskjellen er baseclock og et par MB L3, så når du overklokker er det snakk om lite til ingen forskjell, men stor prisforskjell.

For folding ser jeg ca 60% av poengene når jeg kjører SMP8 i forhold til SMP12, men det varierer med WU, så en oppgradering vil gi en nevneverdig økning for CPU delen, men som andre nevner er delta betydelig mindre enn du vil få ved å legge til en ekstra GPU.

Ellers er 3930K en K CPU, så overklokking er enkelt med multiplier. Har du en grei kjøler er 4.4-4.6 rimerlig greit å oppnå, avhengig av hvor heldig du er i "silicon lottery".

  • Liker 1
Lenke til kommentar

Noen vettue tall på hvordan GTX780 yter VS Titan på folding? Tenker litt siden Titan runder fort 7 laken mens ent GTX780 går for 2K mindre...

Ca 119K på P8900 (Titan har ca 160K)

 

Hvis dere har noe informasjon om GPU folding i linux hadde jeg satt pris på det, det lille jeg leste tidligere var at den nye core17 hadde støtte for linux folding men satte meg ikke nok inn i det.

Så vidt meg bekjent er det bare til å legge inn beta-flagg på GPU-slot, og ha driverne i orden (sudo apt-get install nvidia-current) så skal alt gå bra; gitt at du har Nvida kort som støtter OpenCL ;)

 

Dette kan du sannsynligvis gjøre selv ved å binde FAH cores til logiske CPUer på samme node, og så kjøre fler CPU klienter. Jeg vet ikke om du har mulighet til å gjøre det direkte i OS eller via utilities i FreeBSD. Jeg tror ikke de er veldig mye koding som skal til for å implementere noe slikt.

EDIT: For standford å burde det være rimelig kjapt å implementere et alternativ i klienten sin for at en slot skal bindes til logiske CPU cores brukeren selv kan velge.

Jeg tenkte det burde være mulig å lage bare én slot som sto for konfigurasjon, og som så sørget for å kjøre en core på hver node automagisk. Dette kan gi litt konfigurasjonskompatibilitetsproblemer (:p) hvis du har noder av forskjellig hardware, men kanskje ikke så vanskelig å løse vha avansert konfigurasjon (eks. node 3 skal ha big-adv)? Ville iallefall gjort oppsett av folding veldig enkelt hvis man hadde en god del noder i clusteret sitt :)

 

Selvsagt kunne en som du sier laget n-slots i et n-node oppsett og så binde enhver core startet av slot ni til alle logiske CPUer i node ni hvis noe slikt hadde vært mulig. Clustering kan jeg ikke så mye om, så er kanskje litt på tynn is :)

  • Liker 1
Lenke til kommentar

Chavalito, om du skal oppgradere til hexacore fordi du vil ha det, ikke kun for folding, vil jeg på det sterkeste anbefale 3930K over 3970X. Forskjellen er baseclock og et par MB L3, så når du overklokker er det snakk om lite til ingen forskjell, men stor prisforskjell.

For folding ser jeg ca 60% av poengene når jeg kjører SMP8 i forhold til SMP12, men det varierer med WU, så en oppgradering vil gi en nevneverdig økning for CPU delen, men som andre nevner er delta betydelig mindre enn du vil få ved å legge til en ekstra GPU.

Ellers er 3930K en K CPU, så overklokking er enkelt med multiplier. Har du en grei kjøler er 4.4-4.6 rimerlig greit å oppnå, avhengig av hvor heldig du er i "silicon lottery".

 

Ok, det er svar godt nok. Da er det mulig jeg går for en 3930K, den er mye billigere i USA enn i Spania, så det blir nok der. Men jeg tror en 3970X koster 879 USD i statene, så det er ikke helt bestemt enda.

Lenke til kommentar

Har selv en 3960x som jeg betalte 8k for. På E-bay selger de brukte for ca 4k. Selv ville jeg kjøpt 3930x. På mitt Rampage Formula har jeg ikke plass til mere enn SLI/CrossFire :( men husk at f.eks 4x7950 med litt overklokking vil gi ca 400 000PPD, og de koster ca 2000kr pr stykk.

  • Liker 1
Lenke til kommentar

Om du har tålmodishet til å vente til høsten/vinteren er det antatt at Ivy-E kommer. Om det er 6 eller 8 kjerner har jeg ikke hørt noe om, men det er en betydelig større oppgradering enn 3820 -> 3930K.

Er det noen her som har info eller delvis pålitelige rykter å referere ang. Ivy-E?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...