Gå til innhold

Anbefalte innlegg

De kan jobbe i mangen år til. Denne som jeg skriver dette er fra 07, desember. Foldet 24/7 i alle de årene gitt.

Skal si tiden flyr gitt.

Jøss. Men har brukt gaming pcen litt til testing da, har lyst til å bruke en annen pc som du sikkert forstår.. Men er vel et problem med varmeutvikling på pcer med stock vifte? Ønsker å overklokke en del av de jeg får og kjøpe en ny pc med AMD prosessor og alt over 4ghz. Tror den kan funke fett ;)

Lenke til kommentar
Videoannonse
Annonse

Da er mitt siste tilskudd til foldingen tilbake etter den lille brannen i VRM komponenten. Når jeg rengjorde komponenten viste det seg at selve VRMen ikke var skadet, bare plastbeskyttelsen omkring hadde tatt fyr og er brent delvis opp. Jeg renset den og har montert en kjøleribbe på den, og alle andre slike i område I og II, se bilde.

post-53451-0-70327000-1354099101_thumb.jpg

Skal man overklokke disse kortene noe ut over middels (3.GHz) så bør (les må) man montere kjøleribber på områdene som vises over her.

 

Prioitering av kjøling:

- Seksjon I er kritisk (CPU2 & CPU4on G6/Gi),

- Seksjon II er viktig (CPU1 & CPU3 på G6/Gi),

- Seksjon III er valgfrie (Mest sannsynlig leverer de strøm til DIMMer og brikkesett).

 

Bilde og tekst er henholdsvis laget og forfattet av 402blownstroker og tear som er aktive på [H]ard|Forum

 

Det er denne typen kjøleribber man trenger.

post-53451-0-96334900-1354099239_thumb.jpg

 

Temperaturene i område I ligger nå på 53 Celsius, som varmeste punkt hos meg. Da folder riggen på 3.0GHz. Disse VRMene tåler såvidt jeg har lest 105 Celsius som max før de smelter, nå har jeg litt å gå på igjen.

 

Riggen som hadde et branntilløp er den som er over den som er uthevet under.

post-53451-0-02225500-1354099902_thumb.jpg

Det har startet å komme ned P6901 nå i dag, og da ser jeg noe interessant. Opteron 6176se på 2.3GHz tar rotta på Opteron 6276se 3.0GHz når det kommer til folding på denne typen WU, når man sammenligner antall kjerner og frekvens. For P8101 er det omvendt, da er Interlagos betydelig bedre enn Magny Cours. E5-Xeon 4650 riggen som sykler med 3.1GHz gruser alt som finnes å få kjøpt av 4P i dag.

 

Jeg ser også med forbauselse at SR-2 riggen min nå folder 8101 så det griner etter. Tidligere har den aldri vært høyere enn 144K PPD for denne type WU.

 

Update.

Nå kom det også ned en 8102 som virkelig gir valuta pr. Watt.

post-53451-0-76699300-1354109863_thumb.jpg

Da kan jeg stenge SR-2 maskinen som akkurat er ferdig med sin 8101.

 

Klikk på bildene så kommer de opp i full størrelse.

Endret av -alias-
Lenke til kommentar

Tror nok den gamle arkitekturen til AMD var bedre enn den nye. Kjører folding på en maskin med 1090T og to 6850 kort og på en maskin med fx-6100 og to 7970 kort.

 

FX-6100 maskinen foldet så dårlig at jeg droppa å folde med CPU da den ligger på godt under 50% av den andre maskinen. Tjener mere på å kun bruke GPU på denne. 1090T maskinen folder fortsatt 10% raskere.

Endret av Lugmeister
Lenke til kommentar

Ja, for standard smp og bigadv 69xx er den gamle plattformen Magny Cours bedre enn Interlagos & Bulldozer. For 81xx vinner Interlagos. Men nå kommer Opteron 6300 (Piledriver) serien som skal være betydelig forbedret, så det blir et spennende nytt år vi snart går inn i!

 

Update.

Jeg har 4 stk Opteron 6262HE (ES) 16 kjerner på hånden, men etter at jeg nå fikk riggen som ble litt svidd, i orden igjen så finner jeg vel ut at jeg ikke trenger flere 4P rigger. Disse chippene er ES utgaver som kan klokkes til 2.6 GHz uten at de blir spesielt varme, og da yter de omkring 400K PPD for 8101 og nærmere 600K for 8102. Hvis man vil klokke videre så antar jeg at de kan nå 3.0GHz kanskje mer med god kjøling. Stepping er B2 så de vil la seg kjøre på de alle nyere hovedkort.

 

Specs for Opteron 6262 HE http://www.cpu-world...VATGGGU%29.html

 

Strømforbruket vil ligge på mellom 600 - 650W med 2.6GHz, gjetter jeg på, kanskje noe lavere siden de i tillegg til å være ES også er HE (strømgjerrige) utgaver. Disse kan overtas for det jeg betaler for dem, som er ca. 6K for alle fire inkl. frakt innen Norge. Resten tar vi evt. i PM.

Endret av -alias-
  • Liker 1
Lenke til kommentar

Alias, om jeg ikke var student som bor i 25m^2 hybel hadde jeg lett gått for en 4P rigg til den prisen.

Om du hadde fått overklokket 4P Xenon riggen din til 3.2GHz så kanskje du hadde passert 1M PPD med 8102 :)

 

Snytefant, det skjer nok interresante ting når det kommer QRB på GPU WUs. Jeg kikket fort på evga's poeng for de siste dagene, og det kan se ut som de kommer til å ta av når det blir full roll-out.

Det er mulig jeg kjøper et 560Ti (eller var det 570?) brukt billig av en kamerat som vurderer å oppgradere til 600-serien pga CoD BO2 og kjører det uten å ha koblet skjermer i bare for folding. Noen som vet om det er problematisk å kjøre AMD og nVidia skjermkort i samme maskin? Eventuelt kan jeg kanskje sette det opp i P2 x6 rigg for folding der. Tenker å lage et åpent oppsett på benk av gamle AM3 riggen i juleferien og kanskje teste linux.

 

Vi ligger forresten for øyeblikket på 17. plass i poeng totalt, og 10. plass i PPD. Lille HW.no på top10 i verden er gøy å se :D

Endret av GullLars
  • Liker 1
Lenke til kommentar

ERIK-PC: 3 x GTX 670

ERIK3-PC: GTX 460

ERIK4-PC: GTX 560ti

ERIK5-PC: GTX 460

Svette-KM: 2 x GTX 690

 

Kepler er dårlig optimalisert (Og kanskje dårligere egnet for folding enn Fermi?). 560ti får 170K mens 670 bare såvidt runder 100K

Endret av Snytefant
Lenke til kommentar

ERIK-PC: 3 x GTX 670

ERIK3-PC: GTX 460

ERIK4-PC: GTX 560ti

ERIK5-PC: GTX 460

Svette-KM: 2 x GTX 690

 

Kepler er dårlig optimalisert (Og kanskje dårligere egnet for folding enn Fermi?). 560ti får 170K mens 670 bare såvidt runder 100K

Har du flere pcer som kjører alle "oppgavene"? Holder selv på med å installere OS på en av de pcene jeg skal bruke etter hvert. Noen ganske gamle og dårlige pcer, men skal sette disse sammen til et større cluster tror jeg. Må først få litt bedre internett der jeg vil ha dem. Er ikke ordentlig isolert (er knapt nok isolasjon) så det er temmelig svalt der. Perfekt når pcene har knapt nok kjøling. Blir nok en nyere pc snart som alias om noen år ;)

Lenke til kommentar

"Har du flere pcer som kjører alle "oppgavene"?"

Ja, er totalt 5 pcer, hvorav 4 er mine og "svette-KM" er riggen till kompisen min, men vi folder med samme bruker :)

 

Når du nevner cluster, tenker du da på at flere maskiner skal jobbe på samme oppgave samtidig?

Noen som vet om det er problematisk å kjøre AMD og nVidia skjermkort i samme maskin?

Såvidt jeg har prøvd så funket det fint på Win7 (Vista?)

Prøvde for en stund tilbake med et 9800GTX og et Radeon 4870. Det foldet fint det.

Brukte da v6-klienten.

 

Men XP gikk det ikke, ble noe tull med driverne tror jeg.

Endret av Snytefant
Lenke til kommentar

Jeg har ikke tid til å passe på at det ikke blir lastet ned feil prosjekt som updater core osv for å få beta.

V7 med 690 som bare surrer å går helt vanlig ligger på 35.000PPD

og 580 på 26.000PPD

 

SR2 med 150.000 PPD på 8101

 

Lav PPD iforhold til dere ser jeg.

 

Alias, du trenger vel kjøleribbene litt før om man går for vannkjøling av cpuene også.

Da er det ikke 2x 120mm-vifter som står rett over og blåser litt som det hadde gjort med en slik kjøler pr cpu.

Endret av War
Lenke til kommentar

"Har du flere pcer som kjører alle "oppgavene"?"

Ja, er totalt 5 pcer, hvorav 4 er mine og "svette-KM" er riggen till kompisen min, men vi folder med samme bruker :)

 

Når du nevner cluster, tenker du da på at flere maskiner skal jobbe på samme oppgave samtidig?

 

Såvidt jeg har prøvd så funket det fint på Win7 (Vista?)

Prøvde for en stund tilbake med et 9800GTX og et Radeon 4870. Det foldet fint det.

Brukte da v6-klienten.

 

Men XP gikk det ikke, ble noe tull med driverne tror jeg.

Ja, mener at flere jobber samtidig. Men hvis ikke, hvordan får du informasjon om oppgavene fra de andre pcene? I tillegg, er det noen som vet hvordan man booter f.eks. Linux fra en NAS over til flere datamaskiner? Har en del harddiskløse pcer liggende...

 

EDIT: Luerer også på om 86 grader er bra for en prosessor. Vil ikke tro det, skal få bedre kjølingssystem men for øyeblikket er stock vifta det eneste jeg har...

Endret av CasterAnd
Lenke til kommentar

Jeg har ikke tid til å passe på at det ikke blir lastet ned feil prosjekt som updater core osv for å få beta.

 

Har funnet en løsning her nå, stopper ikke opp hvis den får ned en 762x

 

core 2.22 går i beta\Core_15.fah-mappa

core 2.25 går i Core15.fah-mappa

post-112124-0-30793900-1354120630_thumb.jpg

 

Har hatt både 762x, 8018 og 8057 på 560ti-riggen i dag. Da bruker den 2.25 på 762x og 2.22 på 8018 og 8057. Ingen error på core-version slik det kom.

 

Dette gjør jo ikke at den ikke laster ned 762x, men den stopper ikke opp hvertfall. Og igjen, dette gjelder bare for fermi. Kjører du 580-en og 690-en i samme rigg kan det bli problemer hvis du bytter på corene ..

Kepler kjøres kun på 2.25

 

Ja, mener at flere jobber samtidig. Men hvis ikke, hvordan får du informasjon om oppgavene fra de andre pcene?

Jeg bruker HFM, det er et monitorprogram som får info om wuene fra de forskjellige v7-klientene på de forskjellige maskinene.

HFM: http://code.google.com/p/hfm-net/

Endret av Snytefant
Lenke til kommentar

Om du hadde fått overklokket 4P Xenon riggen din til 3.2GHz så kanskje du hadde passert 1M PPD med 8102 :)

 

Vi ligger forresten for øyeblikket på 17. plass i poeng totalt, og 10. plass i PPD. Lille HW.no på top10 i verden er gøy å se :D

 

Tear hos [H]ard|Forum jobber med programvare for OC av Xeon E5-4650, så det kommer nok snart, og da ryker nok den rekorden. Det er han som har laget det samme for Interlagos CPUer.

 

Vi inntar 16 plassen i løpet av 2 uker, og 15 plassen før året er omme om dere fortsetter å øke produksjonen som nå, dette er veldig bra så fortsett sånn. :green:

 

Nå se, nå ble det fart i 8057-ene her! :dribble:

 

Må si jeg er imponert over hva som skjer, spesielt yter jo 560Ti fantastisk bra. Det hadde jeg ikke trodd at det forholdsvis gamle kortet ville gjort. Jeg har 2 slike stående klar i en maskin her. Hadde du villet dele konfigurasjonen for 560Ti så skal jeg fyre i gang begge 2. Hvor mye Watt trekker maskinen med 560Ti fra veggen når du kun folder med GPU?

Endret av -alias-
Lenke til kommentar

Alias, du trenger vel kjøleribbene litt før om man går for vannkjøling av cpuene også.

Da er det ikke 2x 120mm-vifter som står rett over og blåser litt som det hadde gjort med en slik kjøler pr cpu.

 

Det kan du nok ha rett i hvis man ikke har vifter i tillegg som sørger for luftflyt i kassa. Jeg har 2 x 14cm vifter forran og 4 radiatorervifter som drar ut i topp og bak. I tillegg en 20" vifte som pøser på med kald luft inn fra siden mot midten av hovedkortet, men likevel ble det for lite. Har nå også montert 2 x 14cm og en 8cm som kjøler ned de nye kjøleribbene, og jeg er veldig fornøyd med temperaturene nå. Jeg var nok litt optimistisk (les amatørmessig) som forsøkte meg på 3.7GHz med et 4P serverkort uten ekstra kjøling på utsatte komponenter. CPUene får nok kjøling, men noen av VRM komponentene takler ikke så mye Watt som må til.

 

Jeg har god kjøling nå, men er usikker på om jeg tør å forsøke en gang til. Jeg vet jo ikke for sikkert om kortet er påført skade som følge av strømbruddet, og klokkingen etterpå. Blir jo litt surt hvis det tar fyr igjen, et sånn ca. 6000 kroners bål. :green:

Endret av -alias-
Lenke til kommentar

Hadde du villet dele konfigurasjonen for 560Ti så skal jeg fyre i gang begge 2. Hvor mye Watt trekker maskinen med 560Ti fra veggen når du kun folder med GPU?

v7-klienten(ver. 7.2.9) med "client-type=beta"

 

Sjekk dette innlegget for hvor core 2.22 skal ligge

http://www.diskusjon...post&p=19963458

 

Legger ved core 2.22-fila, så slipper man å lete bakover i tråden hvis man trenger den.

 

 

Kan også se på dette innlegget for litt mer info:

http://www.diskusjon...post&p=19930666

 

Hvor mye watt den bruker vet jeg sannelig ikke.

Men TDP er hvertfall på 170watt for mitt kort

 

Clocks på 560ti-kortet

Core/shader/memory

975/1950/2100 (Fra MSI afterburner)

GPU-Z sier 974.5/1950/1050

Dette har kanskje noe med hvordan ting avleses å gjøre.

 

Ytelse akkurat nå på 560ti:

WU: 8057

TPF: 1:43

PPD: 169600

FahCore_15.rar

Endret av Snytefant
Lenke til kommentar

Ja, mener at flere jobber samtidig. (...)

 

Du må vel ha rimelig bra båndbredde mellom maskinene skal clustering av den allerde clustrede F@H oppgaven du blir tildelt være mer effektivt enn å kjøre en klient på hver av PCene i clusteret med hver sin oppgave ;) F@H er nemlig veldig sulten på minnebåndbredde og mye data går frem og tilbake mellom CPU & RAM under beregningene. Dette har folk sett ved at raskere minne gir stor økning i PPD. -alias- har vel noen tall på dette i hodet? Var det ikke på den ene G34 riggen du merket dette?

 

Jeg mener å ha lest i Stanford FAQ før at det ikke lønte seg å kjøre på store cluster, men nå ser det ut som det har vært litt endringer av "kjernene" som brukes til simuleringene. Så det er mulig jeg tar feil her...

Lenke til kommentar

Du må vel ha rimelig bra båndbredde mellom maskinene skal clustering av den allerde clustrede F@H oppgaven du blir tildelt være mer effektivt enn å kjøre en klient på hver av PCene i clusteret med hver sin oppgave ;) F@H er nemlig veldig sulten på minnebåndbredde og mye data går frem og tilbake mellom CPU & RAM under beregningene. Dette har folk sett ved at raskere minne gir stor økning i PPD. -alias- har vel noen tall på dette i hodet? Var det ikke på den ene G34 riggen du merket dette?

 

Jeg mener å ha lest i Stanford FAQ før at det ikke lønte seg å kjøre på store cluster, men nå ser det ut som det har vært litt endringer av "kjernene" som brukes til simuleringene. Så det er mulig jeg tar feil her...

Aha. Takker! :D Blir vel da ca. 5 pcer som kommer til å kjøre på CPU only, kanskje også GPU men det kommer an på maskinen (er ikke snakk om gode spillmaskiner dette her..).

En 1000M switch burde vel gjøre jobben hvis jeg vil gå cluserveien?

Har funnet en løsning her nå, stopper ikke opp hvis den får ned en 762x

 

core 2.22 går i beta\Core_15.fah-mappa

core 2.25 går i Core15.fah-mappa

post-112124-0-30793900-1354120630_thumb.jpg

 

Har hatt både 762x, 8018 og 8057 på 560ti-riggen i dag. Da bruker den 2.25 på 762x og 2.22 på 8018 og 8057. Ingen error på core-version slik det kom.

 

Dette gjør jo ikke at den ikke laster ned 762x, men den stopper ikke opp hvertfall. Og igjen, dette gjelder bare for fermi. Kjører du 580-en og 690-en i samme rigg kan det bli problemer hvis du bytter på corene ..

Kepler kjøres kun på 2.25

 

 

Jeg bruker HFM, det er et monitorprogram som får info om wuene fra de forskjellige v7-klientene på de forskjellige maskinene.

HFM: http://code.google.com/p/hfm-net/

Tusen takk! :D Blir vel dette som brukes hvis jeg ikke orker å lage cluster da :)

Lenke til kommentar

Hver sin pc.

 

Hva anbefaler du at jeg gjør? Sletter alt og?

690 slik det er

For 580-kortet:

Client v7 med "client-type=beta" på GPU-sloten

 

Så ser du på dette innlegget og bytter FahCore-fila under beta med den jeg har lagt ved i innlegget.

https://www.diskusjon.no/index.php?showtopic=254688&view=findpost&p=19963688

 

WU 8057 funker også på core 2.25, men man kan tape opp til 40% på Fermi-kort

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...