Gå til innhold

Anbefalte innlegg

Jepp. Går det an å tvinge en klient til å utnytte begge kjernene fullt ut? Evt. hva vil lønne seg resultatmessig?

Og selvfølgelig at du la dem i hver sin mappe. Er ikke sikker. Noen clienter er flinke til å bruke flere kjerner SMP og Fah_corea1 er selvfølgelig det beste eksemplet. Jeg har noen clienter på dualcores som blir kjørende på cpu 1 når jrg ville hatt dem på begge (0 og 1). I noen clienter kan man føre inn -cpu 0 og -cpu 1 om dette funger på 6.20 vet jeg ikke, men antar det. Irriterende når man manuellt må sette affinitet til både 0 og 1 når ny WU er lastet inn og en av corene (programmen startes). Antar du kan prøve med de nevnte instruksjonene i dialogboksen der ekstra parameters kan føres inn.

 

Hvis du setter inn feil parameter får du beskjed om at den er ugyldig. Men min erfaring at corene som clienten starter for hvert nytt prosjekt, allikevel bare kjøre på cpu 1 selv om clienten kjører på begge.

 

Det vil selfølgelig lønne seg hvis en CPUkjerne ikke kan gjøre jobben fort nok alene. Farta bestemmer du til en viss grad med innstillingene pluss hvor mye CPU i % den skal bruke.

 

Men da vi alle kjørte 5.04 pleide vi å kjøre en 5.04 pr kjerne pr mappe og da gjorde hvert program så mye det rakk ut i fra tildelt ressurs. Mulig 6.20 virker likedan, men man får de enkelte corene til å spre seg på flere kjerne men da må affinitet settes for hvert nytt Wu tungvint.

Endret av kjellms
Lenke til kommentar
Videoannonse
Annonse
9800GTX-216 er heller ikke så ille.

Ikke core 216 på 9800GTX, der er en gammel GPU som har fått nye proses(fra 65 til 55)Er G92.

Er kun GTX260 som har gått opp fra 192 til 216. GTX260 og 280 er samme GPU (GTX280 har 240 core)

Har ett selv GTX9800+. GPU er G92. PS: GPU-Z gir meg svaret.

Endret av Kjetil Lura
Lenke til kommentar

En kjapp og lett måte å se om CPU klienten bruker begge kjerner (eller om det kjører en klient på hver) er jo bare ctrl-alt-del, og sjekke prosessorstatestikken.

 

Edit: noe som slo meg når jeg akkurat gjorde dette selv var at jeg bruker 54% av RAM selv om jeg egentlig ikke gjør noe... (har 8GB)

Etter å ha summert minnebruken av alle prosesser i listen fant jeg at de brukte ca 900 MB, og IKKE 4GB slik som oversikten sier... Noen som vet hva som har skjedd???

Ikke at dette gjør noe da, har ennå ikke sett over 80% brukt minne :p

Endret av GullLars
Lenke til kommentar
....

Det sies at P5748 fortsatt er i beta og egentlig ikke skulle vært sluppet ennå, så det kan være de trekker den tilbake ennå en stund. Og uansett får man den ikke hele tiden.

 

Det virker ikke slik å dømme etter dette innlegget fra Pande. HVis jeg skjønte det rett er core13 enda under utvikling, men p5847 er i produksjon, altså data blir brukt til forskning på det aktuelle proteinet eller kanskje helst til å forstå metodene.

 

Pande sit: "Right now, P5748 is a production project. It went through QA with core_13 and it was kept as core_13 (non-beta) since core_13 right now is the same as core_11. I have reminded the scientists involved that this can be confusing for donors and in the future we should push out production projects only with core_11 and it has been now switched to core_11 (this won't change the science, but hopefully will make this more clear for donors what we're doing)."

 

Prosjektet p5847: This set of projects are assigned to the nVidia GPU2 core. We're studying the the villin headpiece subdomain which is commonly studied in experiments probing protein folding; simulating this molecules using GPU2 helps us to test the GPU2 cores and allows us to better understand published experimental results.

 

Noe annet er at det kanskje stresser hardwaren mer og gir varmere kjerner gjør at det kanskje ikke er lurt å klokke opp shader-klokka, iallfall hadde jeg et kort som fikk EUE etter at det begynte på p5847 idag.

Endret av kjellms
Lenke til kommentar

Du finner lista over de Cuda-kompatible her. Ikke alle Quadro er kompatible, men de nyeste. Men de er dyRE :grin2:

Så PPD/pris vil neppe svare seg hvis du ikke av andre grunner må ha slike kort. :green:

 

Sorry fant ingen tall på dem. Men de få linkene som fins i FF går heller på problemer.

Ville vel anta at har man grunn til å ha så dyre grafikkort i en stasjon så er det firma og levevei, den vil neppe få så mye tid til folding og man ville være redd for å brenne ut et slikt kort før tiden og helst ikke under et viktig prosjekt.

Endret av kjellms
Lenke til kommentar
har dere sett noen tall på folding med nvidia quadro`?`? skal vel i teorien være meget fint til dette men er det støttet av programvare og sånnt? ser selvfølgelig bort fra kostnader her .....

 

 

sånnt som dette gjerne 2 av de :cool:

 

FX5800 er vel det samme som et GTX280 i utgangspunktet, om man ser bort i fra alt det ekstra minnet.

Nei... Ikke helt...

Legg merke til FX5800 sitt lavere energibruk (max), og høyere klokkefrekvens enn GTX 280... ;)

 

189W vs. 236W

650MHz vs. 600MHz

4GB vs. 1GB

Lenke til kommentar

Men det som har noe å si for kompatibilitet er vel hvilken kjærne de bygger på. Her har ikke jeg peil på de forskjellige skjermkortene, men det var i alle fall sakens kjærne (so to speak) i startfasen av folding på gpu.

Endret av Xell
Lenke til kommentar

Nei... Ikke helt...

Legg merke til FX5800 sitt lavere energibruk (max), og høyere klokkefrekvens enn GTX 280... ;)

 

189W vs. 236W

650MHz vs. 600MHz

4GB vs. 1GB

 

Tenkte mest på SP-antallet. Men helt like er de jo ikke selvfølgelig.

 

(edit: fixe quoteoverskudd)

Endret av Smirnoff
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...