Gå til innhold

Anbefalte innlegg

Videoannonse
Annonse

Det blir jo ikke det samme kortet siden jeg byttet det pga defekt i sokkelen ;) Men jupp, det kortet ja Asus P6T& WS Revolution. Nå har det dog holdt i 1 år og 8 måneder, så direkte misfornøyd er jeg ikke men fortsatt innenfor RMA.

 

Får jeg et nytt kort i bytte blir det Rev 2.0 så da har det sikkert blitt fikset div. svakheter som måtte være der.

 

Frister dog litt å heller bygge meg en SFF til spill/generell bruk.

Endret av Theo343
Lenke til kommentar

Det var det jeg ville huske ja. Håper de er greiere med deg enn de var mot meg, Netshop altså. Antar at du har forsøkt med en og en minnebrikke i alle varianter, samt resett av bios i min. 30 sekunder som de benytter. Får du noen feilmeldings bip ved oppstart, eller er det helt dødt?

Lenke til kommentar

Rayline:

Vifta gikk på alle skjermkortene jeg prøvde startet opp. GTX 480, 8800GT, GTX 285.

 

Kjetil:

Jeg har ikke utelukket PSU 100% så jeg skal forsøke et bytte av den først faktisk med kun kjernekomponenter tilkoblet. Dette er en Mist 1000W og jeg har en Corsair TX750, HX520 samt en Mist 600 liggende som jeg kan teste med.

Dog denne lukten virket å komme fra øvre del av maskinen så jeg har en del tro på Mosfet, men da må jeg demontere CPU kjøleren (som er litt herk med denne pushn-pull saken) så jeg forsøker PSU test først.

 

Men når det skal sies har jeg flere ganger gjennom årene opplevd at vifter, dioder, disker osv. fyrer opp selv om det er feil på hovedkortet og at jeg ikke får skjermsignal og post.

 

Dette at det luktet svidd (som jeg først trodde kunne være en gummisak som lå inntil noe varmt) gir meg heller ikke spesielt lyst til å teste for mye så jeg kanskje risikerer å ødelegge andre komponenter i tillegg. Men, avventer og ser. Jeg tester PSU biten i morgen først, orker ikke styre mer med disse maskinene med det første nå.

 

 

 

EDIT:

Fikk forøvrig svar på returforespørselen kl. 16:07 som er rimelig bra når jeg sendte den inn i 14:30. Det står "dekkes av garanti" og "garanti, repareres". Det lover jo godt men håper jeg slipper å vente på at kortet skal sendes til produsent, repareres og tilbake igjen. Da kan jeg bli uten maskin i lang, lang tid.

 

Jeg hadde en lignende sak med DFI for noen år siden hvor kortet skulle sendes til produsent for reparasjon. Det tok nesten 3mnd bare frem og tilbake til produsent.

Endret av Theo343
Lenke til kommentar

Er det flere som ikke får sendt WU til server?

 

 

 

[18:27:44] Completed 2000000 out of 2000000 steps (100%)

[18:27:44] DynamicWrapper: Finished Work Unit: sleep=10000

[18:27:54]

[18:27:54] Finished Work Unit:

[18:27:54] - Reading up to 687408 from "work/wudata_01.trr": Read 687408

[18:27:54] trr file hash check passed.

[18:27:54] - Reading up to 42660644 from "work/wudata_01.xtc": Read 42660644

[18:27:54] xtc file hash check passed.

[18:27:54] edr file hash check passed.

[18:27:54] logfile size: 278059

[18:27:54] Leaving Run

[18:27:57] - Writing 43628447 bytes of core data to disk...

[18:27:58] ... Done.

[18:28:00] - Shutting down core

[18:28:00]

[18:28:00] Folding@home Core Shutdown: FINISHED_UNIT

[18:28:03] CoreStatus = 64 (100)

[18:28:03] Unit 1 finished with 92 percent of time to deadline remaining.

[18:28:03] Updated performance fraction: 0.862259

[18:28:03] Sending work to server

[18:28:03] Project: 6701 (Run 112, Clone 48, Gen 8)

 

 

[18:28:03] + Attempting to send results [November 3 18:28:03 UTC]

[18:28:03] - Reading file work/wuresults_01.dat from core

[18:28:03] (Read 43628447 bytes from disk)

[18:28:03] Connecting to http://171.64.65.56:8080/

[18:28:04] - Couldn't send HTTP request to server

[18:28:04] (Got status 503)

[18:28:04] + Could not connect to Work Server (results)

[18:28:04] (171.64.65.56:8080)

[18:28:04] + Retrying using alternative port

[18:28:04] Connecting to http://171.64.65.56:80/

[18:28:04] - Couldn't send HTTP request to server

[18:28:04] (Got status 503)

[18:28:04] + Could not connect to Work Server (results)

[18:28:04] (171.64.65.56:80)

[18:28:04] - Error: Could not transmit unit 01 (completed November 3) to work server.

[18:28:04] - 1 failed uploads of this unit.

[18:28:04] Keeping unit 01 in queue.

[18:28:04] Trying to send all finished work units

[18:28:04] Project: 6701 (Run 112, Clone 48, Gen 8)

 

 

[18:28:04] + Attempting to send results [November 3 18:28:04 UTC]

[18:28:04] - Reading file work/wuresults_01.dat from core

[18:28:04] (Read 43628447 bytes from disk)

[18:28:04] Connecting to http://171.64.65.56:8080/

[18:28:05] - Couldn't send HTTP request to server

[18:28:05] (Got status 503)

[18:28:05] + Could not connect to Work Server (results)

[18:28:05] (171.64.65.56:8080)

[18:28:05] + Retrying using alternative port

[18:28:05] Connecting to http://171.64.65.56:80/

[18:28:05] - Couldn't send HTTP request to server

[18:28:05] (Got status 503)

[18:28:05] + Could not connect to Work Server (results)

[18:28:05] (171.64.65.56:80)

[18:28:05] - Error: Could not transmit unit 01 (completed November 3) to work server.

[18:28:05] - 2 failed uploads of this unit.

 

 

[18:28:05] + Attempting to send results [November 3 18:28:05 UTC]

[18:28:05] - Reading file work/wuresults_01.dat from core

[18:28:05] (Read 43628447 bytes from disk)

[18:28:05] Connecting to http://171.67.108.25:8080/

[18:28:06] - Couldn't send HTTP request to server

[18:28:06] (Got status 503)

[18:28:06] + Could not connect to Work Server (results)

[18:28:06] (171.67.108.25:8080)

[18:28:06] + Retrying using alternative port

[18:28:06] Connecting to http://171.67.108.25:80/

[18:28:06] - Couldn't send HTTP request to server

[18:28:06] (Got status 503)

[18:28:06] + Could not connect to Work Server (results)

[18:28:06] (171.67.108.25:80)

[18:28:06] Could not transmit unit 01 to Collection server; keeping in queue.

[18:28:06] + Sent 0 of 1 completed units to the server

[18:28:06] - Preparing to get new work unit...

[18:28:06] Cleaning up work directory

[18:28:06] + Attempting to get work packet

[18:28:06] Passkey found

[18:28:06] - Will indicate memory of 6133 MB

[18:28:06] - Connecting to assignment server

[18:28:06] Connecting to http://assign.stanford.edu:8080/

[18:28:08] Posted data.

[18:28:08] Initial: 40AB; - Successful: assigned to (171.64.65.54).

[18:28:08] + News From Folding@Home: Welcome to Folding@Home

[18:28:08] Loaded queue successfully.

[18:28:08] Sent data

[18:28:08] Connecting to http://171.64.65.54:8080/

[18:28:09] Posted data.

[18:28:09] Initial: 0000; - Receiving payload (expected size: 1765224)

[18:28:18] - Downloaded at ~191 kB/s

[18:28:18] - Averaged speed for that direction ~182 kB/s

[18:28:18] + Received work.

[18:28:19] Trying to send all finished work units

[18:28:19] Project: 6701 (Run 112, Clone 48, Gen 8)

 

 

[18:28:19] + Attempting to send results [November 3 18:28:19 UTC]

[18:28:19] - Reading file work/wuresults_01.dat from core

[18:28:19] (Read 43628447 bytes from disk)

[18:28:19] Connecting to http://171.64.65.56:8080/

[18:28:19] - Couldn't send HTTP request to server

[18:28:19] (Got status 503)

[18:28:19] + Could not connect to Work Server (results)

[18:28:19] (171.64.65.56:8080)

[18:28:19] + Retrying using alternative port

[18:28:19] Connecting to http://171.64.65.56:80/

[18:28:19] - Couldn't send HTTP request to server

[18:28:19] (Got status 503)

[18:28:19] + Could not connect to Work Server (results)

[18:28:19] (171.64.65.56:80)

[18:28:19] - Error: Could not transmit unit 01 (completed November 3) to work server.

[18:28:19] - 3 failed uploads of this unit.

 

 

[18:28:19] + Attempting to send results [November 3 18:28:19 UTC]

[18:28:19] - Reading file work/wuresults_01.dat from core

[18:28:19] (Read 43628447 bytes from disk)

[18:28:19] Connecting to http://171.67.108.25:8080/

[18:28:20] - Couldn't send HTTP request to server

[18:28:20] (Got status 503)

[18:28:20] + Could not connect to Work Server (results)

[18:28:20] (171.67.108.25:8080)

[18:28:20] + Retrying using alternative port

[18:28:20] Connecting to http://171.67.108.25:80/

[18:28:20] - Couldn't send HTTP request to server

[18:28:20] (Got status 503)

[18:28:20] + Could not connect to Work Server (results)

[18:28:20] (171.67.108.25:80)

[18:28:20] Could not transmit unit 01 to Collection server; keeping in queue.

[18:28:20] + Sent 0 of 1 completed units to the server

[18:28:20] + Closed connections

[18:28:20]

[18:28:20] + Processing work unit

[18:28:20] Core required: FahCore_a3.exe

[18:28:20] Core found.

[18:28:20] Working on queue slot 02 [November 3 18:28:20 UTC]

[18:28:20] + Working ...

[18:28:20] - Calling '.\FahCore_a3.exe -dir work/ -nice 19 -suffix 02 -np 8 -checkpoint 15 -verbose -lifeline 2080 -version 630'

 

[18:28:20]

[18:28:20] *------------------------------*

[18:28:20] Folding@Home Gromacs SMP Core

[18:28:20] Version 2.22 (Mar 12, 2010)

[18:28:20]

[18:28:20] Preparing to commence simulation

[18:28:20] - Looking at optimizations...

[18:28:20] - Created dyn

[18:28:20] - Files status OK

[18:28:21] - Expanded 1764712 -> 2251033 (decompressed 127.5 percent)

[18:28:21] Called DecompressByteArray: compressed_data_size=1764712 data_size=2251033, decompressed_data_size=2251033 diff=0

[18:28:21] - Digital signature verified

[18:28:21]

[18:28:21] Project: 6067 (Run 1, Clone 197, Gen 49)

[18:28:21]

[18:28:21] Assembly optimizations on if available.

[18:28:21] Entering M.D.

[18:28:27] Completed 0 out of 500000 steps (0%)

[18:31:27] Completed 5000 out of 500000 steps (1%)

[18:34:28] Completed 10000 out of 500000 steps (2%)

[18:34:48] - Autosending finished units... [November 3 18:34:48 UTC]

[18:34:48] Trying to send all finished work units

[18:34:48] Project: 6701 (Run 112, Clone 48, Gen 8)

 

 

[18:34:48] + Attempting to send results [November 3 18:34:48 UTC]

[18:34:48] - Reading file work/wuresults_01.dat from core

[18:34:48] (Read 43628447 bytes from disk)

[18:34:48] Connecting to http://171.64.65.56:8080/

[18:37:29] Completed 15000 out of 500000 steps (3%)

[18:40:28] Completed 20000 out of 500000 steps (4%)

[18:43:29] Completed 25000 out of 500000 steps (5%)

[18:46:29] Completed 30000 out of 500000 steps (6%)

[18:49:29] Completed 35000 out of 500000 steps (7%)

[18:52:30] Completed 40000 out of 500000 steps (8%)

[18:55:30] Completed 45000 out of 500000 steps (9%)

[18:58:30] Completed 50000 out of 500000 steps (10%)

[19:01:30] Completed 55000 out of 500000 steps (11%)

[19:04:31] Completed 60000 out of 500000 steps (12%)

[19:07:32] Completed 65000 out of 500000 steps (13%)

[19:10:33] Completed 70000 out of 500000 steps (14%)

[19:13:33] Completed 75000 out of 500000 steps (15%)

[19:16:34] Completed 80000 out of 500000 steps (16%)

[19:19:35] Completed 85000 out of 500000 steps (17%)

[19:22:36] Completed 90000 out of 500000 steps (18%)

[19:25:36] Completed 95000 out of 500000 steps (19%)

[19:28:37] Completed 100000 out of 500000 steps (20%)

[19:31:38] Completed 105000 out of 500000 steps (21%)

[19:34:38] Completed 110000 out of 500000 steps (22%)

[19:37:38] Completed 115000 out of 500000 steps (23%)

[19:40:39] Completed 120000 out of 500000 steps (24%)

[19:43:40] Completed 125000 out of 500000 steps (25%)

[19:46:40] Completed 130000 out of 500000 steps (26%)

[19:49:41] Completed 135000 out of 500000 steps (27%)

[19:52:41] Completed 140000 out of 500000 steps (28%)

[19:55:42] Completed 145000 out of 500000 steps (29%)

[19:58:43] Completed 150000 out of 500000 steps (30%)

[20:00:11] - Couldn't send HTTP request to server

[20:00:11] + Could not connect to Work Server (results)

[20:00:11] (171.64.65.56:8080)

[20:00:11] + Retrying using alternative port

[20:00:11] Connecting to http://171.64.65.56:80/

[20:00:13] - Couldn't send HTTP request to server

[20:00:13] + Could not connect to Work Server (results)

[20:00:13] (171.64.65.56:80)

[20:00:13] - Error: Could not transmit unit 01 (completed November 3) to work server.

[20:00:13] - 4 failed uploads of this unit.

 

 

[20:00:13] + Attempting to send results [November 3 20:00:13 UTC]

[20:00:13] - Reading file work/wuresults_01.dat from core

[20:00:13] (Read 43628447 bytes from disk)

[20:00:13] Connecting to http://171.67.108.25:8080/

[20:00:13] - Couldn't send HTTP request to server

[20:00:13] (Got status 503)

[20:00:13] + Could not connect to Work Server (results)

[20:00:13] (171.67.108.25:8080)

[20:00:13] + Retrying using alternative port

[20:00:13] Connecting to http://171.67.108.25:80/

[20:00:14] - Couldn't send HTTP request to server

[20:00:14] (Got status 503)

[20:00:14] + Could not connect to Work Server (results)

[20:00:14] (171.67.108.25:80)

[20:00:14] Could not transmit unit 01 to Collection server; keeping in queue.

[20:00:14] + Sent 0 of 1 completed units to the server

[20:00:14] - Autosend completed

[20:01:43] Completed 155000 out of 500000 steps (31%)

 

 

Lenke til kommentar

Hvordan folder man med et g92 og et g104 i samme rigg? Blir rent kaos når jeg kjører disse sammen nå, med 260.89-driverne...

 

For å stå i samme rigg er vel regelen at de må ha likt antall shadere (CUDA Cores) mener jeg å minnes, og siden G92 med (112) og G104 har (336) blir det krøll. De skal vel også bruke hver sin generasjon av core for best ytelse, henholdsvis GPU2 og GPU3.

 

Hvis jeg husker feil så retter nok ekspertene meg.

Endret av -alias-
Lenke til kommentar

Dette med antall shadere har jeg ikke fått noe klart svar på i det siste selv om det gjaldt før. Noen sier det eks. er fikset for core15 mens det muligens fortsatt gjelder i core11 etc.

 

Men for blanding av non-fermi og fermi kort er hvertfall regelen at man bør kjøre GPU2 klienten for non-fermi og GPU3 klienten for fermi og sett parameterne "-gpu 0 -forcegpu nvidia_g80" i GPU2 klienten og "-gpu 1 -forcegpu nvidia_fermi" i GPU3 klienten. Først må du dog finne ut hvem av de som er gpu 0/1 etc. som du gjør ved å starte kun en folding med bare -gpu 0 og se hvilket kort som øker temp/last.

 

Jeg tror du med det oppsettet også ikke vil lide av varierende antall shadere.

Endret av Theo343
Lenke til kommentar

Jeg må faktisk tilstå at ved slump så ser jeg at alle 128 shader-kortene står i samme rigg, mens de andre to har kun 112sp g92 atm - minus gamingmaskina som har et gt200 og et 112sp g92. Det funker knirkefritt. Så tar mao tilbake det jeg sa om 128 vs 112 :p

 

Rart det skulle bli sånn på ren slump...

 

@theo: sendte deg en epost, har du sett den?

Endret av knopflerbruce
Lenke til kommentar

Stemmer, husker innholdet når jeg leser det. Svart og takk for tilbudet.

Er noe skit å våkne altfor tidlig, men jeg får jo ro og fred til å feilsøke på hardware havarier :p

 

EDIT:

Jeg fant forøvrig årsaken til at det luktet noe svidd gummi/plastikk av maskinen når feilen oppsto og er nok årsaken til at ting har gått galt.

 

Jeg fant svimerker i 20/24pins kontakten til hovedkortet. Hva som er årsaken til feilen på dette er derimot mer usikkert. PSU? HK? Kabinett?

 

EDIT2:

Coolermaster S har med en overgang for 20/24pins kontakten som har egne ledninger koblet opp til av/på knappen og funksjonspanelet på toppen som er touchbasert. Svimerket er faktisk i en av pinnene som går opp til dette funksjonspanelet i Coolermaster S.

 

Bør jeg levere alle nevnte produkter til reklamasjon? Kabinettet har mest sannsynlig pga. en overledning i funksjonspanelet tatt livet av evt. både HK og PSU.

 

Hva er deres mening?

 

Det jeg også er redd for er at denne kortslutningen da har skadet andre komponenter i maskinen som minnebrikker, cpu, skjermkort, solid state disker etc.

 

Hvem blir da erstatningsansvarlig? Dette funksjonspanelet er fullstendig lukket og ikke noe jeg har manipulert eller trikset med på noen som helst måte. 20/24 pins kontakten med Coolermaster S overgangen har også sittet fast montert siden første montering (over et år siden).

 

EDIT3:

Faktisk har denne kortslutningen vært så kraftig at en liten sort bit av plastikken på overgangen ble sittende fast nede i HK kontakten når jeg koblet den fra.

 

Dette oppdaget jeg når jeg nå koblet fra alt av kontakter for å teste en annen PSU, som jeg tror jeg avstår fra nå.

 

Men nå ble jeg mer i villrede på hva jeg skal reklamere på og levere inn til garantibytte.

Endret av Theo343
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...