Kjetil Lura Skrevet 22. september 2014 Del Skrevet 22. september 2014 (endret) Vurdere å kjøpe 3x 750ti https://www.komplett.no/evga-geforce-gtx-750ti-2gb-physx-cuda/809360 Noen i hw.no som kjører dem? PS: Prøver meg nå på beta igjen. 12 på beta. Endret 22. september 2014 av Kjetil Lura Lenke til kommentar
Sn1ken Skrevet 22. september 2014 Del Skrevet 22. september 2014 Hva er målet med å kjøpe de der Kjetil? Jeg har denne, men har ikke brukt den på en stund: https://www.komplett.no/msi-geforce-gtx-750ti-2gb-physx-cuda/817002 Det gir ikke så mye PPD. Ca 60k+ PPD, så vil tippe du får like mye med ett 970, som du gjør med 3 stk 750ti. Får også en del core 15. Så da ser jeg ikke helt hva du skal med de kortene? Summen for 3 stk 750ti nærmer seg 980 i pris, og beslaglegger mer HW enn 1 stk GPU. Derfor lurer jeg på hva som er meningen med kjøpet? Lenke til kommentar
Kjetil Lura Skrevet 22. september 2014 Del Skrevet 22. september 2014 Du sier noe du.Tenkte ikke 970. Men som jeg sa har jeg startet opp 3x660Ti som er på ca 125wx3 på 92xx/94xx. 750Ti bruker ca 3x60w og gir ca det samme som 3x660Ti. Skal se på 970 hvor mye strøm det bruker. Men har og lyst å vente til 20nm kommer. Lenke til kommentar
RoXQi3x Skrevet 22. september 2014 Del Skrevet 22. september 2014 Mange som ikke tenker 970 Kom igjen, internett, vis meg tester med FahBench og full load - jeg er klar til å investere Lenke til kommentar
Betroz Skrevet 22. september 2014 Del Skrevet 22. september 2014 Hei. Starta å folde for Team hardware.no for litt siden. På gamle oppsettet mitt (i7 2600K @ 4500 MHz) så fikk jeg en PPD på 25-30000 poeng ca. Nå med en 5960X @ 4000 Mhz så ligger jeg på 18450 PPD. Dette kan da ikke stemme? Innrømmer at jeg er noob innen FAH altså. Skal sies at med 2600K prosessoren så kjørte jeg klienten under Ubuntu, mens nå er jeg i Windows 7, om det skal ha noe å si. Står i FAH klienten at den finner at CPU har 16 tråder og Windows Taskmanager viser 100% last på alle kjernene. Hva gjør jeg feil? Lenke til kommentar
Kjetil Lura Skrevet 22. september 2014 Del Skrevet 22. september 2014 (endret) Nå snakker vi, først velkommen til team hardware.no. Vurdere selv en 5960X til linux boxen min, så hva får du på den? PS: Du må kjøre 10wu før du for bonus poeng, med passkey. Endret 22. september 2014 av Kjetil Lura Lenke til kommentar
Betroz Skrevet 22. september 2014 Del Skrevet 22. september 2014 (endret) Nå snakker vi, først velkommen til team hardware.no. Vurdere selv en 5960X til linux boxen min, så hva får du på den? PS: Du må kjøre 10wu før du for bonus poeng, med passkey. Takk Jeg har passkey. Oppe i 238090 poeng totalt siden jeg starta å folde. Som jeg sa, ligger på litt over 18 tusen Points Per Day nå med min 5960X. Burde jeg ikke sett det dobbelte av det? Endret 22. september 2014 av Betroz Lenke til kommentar
Kjetil Lura Skrevet 22. september 2014 Del Skrevet 22. september 2014 Jo og vel så det,ligger selv på 35K på linux boksen min, kjører 3770K@4200. Har du sjekket temp. Lenke til kommentar
Betroz Skrevet 22. september 2014 Del Skrevet 22. september 2014 Jo og vel så det,ligger selv på 35K på linux boksen min, kjører 3770K@4200. Har du sjekket temp. Ja har stress testa og sjekka temps. Ligger på 60-65 grader på kjernene. Lenke til kommentar
-alias- Skrevet 22. september 2014 Del Skrevet 22. september 2014 Da har jeg skrotet mitt første G34 hovedkort siden kortet ikke lar seg lønnsomt reparere. Problemet var flere svidde komponenter, VRM til socket1 og flere svimerker omkring på printplata i samme område. Mulig jeg kan få liv i det ved å bruke bare 2 eller tre chipper, det må jeg kanskje prøve. Lenke til kommentar
Sn1ken Skrevet 22. september 2014 Del Skrevet 22. september 2014 Det må du teste -alias- Den har vell litt å stille opp med selv om den "bare" kjører 3 chipper Lenke til kommentar
nilsch Skrevet 22. september 2014 Del Skrevet 22. september 2014 (endret) Da har jeg skrotet mitt første G34 hovedkort siden kortet ikke lar seg lønnsomt reparere. Problemet var flere svidde komponenter, VRM til socket1 og flere svimerker omkring på printplata i samme område. Mulig jeg kan få liv i det ved å bruke bare 2 eller tre chipper, det må jeg kanskje prøve. Den har jo egentlig levd utrolig lenge i forhold til skadene. Jeg har også et skadet G34. Den kom det røyk av under en overentusiastisk overklokking. Den tåler ikke å folde i romtemperatur over 26 grader til tross for vifter, men satte den nettopp på nå som det er blitt kaldere og den ser ut til å funke bra så langt. Burde gi meg ca 500K PPD ekstra i snitt. Endret 22. september 2014 av nilsch Lenke til kommentar
Arve1234567890 Skrevet 22. september 2014 Forfatter Del Skrevet 22. september 2014 Ja har stress testa og sjekka temps. Ligger på 60-65 grader på kjernene. Da må vi gjerne få se litt logg, så kanskje vi blir klok! Først, hvordan måler du PPD? HFM eller selve V7-klienten? Hvis du ikke bruker HFM kan det være du ser litt tullete PPD-verdier, ta gjerne en manuell sjekk i loggen på hvor lang tid det går mellom hver "frame" (hver %-økning). Kan kontrollere mot denne nettsiden: http://linuxforge.net/bonuscalc2.php Lenke til kommentar
Christian Thork Skrevet 22. september 2014 Del Skrevet 22. september 2014 Da er jeg litt over 500K Hvordan er dette over ca 6 dager med ca 19 Timer om dagen? Lenke til kommentar
Betroz Skrevet 22. september 2014 Del Skrevet 22. september 2014 Nå har den startet en ny folding her og nå ser det mer riktig ut! I følge FAHControl vinduet står det nå over 65 tusen PPD (kun CPU) Hvis jeg legger til begge mine GTX 670 kort, så får jeg enda mer tenker jeg. Lenke til kommentar
Sn1ken Skrevet 22. september 2014 Del Skrevet 22. september 2014 Da er jeg litt over 500K Hvordan er dette over ca 6 dager med ca 19 Timer om dagen? Når du får 980 i maskinen vil du få 500k på ca 2 dager med folding til sammenlikning Lenke til kommentar
Ar`Kritz Skrevet 22. september 2014 Del Skrevet 22. september 2014 (endret) Da er jeg litt over 500K Hvordan er dette over ca 6 dager med ca 19 Timer om dagen? Hva? 500 / 24 * 19 * 6 = 2375 2,375 mill, med andre ord. EDIT: 500 x 7 = 3500. Så det er jo noe å tenke på. Endret 22. september 2014 av Ar`Kritz Lenke til kommentar
-alias- Skrevet 22. september 2014 Del Skrevet 22. september 2014 (endret) Da har jeg skrotet mitt første G34 hovedkort siden kortet ikke lar seg lønnsomt reparere. Problemet var flere svidde komponenter, VRM til socket1 og flere svimerker omkring på printplata i samme område. Mulig jeg kan få liv i det ved å bruke bare 2 eller tre chipper, det må jeg kanskje prøve. Den har jo egentlig levd utrolig lenge i forhold til skadene. Jeg har også et skadet G34. Den kom det røyk av under en overentusiastisk overklokking. Den tåler ikke å folde i romtemperatur over 26 grader til tross for vifter, men satte den nettopp på nå som det er blitt kaldere og den ser ut til å funke bra så langt. Burde gi meg ca 500K PPD ekstra i snitt. Ja jeg husker ikke helt når det var jeg holdt på med ekstremoverklokkingen, men det må vel ha vært da kortet var rimelig nytt, ca. sommer eller høsten 2012. Kortet sto faktisk i full fyr så jeg var overbevist om at det døde der og da siden det ikke reagerte når jeg prøvde å starte det igjen. Noe tid etter (1/2 times tid eller noe sånt) trykket jeg igjen på knappen og da startet det opp, og foldet videre som om ingenting hadde hendt, med en frekvens på 3.0GHZ. Høyere enn det medførte dårligere ytelse. Men som du sier, det holdt jaggu ut lenge, hele 2 år før det ga opp. Hvis jeg får tak i et veldig billig 4P hovedkort, Tyan S1288 eller Supermicro så kjøper jeg det kanskje bare for å kunne folde ut perioden BA varer. Så hvis noen sitter med et slikt kort de ikke bruker så send meg en PM så tar vi det derfra. Hva var galt med ditt kort, jeg husker du hadde et inne på reparasjon, men det er vel ikke det samme kortet? Jeg ser at skaden på mitt kort er blitt betydelig værre, og et bilde sier mer enn jeg kan forklare, men her må det har skjedd ting etter at det sto i fyr og flamme. Jeg har solgt en annen G34-server og har nå kun en slik igjen som folder.. Som erstatning har jeg fyrt opp SR2-serveren og en GPU-server jeg bygget med kort jeg beholdt fra Kjetil. Samlet gir de omkring 500K PPD som sammen med den gjenstående G34-serveren blir omkring millionen, men det går med mye strøm, omkring 1100W + 650W så det er dyre poeng. Endret 23. september 2014 av -alias- Lenke til kommentar
Kjetil Lura Skrevet 22. september 2014 Del Skrevet 22. september 2014 (endret) Har sett at 750Ti skal gi ca det samme som 660 i ppd. Bare at de bruker ca 60W, derfor har jeg lyst å kjøpe ett eller to++ Prøvd med beta? Likte denne: Power Draw So why are we so impressed by the GTX980 when it's roughly the same as a GTX780Ti? 150W less power draw at the wall. That's frankly incredible. To put that into perspective, if only a million GTX780Ti owners changed to a GTX980, we'd save 150 Million Watts in power. Which is one and a half times the output of SHAMS 1, the largest Solar Power plant in on Earth. Identical performance, but the GTX780Ti requires 40% more power. Endret 22. september 2014 av Kjetil Lura Lenke til kommentar
nilsch Skrevet 22. september 2014 Del Skrevet 22. september 2014 Har sett at 750Ti skal gi ca det samme som 660 i ppd. Bare at de bruker ca 60W, derfor har jeg lyst å kjøpe ett eller to++ Prøvd med beta? Likte denne: Power Draw So why are we so impressed by the GTX980 when it's roughly the same as a GTX780Ti? 150W less power draw at the wall. That's frankly incredible. To put that into perspective, if only a million GTX780Ti owners changed to a GTX980, we'd save 150 Million Watts in power. Which is one and a half times the output of SHAMS 1, the largest Solar Power plant in on Earth. Identical performance, but the GTX780Ti requires 40% more power. Men vil dette strømforbruket være reellt under folding? Som jeg skrev i går, så viser testene til Tom's Hardware at ved kontinuerlig belastning forsvinner strømfordelen: If the load is held constant, then the lower power consumption measurements vanish immediately. There’s nothing for GPU Boost to adjust, since the highest possible voltage is needed continuously. Nvidia's stated TDP becomes a distant dream. In fact, if you compare the GeForce GTX 980’s power consumption to an overclocked GeForce GTX Titan Black, there really aren’t any differences between them. This is further evidence supporting our assertion that the new graphics card’s increased efficiency is largely attributable to better load adjustment and matching. Hentet herfra: http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html Under "Stress test consumption". Eller er det jeg som misforstår noe? Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå