b-real Skrevet 28. september 2006 Del Skrevet 28. september 2006 Et glimrede tiltak fra ATI. Håper nvidia følger etter. Lenke til kommentar
Simen1 Skrevet 28. september 2006 Del Skrevet 28. september 2006 Er det mulig å kjøre en standarisert ytelsetest av F@H for å se hvor bra forskjellige CPUer og GPUer yter? Lenke til kommentar
sveinsel Skrevet 28. september 2006 Del Skrevet 28. september 2006 Softwareimplementering av GPU i CPU kan man si.... Lenke til kommentar
Ozelot Skrevet 28. september 2006 Del Skrevet 28. september 2006 Håper du kan ha et litt eldre skjermkort for å bruke FAH, og ikke nødvendigvis det nyeste. Lenke til kommentar
Simen1 Skrevet 28. september 2006 Del Skrevet 28. september 2006 Softwareimplementering av GPU i CPU kan man si.... 6958626[/snapback] Hva mener du? Dette skal jo kjøre på selve GPU'en. Lenke til kommentar
b-real Skrevet 28. september 2006 Del Skrevet 28. september 2006 Og så håper man at hw.no bruker sine kontakter og får tak i et slikt kort ganske raskt og får teste denne løsningen. Lenke til kommentar
Geir M Skrevet 28. september 2006 Del Skrevet 28. september 2006 Interessant. Jeg vet ikke stort om F@H, men jeg lurer på en ting. Har prosjektet oppnådd noe? Lenke til kommentar
b-real Skrevet 28. september 2006 Del Skrevet 28. september 2006 Interessant. Jeg vet ikke stort om F@H, men jeg lurer på en ting. Har prosjektet oppnådd noe? 6958840[/snapback] http://www.stanford.edu/group/pandegroup/folding/awards.html Lenke til kommentar
EpziloN Skrevet 28. september 2006 Del Skrevet 28. september 2006 nNå kommer jeg deffinitivt til å jkøpe meg et ATi kort når jeg skal oppgradere i Janurat/Februar. Epz. Lenke til kommentar
HKS Skrevet 28. september 2006 Del Skrevet 28. september 2006 F@H på full last på GPU... Da slipper man iallefall ekstra oppvarming i rommet hvor datamaskinen står. Lenke til kommentar
b-real Skrevet 28. september 2006 Del Skrevet 28. september 2006 Jeg tviler på at det blir 100% belastning hele tiden, men heller software som kan deffinere belastningen på prosessen som skal kjøres på skjermkortet. Lenke til kommentar
Corwin Skrevet 28. september 2006 Del Skrevet 28. september 2006 FOH bruker bare 50% av hver kjerne? hvorfor? Lenke til kommentar
Simen1 Skrevet 28. september 2006 Del Skrevet 28. september 2006 F@H på full last på GPU... Da slipper man iallefall ekstra oppvarming i rommet hvor datamaskinen står. 6959487[/snapback] Hvis man likevel fyrer med elektrisistet så spiller det jo ingen rolle, men hvis man ikke trenger varmen, eller fyrer med billigere ting enn strøm så blir det selvfølgelig en unødvendig ekstrautgift og unødvendig støy. Håper skjermkortprodusentene får ned effektforbruket på skjermkortene sine etter hvert. (i alle prisklasser) Lenke til kommentar
mysjkin Skrevet 28. september 2006 Del Skrevet 28. september 2006 (endret) Siden vi først snakker om folding@home, dersom noen nye vil begynne, husk å melde dere inn i hardware.no teamet, nr 37651. Dersom noen kjører f@h på linux, er det en beskrivelse av hvordan man får satt opp automatisk oppstart på debian her. M. Endret 28. september 2006 av mysjkin Lenke til kommentar
O.J Skrevet 28. september 2006 Del Skrevet 28. september 2006 vil være slik at programmet stenger seg av helt når man fyrer opp spill da? Lenke til kommentar
b-real Skrevet 28. september 2006 Del Skrevet 28. september 2006 vil være slik at programmet stenger seg av helt når man fyrer opp spill da? 6959738[/snapback] Det er vel slik som under dagens F@H at programmet nedjusteres seg selv etter hvor mye ytelse resten av PC'en din drar vil jeg tro. Lenke til kommentar
ExcaliBuR Skrevet 28. september 2006 Del Skrevet 28. september 2006 De har hatt tidligere tester med X800 serien for dette. Men tviler på at dette blir støttet, er enig med Simen1 om kun X1000 serien. Lenke til kommentar
TC80 Skrevet 28. september 2006 Del Skrevet 28. september 2006 Men 3D kort er jo ikke beregnet til å kjøre konstant på max så lenge da? Jo, de er laget for å brukes. Vil ikke kort som er klokka slite litt med oppbrenning++?6958306[/snapback] Det kan hende, men det er i så fall folks egen feil om trimmer opp skjermkortene sine til de ryker etter kort tids bruk. Akkurat som hvis man trimmer mopeder eller biler så er det den som trimmer som velger å bryte garantivilkårene og bryte med det produktet er ment å tåle. 6958348[/snapback] 3D kort er laget for å brukes ja, men har produsentene tatt i betraktning at en hardcore gamer sitter flere døgn i strekk og kjører spill som krever mye av grafikk kortet? De blir jo ganske varme. Mitt nVidia 7800GT kan gå opp i 90C hvis jeg spiller lenge og har det litt varmt på rommet. Spørsmålet blir om GPU'en er bygd for å tåle slike ekstreme temperaturer 24timer/døgnet, 365dager i året. Løsningen hadde nå blitt å kjøle kortet ekstra, og det koster flesk hvis man skal vannkjøle. Ellers høres mitt grafikk-kort (merke; Club3D) ut som en hårføner når jeg spiller... og det er helt greit under spillinga, men ikke til daglig når jeg holder på å f.eks. programmere. For ikke å snakke om når jeg skal sove. Man må regne med at det blir kortere levetid på komponenter som hele tiden kjører på full last. Dette har med varme og interne spenninger å gjøre. Men så blir jo pc'ene sannsynligvis klar for skraphauen lenge før de dør ut. Det som derimot bekymrer meg litt, er at når de små komponentene inni CPU/GPU blir "presset" mer sammen (ny teknologi = flere komponenter pr mm eller no), at det da er mer følsomt for varm og spenninger. Ergo kortere levetid på dagens pc'er enn eldre pc'er (etter det jeg har hørt da). Og når det gjelder overklokking, så vil dette presse CPU/GPU ytterligere, slik at det er naturlig å forvente en kortere levetid på komponentene. Lenke til kommentar
sveinsel Skrevet 28. september 2006 Del Skrevet 28. september 2006 Softwareimplementering av GPU i CPU kan man si.... 6958626[/snapback] Hva mener du? Dette skal jo kjøre på selve GPU'en. 6958691[/snapback] Vanligvis kjører man distributed computing på en eller flere CPU..... Nå kan man også (evt. i tillegg) utnytte kapasiteten som ligger i GPU. Så har det i den senere tid vært snakk om å bygge GPU inn i CPU. Så laget jeg denne vansklige setningen som skulle bety at allerede nå var GPU bygget sammen CPU ved hjelp av software. Lenke til kommentar
Novec Skrevet 28. september 2006 Del Skrevet 28. september 2006 FOH bruker bare 50% av hver kjerne? hvorfor? 6959540[/snapback] De bruker 100% av hver kjerne, noe som betyr 50% av total prosessorkraft, hvis du har to kjerner. For å benytte begge kjernene, altså 100% av total prosessorkraft, må du installere og kjøre to separate fah-kjerner. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå