knut Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 EVGA har gjort noen små endringer på GTX470 og 480-kortene sine for å redusere temperaturene. Les mer Lenke til kommentar
John Deere Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 Lurer på når det vannkjølte kortet blir å se i norske butikker? Lenke til kommentar
newman221 Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 Lurer på når skjermkortene skal bli kjølige igjen jeg... Syns utviklingen er litt "skummel", da skjermkortene krever mer og mer strøm. Snart må man ha en dedikert kurs/sikring på 20A for å ta seg av pc'n og monitoren... Syns jeg ser kravspec på neste generasjon nVidia-skjermkort, hihi Lenke til kommentar
Simen1 Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 newman221: Du trenger jo ikke kjøpe 200W skjermkort hvis du ikke vil ha det. Markedet får det vi vil ha. Dersom strømforbruket ikke skremmer kundene så vil produsentene fortsette å selge slike og øke effekten ennå mer. Hvis man setter et personlig tak ved 100 Watt til skjermkort og ser utviklinga bakover i tid så har definitivt ytelsen økt voldsomt innenfor 100 Watt grensa det siste tiåret. Spørsmålet er altså om det er nok kjøpere med et høyt personlig watt-tak til at det blir økonomisk lønnsomt å produsere ennå mer varmeproduserende kort. Personlig har jeg satt et tak på 100 Watt til skjermkort i den stasjonære PCen. Noe som betyr at Fermi er uaktuelt per dags dato. Det råeste under 100 Watt er for tida Radeon HD 5750 med sine 86 Watt TDP. Den har også en pris jeg liker og et tomgangseffektforbruk på usle 16 Watt. Jeg har også et tilsvarende personlig tak på 100 Watt for CPU. Lenke til kommentar
Malvado Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 Forsåvidt enig med Simen1 her, alt for få brukere som ikke bryr seg om watt , men som går for det "kraftigste kortet" koste hva det koste vill. Lenke til kommentar
NevroMance Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 Nå synes jeg ikke utviklingen er så skremmende. Hvis en ser på regnekraften i forhold til watt får en mye mer ut fra ett skjermkort enn hva en får fra en CPU, som vel er alternativet. Hvis en GPU kan utføre 5 000 regneoperasjoner samtidig på en GPU, trenger en over 300 4 kjerners CPUer med SIMD for å gjøre det samme. Riktignok må problemet ditt være paralellisertbart for å utnytte GPUen, men på paralelle problemer, som grafikkvisning i spill, er alternativet til en GPU veldig dårlig, også med tanke på strømforbruk. Det er en grunn til at de store supercomputerne nå tar i bruk GPUer for å holde strømforbruket nede. Lenke til kommentar
Din_Laban Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 Simen1 har et vesentlig poeng. Jeg har med alle bygg siden 2004 merket meg at varme blir et større og større problem, noe hvis det fortsetter slik bekymrer meg litt. En annen ting er at produsentene av kjølere ikke er spesielt innovative for tiden: det er stort sett heatpipes det blir mer av eventuelt vannkjøling. Varme og strømforbruk er den store fienden slik jeg ser det. Lenke til kommentar
MatseMats Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 newman221: Jeg har også et tilsvarende personlig tak på 100 Watt for CPU. Da tror jeg at du vil like de nye prosessorene fra AMD, der det vist nok skulle være en 4X 2,8 GHz prosessor som bare bruker 45W. Vist info'n er feil så si ifra, tror den skal være ganske riktig. Lenke til kommentar
Dusken Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 hvorfor blir kortet 2 grader kaldere med å stenge det inne? Lenke til kommentar
Flimzes Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 hvorfor blir kortet 2 grader kaldere med å stenge det inne? Bakplaten er nok i metall, som leder varmen bort fra kjernen og sprer det over hele baksiden av kortet, som fører til mer effektiv fordeling. Lenke til kommentar
GullLars Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 Når det er snakk om strømbruk er jeg også for det meste enig her, og heldigvis er det blitt trendy blandt diverse komponent produsenter med "grønne" produkter og høy effektivitet (f.eks. PSU 85+). Om det kommer en HD6770 på rundt 75-115W med ca tilsvarende ytelse som HD5830 og det blir mulig med vannkjølingsblokk tenker jeg at jeg vil pensjonere mitt 4870x2, selv om det har høyere ytelse. Temperaturen er umulig å holde kontroll på etter det har gomlet hybelkaniner, og jeg må underklokke det for at det ikke skal passere 100C på 100% vifte mens jeg gamer... Jeg er ikke allergisk mot støy, men når jeg må ha vinduet på full gap når det er 10-15C ute for ikke å passere 30C på rommet blir det for ille. Nå for sommeren har jeg stappet i et passivt kjølt HD3450 jeg hadde liggende fra en annen PC tidligere, og det klarer å dra CS:S, HoN, og OTTD fint, som er de spillene det går i i vennegjengen for tiden. CoD MW2 må jeg desverre stå over, eller spille på elendig grafikk med 20-30fps Lenke til kommentar
rbr Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 (endret) tja 7 grader mindre er jo bedre enn intet. om noen kan få kortet til og bli litt kjøligere tror jeg at jeg slår til og kjøper ett eller to stk. men for nå heller det mot vapor x 5870.har ikke bestemt meg enda. men utrolig nok gjør de to gtx 280 kortene mine en god jobb enda. Endret 3. juni 2010 av rbr Lenke til kommentar
magnemoe Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 Simen1 har et vesentlig poeng. Jeg har med alle bygg siden 2004 merket meg at varme blir et større og større problem, noe hvis det fortsetter slik bekymrer meg litt. En annen ting er at produsentene av kjølere ikke er spesielt innovative for tiden: det er stort sett heatpipes det blir mer av eventuelt vannkjøling. Varme og strømforbruk er den store fienden slik jeg ser det. Føles litt Pentium4 dette, intel kom med btx designet for å lage en kasse som kunne kjøle beistet. Nå er det jo ikke så mye spennende du får gjort med kjøling på et skjermkot siden du ikke kan ta mer en to pci plasser, mest effektive er en vite bakerst som blåser luft fremover over ei stor kjøleribbe og ut. Ja du kunne laget kortet høyere de fleste kasser er så brede du kunne utvidet kjøleribbe evt montert vifter på toppen av kortet. En annen krameaktig løsning hadde vært å plasert skjermkortet utenfor pcen, finnes noen slike løsninger for rendering, spesial kort i pcen, kabel ut til en boks med plass to skjermkot med egen strømforskyning og kjøling, da kunne du gått rimelig bananas med kjøling og strømforskyning. Lenke til kommentar
Flimzes Skrevet 3. juni 2010 Del Skrevet 3. juni 2010 Eventuellt at man deler opp skjermkort og kan kjøpe skjermkortkjerner og minne på lik linje med cpu. Lenke til kommentar
LoveAmiga Skrevet 4. juni 2010 Del Skrevet 4. juni 2010 newman221: Du trenger jo ikke kjøpe 200W skjermkort hvis du ikke vil ha det. Markedet får det vi vil ha. Dersom strømforbruket ikke skremmer kundene så vil produsentene fortsette å selge slike og øke effekten ennå mer. Hvis man setter et personlig tak ved 100 Watt til skjermkort og ser utviklinga bakover i tid så har definitivt ytelsen økt voldsomt innenfor 100 Watt grensa det siste tiåret. Spørsmålet er altså om det er nok kjøpere med et høyt personlig watt-tak til at det blir økonomisk lønnsomt å produsere ennå mer varmeproduserende kort. Personlig har jeg satt et tak på 100 Watt til skjermkort i den stasjonære PCen. Noe som betyr at Fermi er uaktuelt per dags dato. Det råeste under 100 Watt er for tida Radeon HD 5750 med sine 86 Watt TDP. Den har også en pris jeg liker og et tomgangseffektforbruk på usle 16 Watt. Jeg har også et tilsvarende personlig tak på 100 Watt for CPU. Nødvendig å spy ut ATI propaganda ved hver eneste mulighet? Lenke til kommentar
Imsochobo Skrevet 4. juni 2010 Del Skrevet 4. juni 2010 (endret) newman221: Du trenger jo ikke kjøpe 200W skjermkort hvis du ikke vil ha det. Markedet får det vi vil ha. Dersom strømforbruket ikke skremmer kundene så vil produsentene fortsette å selge slike og øke effekten ennå mer. Hvis man setter et personlig tak ved 100 Watt til skjermkort og ser utviklinga bakover i tid så har definitivt ytelsen økt voldsomt innenfor 100 Watt grensa det siste tiåret. Spørsmålet er altså om det er nok kjøpere med et høyt personlig watt-tak til at det blir økonomisk lønnsomt å produsere ennå mer varmeproduserende kort. Personlig har jeg satt et tak på 100 Watt til skjermkort i den stasjonære PCen. Noe som betyr at Fermi er uaktuelt per dags dato. Det råeste under 100 Watt er for tida Radeon HD 5750 med sine 86 Watt TDP. Den har også en pris jeg liker og et tomgangseffektforbruk på usle 16 Watt. Jeg har også et tilsvarende personlig tak på 100 Watt for CPU. Nødvendig å spy ut ATI propaganda ved hver eneste mulighet? Er det rart, nvidia korta er ubrukelige teknisk sett vs ati hvis du ikke trenger nvidia 3d, blueray 3d eller cuda. noe færreste gjør. Ellers er ati korta rimelig overlegne på alt, og nvidia har ikke svar, 2700 kr for GTX270, 200 kroner til så har du 5870 som fortsatt bruker mindre strøm og yter bedre, og har fler goder. Simen1 snakket godt for nvidia når de var gode, så din påstand er ikke noe mening i. Nvidia har besja på leggen og ati har gjort ting riktig. Vent til neste shrink, da blir nok fermi mye bedre fanboys liker selv ikke at nvidia har driti seg så mye ut, pga prisene er skyhøye. Per dags dato har simen1 også lagt til, laveste effekten nvidia har er 180W Du kjøper ikke 9600GT når 5700 serien finnes, nvidia får enda ett fermi basert kort GTX460, men uheldigvis så sluker det også strøm. i sent juli kommer kansje det som blir bra fra nvidia, mainstream. Som ikke er bygget på en gigastor ueffektiv kjerne, som greier bare 1 ting bedre, tesselation. Så som ting ser ut nå, taler alt i ati sin favør. Endret 4. juni 2010 av Imsochobo Lenke til kommentar
LoveAmiga Skrevet 4. juni 2010 Del Skrevet 4. juni 2010 (endret) Så som ting ser ut nå, taler alt i ati sin favør. Bortsett fra at GeForce GTX 480 er merkedets kraftigste skjermkort da. Endret 4. juni 2010 av LoveAmiga Lenke til kommentar
Simen1 Skrevet 5. juni 2010 Del Skrevet 5. juni 2010 Nødvendig å spy ut ATI propaganda ved hver eneste mulighet? Propaganda? Jeg forteller at jeg ikke ønsker høyere TDP enn ca 100 Watt. Det er uavhengig av leverandør. Gi meg en Fermi med <100 Watt TDP og tilsvarende ytelse, pris som Radeon HD 5750 så skal jeg gi den rosen den fortjener. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå