SD88 Skrevet 14. april 2012 Rapporter Del Skrevet 14. april 2012 Personlig er jeg vant til en temp på 60-70 max når jeg spiller, og selv det merker jeg godt i rommet etter noen timer med bf3. Tenkte mer på ubehag når det gjaldt den temperaturen og ikke på hva skjermkortet tåler, eller hva som bråker. Og jeg gjentar: 200W med varme er 200W med varme, uansett temperatur målt på skjermkortet. Det sier seg selv. Et skjermkort som drar for eksempel 200W ved full load vil selvsagt utvikle 200W med varme, men poenget er å kjøle ned/eller kvitte seg med den varmen slik at det ikke er til ubehag. Prinsippet er det samme om du har en 1000W varmeovn hjemme, når den står på max utvikler den enormt med varme og eneste måten på å få den til utvikle mindre varme er ved å sette ned temperaturen på selve ovnen, MEN man kan også åpne et vindu eller en dør for å slippe inn kald luft og det er jo hele poenget. Ved å slippe inn kald luft inn i kabinettet så vil den luften som kommer ut av kabinettet ha en mindre temperatur, selv om skjermkortet utvikler den samme varmen eller watten som det egentlig heter. Lenke til kommentar
N o r e n g Skrevet 14. april 2012 Rapporter Del Skrevet 14. april 2012 Personlig er jeg vant til en temp på 60-70 max når jeg spiller, og selv det merker jeg godt i rommet etter noen timer med bf3. Tenkte mer på ubehag når det gjaldt den temperaturen og ikke på hva skjermkortet tåler, eller hva som bråker. Og jeg gjentar: 200W med varme er 200W med varme, uansett temperatur målt på skjermkortet. Det sier seg selv. Et skjermkort som drar for eksempel 200W ved full load vil selvsagt utvikle 200W med varme, men poenget er å kjøle ned/eller kvitte seg med den varmen slik at det ikke er til ubehag. Prinsippet er det samme om du har en 1000W varmeovn hjemme, når den står på max utvikler den enormt med varme og eneste måten på å få den til utvikle mindre varme er ved å sette ned temperaturen på selve ovnen, MEN man kan også åpne et vindu eller en dør for å slippe inn kald luft og det er jo hele poenget. Ved å slippe inn kald luft inn i kabinettet så vil den luften som kommer ut av kabinettet ha en mindre temperatur, selv om skjermkortet utvikler den samme varmen eller watten som det egentlig heter. Men dette har ingenting å gjøre med kjernetemperaturen på GPUen din... Lenke til kommentar
SD88 Skrevet 14. april 2012 Rapporter Del Skrevet 14. april 2012 Personlig er jeg vant til en temp på 60-70 max når jeg spiller, og selv det merker jeg godt i rommet etter noen timer med bf3. Tenkte mer på ubehag når det gjaldt den temperaturen og ikke på hva skjermkortet tåler, eller hva som bråker. Og jeg gjentar: 200W med varme er 200W med varme, uansett temperatur målt på skjermkortet. Det sier seg selv. Et skjermkort som drar for eksempel 200W ved full load vil selvsagt utvikle 200W med varme, men poenget er å kjøle ned/eller kvitte seg med den varmen slik at det ikke er til ubehag. Prinsippet er det samme om du har en 1000W varmeovn hjemme, når den står på max utvikler den enormt med varme og eneste måten på å få den til utvikle mindre varme er ved å sette ned temperaturen på selve ovnen, MEN man kan også åpne et vindu eller en dør for å slippe inn kald luft og det er jo hele poenget. Ved å slippe inn kald luft inn i kabinettet så vil den luften som kommer ut av kabinettet ha en mindre temperatur, selv om skjermkortet utvikler den samme varmen eller watten som det egentlig heter. Men dette har ingenting å gjøre med kjernetemperaturen på GPUen din... Men det er jo slik man senker kjernetemperaturen, ved å kjøle ned skjermkortet. Du kan ikke gjøre noe med forbruket (watten) ved å bruke luft, vann etc., men du kan sette ned temperaturen på GPUen ved å kjøle den ned, med for eksempel kald luft. Lenke til kommentar
N o r e n g Skrevet 14. april 2012 Rapporter Del Skrevet 14. april 2012 Personlig er jeg vant til en temp på 60-70 max når jeg spiller, og selv det merker jeg godt i rommet etter noen timer med bf3. Tenkte mer på ubehag når det gjaldt den temperaturen og ikke på hva skjermkortet tåler, eller hva som bråker. Og jeg gjentar: 200W med varme er 200W med varme, uansett temperatur målt på skjermkortet. Det sier seg selv. Et skjermkort som drar for eksempel 200W ved full load vil selvsagt utvikle 200W med varme, men poenget er å kjøle ned/eller kvitte seg med den varmen slik at det ikke er til ubehag. Prinsippet er det samme om du har en 1000W varmeovn hjemme, når den står på max utvikler den enormt med varme og eneste måten på å få den til utvikle mindre varme er ved å sette ned temperaturen på selve ovnen, MEN man kan også åpne et vindu eller en dør for å slippe inn kald luft og det er jo hele poenget. Ved å slippe inn kald luft inn i kabinettet så vil den luften som kommer ut av kabinettet ha en mindre temperatur, selv om skjermkortet utvikler den samme varmen eller watten som det egentlig heter. Men dette har ingenting å gjøre med kjernetemperaturen på GPUen din... Men det er jo slik man senker kjernetemperaturen, ved å kjøle ned skjermkortet. Du kan ikke gjøre noe med forbruket (watten) ved å bruke luft, vann etc., men du kan sette ned temperaturen på GPUen ved å kjøle den ned, med for eksempel kald luft. Les hva du skrev og jeg svarte deg på: Personlig er jeg vant til en temp på 60-70 max når jeg spiller, og selv det merker jeg godt i rommet etter noen timer med bf3. Tenkte mer på ubehag når det gjaldt den temperaturen og ikke på hva skjermkortet tåler, eller hva som bråker. Er du enig med deg selv her nå? Et 200W skjermkort vil varme opp rommet med 200W, uansett om det er 80°C eller 60°C. Det virker som vi er enige, men jeg skjønner ikke i det hele tatt hva du vil frem til. Lenke til kommentar
SD88 Skrevet 14. april 2012 Rapporter Del Skrevet 14. april 2012 Personlig er jeg vant til en temp på 60-70 max når jeg spiller, og selv det merker jeg godt i rommet etter noen timer med bf3. Tenkte mer på ubehag når det gjaldt den temperaturen og ikke på hva skjermkortet tåler, eller hva som bråker. Og jeg gjentar: 200W med varme er 200W med varme, uansett temperatur målt på skjermkortet. Det sier seg selv. Et skjermkort som drar for eksempel 200W ved full load vil selvsagt utvikle 200W med varme, men poenget er å kjøle ned/eller kvitte seg med den varmen slik at det ikke er til ubehag. Prinsippet er det samme om du har en 1000W varmeovn hjemme, når den står på max utvikler den enormt med varme og eneste måten på å få den til utvikle mindre varme er ved å sette ned temperaturen på selve ovnen, MEN man kan også åpne et vindu eller en dør for å slippe inn kald luft og det er jo hele poenget. Ved å slippe inn kald luft inn i kabinettet så vil den luften som kommer ut av kabinettet ha en mindre temperatur, selv om skjermkortet utvikler den samme varmen eller watten som det egentlig heter. Men dette har ingenting å gjøre med kjernetemperaturen på GPUen din... Men det er jo slik man senker kjernetemperaturen, ved å kjøle ned skjermkortet. Du kan ikke gjøre noe med forbruket (watten) ved å bruke luft, vann etc., men du kan sette ned temperaturen på GPUen ved å kjøle den ned, med for eksempel kald luft. Les hva du skrev og jeg svarte deg på: Personlig er jeg vant til en temp på 60-70 max når jeg spiller, og selv det merker jeg godt i rommet etter noen timer med bf3. Tenkte mer på ubehag når det gjaldt den temperaturen og ikke på hva skjermkortet tåler, eller hva som bråker. Er du enig med deg selv her nå? Et 200W skjermkort vil varme opp rommet med 200W, uansett om det er 80°C eller 60°C. Det virker som vi er enige, men jeg skjønner ikke i det hele tatt hva du vil frem til. Ja det er klart det, men det er jo en enorm forskjell på den lufta som presses ut av skjermkort når tempen ligger på 60 grader og 80 grader. Jeg skjønner at 200W er 200W, men 60 og 80 grader er to veldig forskjellige ting. Jeg skjønner hva du mener, men på en annen måte så virker det som du skriver her at det ikke spiller noen rolle hvordan man kjøler ned skjermkortet fordi at temperaturen vil være like høy uansett... Lenke til kommentar
SD88 Skrevet 14. april 2012 Rapporter Del Skrevet 14. april 2012 (endret) Selv om skjermkortet varmer på 200W kan du fortsatt forandre temperaturen på kjernen og den som kommer ut av kabinettet. Hvis ikke dette hadde vært mulig så hadde poenget med å kjøle ned skjermkortet vært borte. Ved kjøling så forandrer man også temperaturen som kommer ut av kabinettet, noe som fører til at rommet ditt varmes opp i et saktere tempo. Hvis jeg samtidig har vinduet mitt åpent får jeg ny ("kald") luft inn i rommet noe som igjen fører til at skjermkortet ikke klarere å varme opp rommet på samme måte fordi at skjermkortet får tilgang til ny luft. Lar jeg skjermkortet mitt stå på full load i 2-3 timer med dårlig kjøling kan jeg love deg at temperaturen i rommet har økt mye, men slår jeg på med bra kjøling og samtidig åpner et vindu er det plutselig en helt annen sak. Da har man lavere temperatur gpu'en, lavere temperatur i rommet etc., kortet dundrer fortsatt på 200watt, men klarer ikke å varme på samme måte. 200watt er 200 watt med varme slik du skriver selv, men det er om å kjøle ned den varmen ved å bruke kald luft slik at du får lavere gpu temp og lavere temp ut av kabinettet. Endring: Lagt til tekst. Endret 14. april 2012 av San22_ Lenke til kommentar
Symmetrical Skrevet 14. april 2012 Rapporter Del Skrevet 14. april 2012 (endret) Selv om skjermkortet varmer på 200W kan du fortsatt forandre temperaturen på kjernen og den som kommer ut av kabinettet. Hvis ikke dette hadde vært mulig så hadde poenget med å kjøle ned skjermkortet vært borte. Ved kjøling så forandrer man også temperaturen som kommer ut av kabinettet, noe som fører til at rommet ditt varmes opp i et saktere tempo. Hvis jeg samtidig har vinduet mitt åpent får jeg ny ("kald") luft inn i rommet noe som igjen fører til at skjermkortet ikke klarere å varme opp rommet på samme måte fordi at skjermkortet får tilgang til ny luft. Lar jeg skjermkortet mitt stå på full load i 2-3 timer med dårlig kjøling kan jeg love deg at temperaturen i rommet har økt mye, men slår jeg på med bra kjøling og samtidig åpner et vindu er det plutselig en helt annen sak. Da har man lavere temperatur gpu'en, lavere temperatur i rommet etc., kortet dundrer fortsatt på 200watt, men klarer ikke å varme på samme måte. 200watt er 200 watt med varme slik du skriver selv, men det er om å kjøle ned den varmen ved å bruke kald luft slik at du får lavere gpu temp og lavere temp ut av kabinettet. Endring: Lagt til tekst. Om du har en bra kjøler eller ei har ingen betydning for romtemperaturen når prosessoren produserer 200W med varme. Dersom den bruker 200W og CPUen er under 50c eller over 80c så vil romtemperaturen øke like mye fordi den produserer 200W.. Varmen fra 200W blir spredt ut i rommet uansett. Hvis du bruker for eksempel ansiktet til å føle over viftene så føles det varmere hvis du bruker en dårlige kjøleløsning, men romtemperaturen skal bli nøyaktig det samme over tid. Endret 14. april 2012 av Symmetrical Lenke til kommentar
N o r e n g Skrevet 14. april 2012 Rapporter Del Skrevet 14. april 2012 sitter på mobil, men kort svar er at du tar feil Lenke til kommentar
Symmetrical Skrevet 14. april 2012 Rapporter Del Skrevet 14. april 2012 sitter på mobil, men kort svar er at du tar feil Du må nok utdype det. Varme som produseres i rommet bestemmes utifra Watt. 200W varme er 200W varme uansett hva slags kjøler man bruker. Lenke til kommentar
LMH1 Skrevet 14. april 2012 Rapporter Del Skrevet 14. april 2012 Det må vel være noe slik at la oss ta "Passiv kjøling" som eksempel kanskje også hvis man har lukket kabinnett uten luftehull, der funger varmen som en termos. Alså selve kjøleren blir varmere med tiden, men det er ingenting som flytter varmen videre. Men metallet kan lede varmen videre. Lenke til kommentar
SD88 Skrevet 14. april 2012 Rapporter Del Skrevet 14. april 2012 Selv om skjermkortet varmer på 200W kan du fortsatt forandre temperaturen på kjernen og den som kommer ut av kabinettet. Hvis ikke dette hadde vært mulig så hadde poenget med å kjøle ned skjermkortet vært borte. Ved kjøling så forandrer man også temperaturen som kommer ut av kabinettet, noe som fører til at rommet ditt varmes opp i et saktere tempo. Hvis jeg samtidig har vinduet mitt åpent får jeg ny ("kald") luft inn i rommet noe som igjen fører til at skjermkortet ikke klarere å varme opp rommet på samme måte fordi at skjermkortet får tilgang til ny luft. Lar jeg skjermkortet mitt stå på full load i 2-3 timer med dårlig kjøling kan jeg love deg at temperaturen i rommet har økt mye, men slår jeg på med bra kjøling og samtidig åpner et vindu er det plutselig en helt annen sak. Da har man lavere temperatur gpu'en, lavere temperatur i rommet etc., kortet dundrer fortsatt på 200watt, men klarer ikke å varme på samme måte. 200watt er 200 watt med varme slik du skriver selv, men det er om å kjøle ned den varmen ved å bruke kald luft slik at du får lavere gpu temp og lavere temp ut av kabinettet. Endring: Lagt til tekst. Om du har en bra kjøler eller ei har ingen betydning for romtemperaturen når prosessoren produserer 200W med varme. Dersom den bruker 200W og CPUen er under 50c eller over 80c så vil romtemperaturen øke like mye fordi den produserer 200W.. Varmen fra 200W blir spredt ut i rommet uansett. Hvis du bruker for eksempel ansiktet til å føle over viftene så føles det varmere hvis du bruker en dårlige kjøleløsning, men romtemperaturen skal bli nøyaktig det samme over tid. Hvor er det du får dette fra? Romtemperaturen (hvis det er snakk om et rom som er LUKKET) vil til slutt enda på en høy temperatur, men dette er etter LANG bruk. Jeg vet at arni90 har rett, men jeg har heller på ingen måte sagt han imot, det eneste jeg har sagt er at det er mulig å endre på temperaturen som kommer UT av kabinettet slik at det er til mindre ubehag for den som sitter 30cm unna. Ja, temperaturen i rommet vil øke uansett fordi et skjermkort som gir fra seg 200watt med varme er 200watt med varme uansett hvordan du vender eller vrir på det, men det er fult mulig å senke denne prosessen ved å kjøre på med bedre kjøling. Og grunnen til dette er enkelt og greit fordi den mengden med luft som finnes i rommet ditt er mye, mye større enn den mengden det tar fra vifta til skjermkortet og ut av kabinettet. Det er ganske så logisk i seg selv. Når jeg kjører kortet mitt på auto øker det raskt til 60 grader mens jeg kikker på YouTube videoer og romtemperaturen øker raskt etter en stund, men ved å sette kortet på manuelt øker temperaturen ALDRI over 35 grader. Den lufta som kommer ut av skjermkortet på baksiden har en kjølig følelese og jeg jeg kan sitte i rommet, gjøre de samme oppgavene, men i flere timer uten problemer. Lenke til kommentar
N o r e n g Skrevet 14. april 2012 Rapporter Del Skrevet 14. april 2012 @Symmetrical, mente at San22 tok feil Du gjør det nå også, det er ren placebo-effekt du snakker om her. Lenke til kommentar
SD88 Skrevet 14. april 2012 Rapporter Del Skrevet 14. april 2012 @Symmetrical, mente at San22 tok feil Du gjør det nå også, det er ren placebo-effekt du snakker om her. ... vi lar det ligge der lol Lenke til kommentar
Symmetrical Skrevet 15. april 2012 Rapporter Del Skrevet 15. april 2012 Jeg tror jeg burde kjøpe en GTX 680 for å replace min nåværende GTX 580.. Er ikke helt fornøyd med frameraten min i Battlefield 3 selv om den er perfect spillbar i 1080p. Det virker som om de seneste patchene gjorde at jeg fikk lavere FPS.. Ganske rart. Lenke til kommentar
tommytoa Skrevet 15. april 2012 Rapporter Del Skrevet 15. april 2012 Jeg tror jeg burde kjøpe en GTX 680 for å replace min nåværende GTX 580.. Er ikke helt fornøyd med frameraten min i Battlefield 3 selv om den er perfect spillbar i 1080p. Det virker som om de seneste patchene gjorde at jeg fikk lavere FPS.. Ganske rart. Hvilke tall får du da? Lenke til kommentar
Symmetrical Skrevet 15. april 2012 Rapporter Del Skrevet 15. april 2012 Jeg tror jeg burde kjøpe en GTX 680 for å replace min nåværende GTX 580.. Er ikke helt fornøyd med frameraten min i Battlefield 3 selv om den er perfect spillbar i 1080p. Det virker som om de seneste patchene gjorde at jeg fikk lavere FPS.. Ganske rart. Hvilke tall får du da? Har ikke mindre enn 40 FPS (sånn cirka) selv med ultra @ 1080p og 64-spillere. Men siden det er et FPS spill så syntes jeg at det 'føles' litt lavt. Min er 40, jeg fokuserer mest på min framerate. Specs i signaturen. Lenke til kommentar
tommytoa Skrevet 15. april 2012 Rapporter Del Skrevet 15. april 2012 Har ikke mindre enn 40 FPS (sånn cirka) selv med ultra @ 1080p og 64-spillere. Men siden det er et FPS spill så syntes jeg at det 'føles' litt lavt. Min er 40, jeg fokuserer mest på min framerate. Specs i signaturen. Hvis du bruker auto settings på innstillingene, er det mye som blir justert ned? Når jeg gjorde det med 6970 fikk jeg en salig blanding av ultra og high, og da var jeg aldri under 60-70 fps.Kan med hånden på hjertet si at jeg ikke ser noe forskjell på det og på ultra med 680. Iallefall ikke uten å se det side om side. Så jeg hadde ikke orket å bry meg med å bytte akkurat nå, hadde heller ventet og sett hva nvidia/amd finner på senere på året. 1 Lenke til kommentar
Symmetrical Skrevet 15. april 2012 Rapporter Del Skrevet 15. april 2012 Har ikke mindre enn 40 FPS (sånn cirka) selv med ultra @ 1080p og 64-spillere. Men siden det er et FPS spill så syntes jeg at det 'føles' litt lavt. Min er 40, jeg fokuserer mest på min framerate. Specs i signaturen. Hvis du bruker auto settings på innstillingene, er det mye som blir justert ned? Når jeg gjorde det med 6970 fikk jeg en salig blanding av ultra og high, og da var jeg aldri under 60-70 fps.Kan med hånden på hjertet si at jeg ikke ser noe forskjell på det og på ultra med 680. Iallefall ikke uten å se det side om side. Så jeg hadde ikke orket å bry meg med å bytte akkurat nå, hadde heller ventet og sett hva nvidia/amd finner på senere på året. Med tanke på at GTX 580 er bedre enn HD6970 i Battlefield 3 så kan det du gjorde sikkert funke bra for meg. Men jeg ønsker ikke å bruke noe annet en max settings. Men det er nok lurt å vente med tanke på at Nvidia/AMD kommer til å lansere noe som er bedre uansett. På en annen side så er ikke min 40 (note: Min) ikke egentlig så ille med 64-spillere i de største banene kun når jeg ser ut mot veldig åpne områder. Tror nok at jeg venter. Lenke til kommentar
tommytoa Skrevet 16. april 2012 Rapporter Del Skrevet 16. april 2012 Med tanke på at GTX 580 er bedre enn HD6970 i Battlefield 3 så kan det du gjorde sikkert funke bra for meg. Men jeg ønsker ikke å bruke noe annet en max settings. Sånn tenkte jeg også, og oppgraderte. Men jeg kan ikke SE hva jeg oppgraderte annet enn tallene på fraps. Dette i bf3 altså. Jeg vil også nevne at jeg kjenner flere bf-spillere som velger å spille på low-medium eller high, selv med 680, fordi dem mener at man ser klarere, bedre, får kjappere respons osv osv enn på ultra. Mulig det. Det jeg vet med sikkerhet er at på ultra får man microstuttering med 6970 i crossfire som man ikke får på high. Men det er nok lurt å vente med tanke på at Nvidia/AMD kommer til å lansere noe som er bedre uansett.Skal man tenke slik blir man sittende på gjerdet i åresvis i påvente av the next great thing. På en annen side så er ikke min 40 (note: Min) ikke egentlig så ille med 64-spillere i de største banene kun når jeg ser ut mot veldig åpne områder. Tror nok at jeg venter. Aldeles ikke ille. Prøv å sett en eller to spesialeffekter ned til high og se om du ser forskjellen på både utseendet og ytelse.Jeg fant ut at minnebrikkene mine kjørte på 1066mhz istedenfor 1600 som de skulle i går og fikk justert det i biosen. Da spratt plutselig frameraten opp et stykke. Det er fullt mulig å fokusere på de feile tingene og bli helt idiot 1 Lenke til kommentar
_Daniel_ Skrevet 17. april 2012 Rapporter Del Skrevet 17. april 2012 Hoi! Siden det er snakk om GTX 680 kort så hiver jeg også ut noen spørsmål.. Jeg har nylig kjøpt ny pc ( http://www.komplett.no/k/shoplist.aspx?mode=receive&si=1070887&su=E4E66AA5-6460-4041-A4CD-F70B66DFE260 ) men mangler skjermkort da alle er utsolgt.. Har prøvd å lese litt rundt her på forumet om dette kortet, men er forsatt noen ting jeg lurer på rundt dette.. Jeg kommer til å spille for det meste BF3 og de tilnærma like spillene som kommer i tiden fremover, en ting som jeg ønsker er at jeg skal klare å dra grafikk på max og 1080p oppløsning, dette er en REN gaming pc og skal kun spilles på en skjerm. Det jeg lurer på er: - Holder et GTX 680 2gb i massevis for mitt bruk? - Evnt. oppgradere med et eller 2 til når prisen har sunket? - Vente til det nye GTX 680 4gb kortet kommer? - Evnt. oppgradere med et slikt til når prisen der igjen har sunket? Etter hva jeg selv tror så holder ett GTX 680 2gb kort for mitt bruk inntil vidre, men siden jeg vil ha så høy FPS som mulig vil jeg ikke tjene på dette ved å kjøre 2 stk GTX 680 2gb i SLI eller bør jeg heller da vente på GTX 680 4gb kortet? - Vil 2 stk GTX 680 2gb i SLI yte mer FPS enn ett GTX 680 4 gb kort? Håper på ordentlig svar. :-D Takk! Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå