stranden Skrevet 4. april 2012 Del Skrevet 4. april 2012 Ser de fleste tester viser omtrent 38-40 i idle temperatur. Jeg installerte mitt nylig og ligger på 55 idle, som er ganske mye over det andre hadde. Om jeg kjørte viften på 100% i 10 minutter kom jeg ned i 37 grader. Det ble ganske trangt i kabinettet, men jeg kjører det uten sidedøren nå, og viften i topp og front er ikke i drift, men det er ikke noe særlig varmt i kabintettet uansett. Skjermkortet har fritt spillerom under vifta. Har ikke noe under kortet. Antec Nine Hundred chassis, ca 33 grader der nå. skjermkort på 56 grader, 0,99 V, 35% fanspeed Lenke til kommentar
Symmetrical Skrevet 4. april 2012 Del Skrevet 4. april 2012 Ser de fleste tester viser omtrent 38-40 i idle temperatur. Jeg installerte mitt nylig og ligger på 55 idle, som er ganske mye over det andre hadde. Om jeg kjørte viften på 100% i 10 minutter kom jeg ned i 37 grader. Det ble ganske trangt i kabinettet, men jeg kjører det uten sidedøren nå, og viften i topp og front er ikke i drift, men det er ikke noe særlig varmt i kabintettet uansett. Skjermkortet har fritt spillerom under vifta. Har ikke noe under kortet. Antec Nine Hundred chassis, ca 33 grader der nå. skjermkort på 56 grader, 0,99 V, 35% fanspeed Har du noen vifter som suger inn luft fra utsiden? Hvis du har det så kan det være noe galt med kortet. Kanskje du burde RMA? 56c er ikke vanlig for idle. Lenke til kommentar
N o r e n g Skrevet 4. april 2012 Del Skrevet 4. april 2012 Så lenge temperaturene på skjermkortet er under 90°C er det ikke verdt å bry seg. 2 Lenke til kommentar
xRun Skrevet 4. april 2012 Del Skrevet 4. april 2012 Ser de fleste tester viser omtrent 38-40 i idle temperatur. Jeg installerte mitt nylig og ligger på 55 idle, som er ganske mye over det andre hadde. Om jeg kjørte viften på 100% i 10 minutter kom jeg ned i 37 grader. Har du mer enn 1 skjerm på dette kortet? Vet ikke med 680, men 500-serien kjører typisk høyere idle-temperaturer med 2 skjermer tilkoblet. Har et 570 i denne maskinen, 2 skjermer, typisk 48C idle. Med bare 1 skjerm: 35C. 2 Lenke til kommentar
Symmetrical Skrevet 4. april 2012 Del Skrevet 4. april 2012 (endret) Så lenge temperaturene på skjermkortet er under 90°C er det ikke verdt å bry seg. Når hans idle temp er 16-20c høyere enn normalt så er det verdt å bry seg. Ja, idle temp er i utgangspunktet ikke viktig men det sier noe om hva hans load temp 'kan' være. Hvis for eksempel 75c er den vanlige load tempen for GTX 680 så er det en stor sannsynelighet at han får høyere temps enn 90c. Endret 4. april 2012 av Symmetrical Lenke til kommentar
stranden Skrevet 4. april 2012 Forfatter Del Skrevet 4. april 2012 Ser de fleste tester viser omtrent 38-40 i idle temperatur. Jeg installerte mitt nylig og ligger på 55 idle, som er ganske mye over det andre hadde. Om jeg kjørte viften på 100% i 10 minutter kom jeg ned i 37 grader. Har du mer enn 1 skjerm på dette kortet? Vet ikke med 680, men 500-serien kjører typisk høyere idle-temperaturer med 2 skjermer tilkoblet. Har et 570 i denne maskinen, 2 skjermer, typisk 48C idle. Med bare 1 skjerm: 35C. Takk for dette svaret. Hadde tven koblet til via DVI-inngangen. Prøvde å ta den ut og tempen sank ned til 37 grader med en gang, sammens med lavere viftestøy (30% i stedet for 35%)! Det var jo en plagsom ting. Får vel bare plugge til TV-en når jeg skal se noe på den da.. Er vel ikke noe farlig med den ekstra temperaturen uansett regner jeg med? Planlegger å bruke mer dual screen fremover skjønner dere 1 Lenke til kommentar
N o r e n g Skrevet 4. april 2012 Del Skrevet 4. april 2012 Så lenge temperaturene på skjermkortet er under 90°C er det ikke verdt å bry seg. Når hans idle temp er 16-20c høyere enn normalt så er det verdt å bry seg. Ja, idle temp er i utgangspunktet ikke viktig men det sier noe om hva hans load temp 'kan' være. Hvis for eksempel 75c er den vanlige load tempen for GTX 680 så er det en stor sannsynelighet at han får høyere temps enn 90c. Idle-temps er unøyaktige, ekstremt unøyaktige: 45°C og 15°C rapportert kan begge være 30°C i virkeligheten. Å stole på temperaturavlesninger fra en brikke er kun greit når du er innenfor 20°C fra makstemperaturen den er kalibrert for (For skjermkort er det da mellom 100-110°C,) utenfor dette lille intervallet vil avlesningene være for unøyaktige til at du skal vektlegge dem. Dette kan like godt være en dårlig kalibrert sensor som noe annet, jeg har personlig hatt 2x 6950 som rapporterte henholdsvis 45°C og 25°C under idle uten noen overklokk, og det var bunnkortet som sa det var på 45°C. Uansett er ikke høye idletemps farlige, det du skal bekymre deg for er loadtemperaturer som regelmessig overstiger 90°C på skjermkort og 80°C på Intel-prosessorer. Alt som er særlig under dette blir for unøyaktig og umulig å ta stilling til uten ekstremt mye synsing. 3 Lenke til kommentar
Symmetrical Skrevet 4. april 2012 Del Skrevet 4. april 2012 Så lenge temperaturene på skjermkortet er under 90°C er det ikke verdt å bry seg. Når hans idle temp er 16-20c høyere enn normalt så er det verdt å bry seg. Ja, idle temp er i utgangspunktet ikke viktig men det sier noe om hva hans load temp 'kan' være. Hvis for eksempel 75c er den vanlige load tempen for GTX 680 så er det en stor sannsynelighet at han får høyere temps enn 90c. Idle-temps er unøyaktige, ekstremt unøyaktige: 45°C og 15°C rapportert kan begge være 30°C i virkeligheten. Å stole på temperaturavlesninger fra en brikke er kun greit når du er innenfor 20°C fra makstemperaturen den er kalibrert for (For skjermkort er det da mellom 100-110°C,) utenfor dette lille intervallet vil avlesningene være for unøyaktige til at du skal vektlegge dem. Dette kan like godt være en dårlig kalibrert sensor som noe annet, jeg har personlig hatt 2x 6950 som rapporterte henholdsvis 45°C og 25°C under idle uten noen overklokk, og det var bunnkortet som sa det var på 45°C. Uansett er ikke høye idletemps farlige, det du skal bekymre deg for er loadtemperaturer som regelmessig overstiger 90°C på skjermkort og 80°C på Intel-prosessorer. Alt som er særlig under dette blir for unøyaktig og umulig å ta stilling til uten ekstremt mye synsing. Høye temps reduserer både levetiden på skjermkortet og muligheten for å overclocke. Alle reviews som jeg har lest av GTX 680 konstaterer at idle temps er fra 37-40c og load 72-80c. Dersom temperaturen er betydelig høyere enn normalt så burde han RMA fordi heatsinken kan være dårlig montert. En idle temp på 56c er ikke normalt selv med en romtemperatur på 30c. Hvis temperaturavlesningen på skjermkortet er feil, noe som er veldig usannsynlig, så er det nok en grunn for å RMA. Det eneste han kan stole på er avlesningen på skjerkortet. Hvorfor satse på at den - mot alle odds - rapporterer feil temps? Lenke til kommentar
007CD Skrevet 4. april 2012 Del Skrevet 4. april 2012 Beklager men det er helt korrekt at idle tempen viser feil. Årsaken er temp giveren sin måte den er bygget på og er helt vanlig at den misviser ved lavere verdier. Denne typen temp givere er av den typen som er unøyaktig når du ligger i den lavere enden av skalaen da det ikke betyr noe for kortet om det er 30-40 grader for eksempel, men straks du begynner å nærme deg smerte grensen rundt 70-80 så blir måleren mer nøyaktig, faktisk ganske så spot on. Derfor vil vi ha load temps enn idle temps, er ikke feil med kortet eller måleren, samme teknologi ble brukt på tankmålere i litt eldre biler (Før kjørecomputeren gjorde sitt store inntog) og disse var ikke nøyaktig i det hele tatt når du var i den øvre delen av skalaen, men jo nærmere du kom tom tank, jo større ble nøyaktigheten. Årsaken til at disse benyttes er at kalibrering er enklere og de er billigere også. 3 Lenke til kommentar
Symmetrical Skrevet 4. april 2012 Del Skrevet 4. april 2012 Beklager men det er helt korrekt at idle tempen viser feil. Årsaken er temp giveren sin måte den er bygget på og er helt vanlig at den misviser ved lavere verdier. Denne typen temp givere er av den typen som er unøyaktig når du ligger i den lavere enden av skalaen da det ikke betyr noe for kortet om det er 30-40 grader for eksempel, men straks du begynner å nærme deg smerte grensen rundt 70-80 så blir måleren mer nøyaktig, faktisk ganske så spot on. Derfor vil vi ha load temps enn idle temps, er ikke feil med kortet eller måleren, samme teknologi ble brukt på tankmålere i litt eldre biler (Før kjørecomputeren gjorde sitt store inntog) og disse var ikke nøyaktig i det hele tatt når du var i den øvre delen av skalaen, men jo nærmere du kom tom tank, jo større ble nøyaktigheten. Årsaken til at disse benyttes er at kalibrering er enklere og de er billigere også. Har du noen kilder som kan henvise til at dette gjelder for GTX 680? Lenke til kommentar
007CD Skrevet 4. april 2012 Del Skrevet 4. april 2012 Da må jeg først spørre hva du tolker som kilder før jeg gidder å begynne å grave i årgammel informasjon. Dette har vært innført Lenge før GTX 680 og andre kort ble påtenkt, faktisk en del generasjoner før ATi Radeon HD 3850 og NV's 8800 GTS kom ut dørene. Intel har gjort dette siden 775 plattformen ble innført og Core serien kom med denne typen sensorer, med varierende kvalitet. Nok av poster her på forumet, og i Core 2 tråden som forklarer dette, men som sagt, hva er det du godtar som dokumentasjon? Forventer du en side som Toms Hardware har en artikkel hvor dette står sort på hvitt så er svaret nei, da kan jeg ikke finne det til deg, er gammel teknologi og ikke noe banebrytende nytt. 3 Lenke til kommentar
Symmetrical Skrevet 4. april 2012 Del Skrevet 4. april 2012 (endret) Da må jeg først spørre hva du tolker som kilder før jeg gidder å begynne å grave i årgammel informasjon. Dette har vært innført Lenge før GTX 680 og andre kort ble påtenkt, faktisk en del generasjoner før ATi Radeon HD 3850 og NV's 8800 GTS kom ut dørene. Intel har gjort dette siden 775 plattformen ble innført og Core serien kom med denne typen sensorer, med varierende kvalitet. Nok av poster her på forumet, og i Core 2 tråden som forklarer dette, men som sagt, hva er det du godtar som dokumentasjon? Forventer du en side som Toms Hardware har en artikkel hvor dette står sort på hvitt så er svaret nei, da kan jeg ikke finne det til deg, er gammel teknologi og ikke noe banebrytende nytt. Hvordan vet du at Nvidia ikke har implementert noe nytt i sammenheng med dette? Har aldri opplevd dette problemet. Mine temperaturer har alltid vært korrekt og konsistent både idle og under load. Dersom dette er 'gammel informasjon' så virker det naturlig at noe burde være forandret. Endret 4. april 2012 av Symmetrical Lenke til kommentar
007CD Skrevet 4. april 2012 Del Skrevet 4. april 2012 (endret) Vell årsaken er at hadde de hatt noe nytt så hadde det vært revolusjonerende, så enkelt er det og de hadde reklamert for det. Bil analogisk er dette som å sette spørsmålstegn om den nye bilen har overliggende kamaksling på motoren siden det ikke står i brosjyren, og da dette har vært standard siden 60-70 tallet, disse temp målerne de bruker er nok ikke utviklet av Nvidia, heller innkjøpt og innbakt i kjernen som hos de fleste andre vil jeg tro og som jeg har sagt, det er en industriell revolusjon om de hadde hatt noe annet. Uansett, en kjapp artikkel som viser hvordan en slik sensor måler finner du her, denne er for Intel CPUer, men prinsippet er det samme. http://www.overclock.net/t/476469/the-truth-about-temperatures-and-voltages Scroll ned til "The Other Side of TJ Max" for å se det 'saklige kjøttet' Spørsmålet jeg har til deg er... Hvordan vet du at den er korrekt? Har du "sneket" inn en sensor du vet er korrekt oppe på kjernen eller går du etter "feelingen"? Endret 4. april 2012 av 007CD 1 Lenke til kommentar
Symmetrical Skrevet 4. april 2012 Del Skrevet 4. april 2012 (endret) Vell årsaken er at hadde de hatt noe nytt så hadde det vært revolusjonerende, så enkelt er det og de hadde reklamert for det. Bil analogisk er dette som å sette spørsmålstegn om den nye bilen har overliggende kamaksling på motoren siden det ikke står i brosjyren, og da dette har vært standard siden 60-70 tallet, disse temp målerne de bruker er nok ikke utviklet av Nvidia, heller innkjøpt og innbakt i kjernen som hos de fleste andre vil jeg tro og som jeg har sagt, det er en industriell revolusjon om de hadde hatt noe annet. Uansett, en kjapp artikkel som viser hvordan en slik sensor måler finner du her, denne er for Intel CPUer, men prinsippet er det samme. http://www.overclock...es-and-voltages Scroll ned til "The Other Side of TJ Max" for å se det 'saklige kjøttet' Spørsmålet jeg har til deg er... Hvordan vet du at den er korrekt? Har du "sneket" inn en sensor du vet er korrekt oppe på kjernen eller går du etter "feelingen"? Takk for linken. Jeg har målt romtemperatur og temperaturen i casen året rundt. Idle temp og load temp er konsistent ved bruken av diverse programmer og/eller benchmarks (Blant annet Prime95 og Unigine Heaven). For eksempel: CPU load temp etter 1 time med en romtemperatur på 20c er akkurat det samme som i fjor: 63c (+/- 1c). Det samme gjelder GPUen. Edit: Den varmeste kjernen er 63c. De andre kjernene er også konsistent med tidligere tester under samme romtemperatur. Endret 4. april 2012 av Symmetrical Lenke til kommentar
007CD Skrevet 4. april 2012 Del Skrevet 4. april 2012 Vell om du ikke har målt fysisk så vet du ikke at den tempen du ser er korrekt dessverre. Alt det du ser ved idle er hva programmet "gjetter" at tempen er siden den vet at sensoren ikke gir nøyaktig informasjon som nevnt i artikkelen. Derfor kan du ikke stole på den ved lave temperaturer, selv om du ser ett mønster så kan du ha opptil 10 grader feil avhengig av kvaliteten på sensoren (Ikke noe skikkelig som oftest da de ofte vil spare på konstruksjonen, 1 dollar på 1 million produserte kort = 1 million spart for eksempel) men når du ser på grafen så ser du at høyere opp du kommer så blir den nøyaktig. Så som tommelfinger regel så skal du måle tempen ved max load og sammenligne denne, du klarer ikke å grille eller skade en moderne GPU med en kort tur opp på 100 grader C, årsaken er at akkurat som CPUen så ligger det beskyttelse som forhindrer at den stryker med. Men du kan nok få til noe om du gjør dette over lengere tid, noen uker eller måneder i allefall. 2 Lenke til kommentar
Symmetrical Skrevet 4. april 2012 Del Skrevet 4. april 2012 Vell om du ikke har målt fysisk så vet du ikke at den tempen du ser er korrekt dessverre. Alt det du ser ved idle er hva programmet "gjetter" at tempen er siden den vet at sensoren ikke gir nøyaktig informasjon som nevnt i artikkelen. Derfor kan du ikke stole på den ved lave temperaturer, selv om du ser ett mønster så kan du ha opptil 10 grader feil avhengig av kvaliteten på sensoren (Ikke noe skikkelig som oftest da de ofte vil spare på konstruksjonen, 1 dollar på 1 million produserte kort = 1 million spart for eksempel) men når du ser på grafen så ser du at høyere opp du kommer så blir den nøyaktig. Så som tommelfinger regel så skal du måle tempen ved max load og sammenligne denne, du klarer ikke å grille eller skade en moderne GPU med en kort tur opp på 100 grader C, årsaken er at akkurat som CPUen så ligger det beskyttelse som forhindrer at den stryker med. Men du kan nok få til noe om du gjør dette over lengere tid, noen uker eller måneder i allefall. Jeg holder meg alltid under 70c ved max load på både CPU og GPU av egen preferanse. Dette er veldig off-topic men jeg har et siste spørsmål. Hva er det som regulerer denne 'beskyttelsen'? Tar den ikke utgangspunkt i en slags diode som måler temp? Er det trygt å stole på at den faktisk vil skru av skjermkortet dersom den når (X) temp? Lenke til kommentar
N o r e n g Skrevet 4. april 2012 Del Skrevet 4. april 2012 Jeg har målt romtemperatur og temperaturen i casen året rundt. Idle temp og load temp er konsistent ved bruken av diverse programmer og/eller benchmarks (Blant annet Prime95 og Unigine Heaven). For eksempel: CPU load temp etter 1 time med en romtemperatur på 20c er akkurat det samme som i fjor: 63c (+/- 1c). Det samme gjelder GPUen. Edit: Den varmeste kjernen er 63c. De andre kjernene er også konsistent med tidligere tester under samme romtemperatur. Vi sier jo ikke at temperaturene vil endre seg fra dag til dag og år til år, vi sier at målingene ved lave temperaturer ikke er til å stole på. Det betyr altså at man ikke burde vektlegge temperaturavlesninger før man går opp i load, og det er utrolig lite å verdt å tenke på disse tallene før du kommer nært smertegrensen. Grunnen til at disse sensorene er på plass er jo nettopp for at det skal bli full stopp i kretsene når avlesningen kommer på 0 til TJmax, sjansene for å virkelig skade en CPU- eller GPU-brikke i dag av varme er utrolig små og det er nettopp fordi disse sensorene er lagt inn. Intel, Nvidia og AMD dimensjonerer jo kjølerene til produktene sine til å kunne takle en gitt driftstemperatur på et gitt støynivå med en særdeles varm brikke med en gitt garantert levetid også. Med tanke på at jeg aldri har hørt om at noen har fått et dødt grafikkort eller prosessor fordi selve brikka som gjør utregninger har dødd tror jeg de har gode marginer på plass for å hindre varmedød. 1 Lenke til kommentar
stranden Skrevet 4. april 2012 Forfatter Del Skrevet 4. april 2012 Markerte denne som løst jeg nå. Ved å ha 2 aktive skjermer ble temperaturen økt med opptil 20 grader, noe jeg synes var merkelig. Nå, med en skjerm, er jeg nede i 35 grader idle. Leste noe om at det var et problem med 500 serien også, angående 3D effekt og at kortet ikke kom inn i "hvilemodus" når du har 2 skjermer aktivert. Det fantes visst en work around, men jeg har ikke prøvd noe mer. Takk for alle som svarte 1 Lenke til kommentar
Symmetrical Skrevet 4. april 2012 Del Skrevet 4. april 2012 Jeg har målt romtemperatur og temperaturen i casen året rundt. Idle temp og load temp er konsistent ved bruken av diverse programmer og/eller benchmarks (Blant annet Prime95 og Unigine Heaven). For eksempel: CPU load temp etter 1 time med en romtemperatur på 20c er akkurat det samme som i fjor: 63c (+/- 1c). Det samme gjelder GPUen. Edit: Den varmeste kjernen er 63c. De andre kjernene er også konsistent med tidligere tester under samme romtemperatur. Vi sier jo ikke at temperaturene vil endre seg fra dag til dag og år til år, vi sier at målingene ved lave temperaturer ikke er til å stole på. Det betyr altså at man ikke burde vektlegge temperaturavlesninger før man går opp i load, og det er utrolig lite å verdt å tenke på disse tallene før du kommer nært smertegrensen. Grunnen til at disse sensorene er på plass er jo nettopp for at det skal bli full stopp i kretsene når avlesningen kommer på 0 til TJmax, sjansene for å virkelig skade en CPU- eller GPU-brikke i dag av varme er utrolig små og det er nettopp fordi disse sensorene er lagt inn. Intel, Nvidia og AMD dimensjonerer jo kjølerene til produktene sine til å kunne takle en gitt driftstemperatur på et gitt støynivå med en særdeles varm brikke med en gitt garantert levetid også. Med tanke på at jeg aldri har hørt om at noen har fått et dødt grafikkort eller prosessor fordi selve brikka som gjør utregninger har dødd tror jeg de har gode marginer på plass for å hindre varmedød. Er nok høy voltages som dreper komponenter. Jeg har gode praktiske kunnskaper om PCer og har bygget/eksperimentert med PCer i seks år nå og lærer noe nytt hver dag. Kanskje jeg er for nøye med temperatur ettersom at min terskel er på 70c max. Takk for svar. Markerte denne som løst jeg nå. Ved å ha 2 aktive skjermer ble temperaturen økt med opptil 20 grader, noe jeg synes var merkelig. Nå, med en skjerm, er jeg nede i 35 grader idle. Leste noe om at det var et problem med 500 serien også, angående 3D effekt og at kortet ikke kom inn i "hvilemodus" når du har 2 skjermer aktivert. Det fantes visst en work around, men jeg har ikke prøvd noe mer. Takk for alle som svarte Tenkte meg at det var en logisk forklaring på problemet hvorav det ikke er relatert til en 'lesefeil' av temperaturmåleren. Bra du fikset problemet. Lenke til kommentar
SD88 Skrevet 6. april 2012 Del Skrevet 6. april 2012 Så mye greier for en så liten sak. Hadde selv litt problemer med slikt en periode og fikk tilbakemeldinger på hva jeg skulle gjøre i bibelstørrelse, for å si det slik, verken jeg eller de som svarte ble noe klokere av det. Så jeg stakk til butikken å kjøpte meg temp måler til 399, åpnet det jækla kabinettet og vips så fikk jeg riktig svar. End of story Og ja, sensoren på alle kort jeg har hatt gjennom tidene etter jeg kjøpte den måleren har vist feil, men ikke med så mye at det hadde en stor betydning. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå