deaktivert443556 Skrevet 3. oktober 2007 Del Skrevet 3. oktober 2007 Hvilken skal jeg velge av disse BIOS updatene? 9628210[/snapback] Det er ikke updates. Det er bare standard-bioser som folk har uploadet. Lenke til kommentar
Salemonsen_ Skrevet 3. oktober 2007 Forfatter Del Skrevet 3. oktober 2007 Hvilken skal jeg velge av disse BIOS updatene? 9628210[/snapback] Det er ikke updates. Det er bare standard-bioser som folk har uploadet. 9628230[/snapback] Hmm. Er det bare bioser med ren overklokk på? Lenke til kommentar
deaktivert443556 Skrevet 3. oktober 2007 Del Skrevet 3. oktober 2007 Nei, kun standard slik jeg har forstått det. Det fungerer som en nedlastningsdatabase for de som har fucket sin egen bios, samt at han som driver siden, Mavke, bruker disse til å utvikle programmet sitt Nibitor, (som er til redigering av bios). Lenke til kommentar
pcp160 Skrevet 3. oktober 2007 Del Skrevet 3. oktober 2007 Nei, kun standard slik jeg har forstått det. Det fungerer som en nedlastningsdatabase for de som har fucket sin egen bios, samt at han som driver siden, Mavke, bruker disse til å utvikle programmet sitt Nibitor, (som er til redigering av bios). 9628655[/snapback] Ja, det er vel ikke noe fornuftig å få ut av biosflash på 8800GTS, eller har jeg gått glipp av noe? Sist jeg flashet bios på grafikk-kort var da jeg hadde ATI X1800XT som jeg flashet til PE (med høyere klokk og spenninger) Gjorde noe liknende med Nibitor på 6800GT, men da var det vel verdier fra Ultra man la inn om jeg ikke husker helt feil. Men er det mulig å endre V-core og V-dimm, eller noe annet nyttig med nibitor på 8800GTS? Har intrykk av at det er fysiske mods det går i, som blyant, eller innsetting av motstand/potmeter... Lenke til kommentar
deaktivert443556 Skrevet 3. oktober 2007 Del Skrevet 3. oktober 2007 Nei, jeg har også forstått det slik at det er ikke noe å oppnå ved å tukle med biosen til 8800-kort, men jeg tjente mye på å endre fra 1,3v til 1,4v på mitt gamle 6800GT. Lenke til kommentar
pcp160 Skrevet 3. oktober 2007 Del Skrevet 3. oktober 2007 Nei riktig, det var vel det jeg hadde intrykk av Bradbury, det er kanskje gjerne der man har en "storebror" som er teknisk lik, det oftest er gode slike muligheter... Mitt gamle 6800GT går forøvrig i daglig bruk på 1,4V og relativt bra klokk fremdeles, så det var en velykket operasjon på de kortene ja . Lenke til kommentar
AmdTommy Skrevet 3. oktober 2007 Del Skrevet 3. oktober 2007 Nei riktig, det var vel det jeg hadde intrykk av Bradbury, det er kanskje gjerne der man har en "storebror" som er teknisk lik, det oftest er gode slike muligheter... Mitt gamle 6800GT går forøvrig i daglig bruk på 1,4V og relativt bra klokk fremdeles, så det var en velykket operasjon på de kortene ja . 9629047[/snapback] på mine 7800 GT også (ble lodding etterhvert på de da. ) Ang Vmod.. skal gjøre det når jeg får meg vannblokk til kortet men vil helst se resultater først da Lenke til kommentar
elpea Skrevet 4. oktober 2007 Del Skrevet 4. oktober 2007 Jeg har testet forskjellen i FPS i siste crysis-multiplayerbeta. Ved standardklokk 1240x1024 max på alt fikk jeg (etter det jeg klarte å observere med fraps) en økning på 15-30 FPS (alt etter hvor harde bilder det var snakk om å tegne) når jeg satt på min max-overklokking-profil. Dette vil jeg si meg ganske fornøyd med siden det er snakk ombare overklokking av skjermkort... Nå blir sikkert grafikkmotoren til crysis forbedret etter hvert også, så kan hende dette øker ved litt bedre tuning av motor;) Meeeeeget nice grafikk btw. Lenke til kommentar
Jlona Skrevet 5. oktober 2007 Del Skrevet 5. oktober 2007 Ja da har jeg sittet og pjattet litt og kom fram til dette. Er ganske førnøyd jeg, fra min gamle data som ville fått 20 er dette en stor forbedring. Lenke til kommentar
deaktivert443556 Skrevet 6. oktober 2007 Del Skrevet 6. oktober 2007 Jeg legger merke til en ting nå... Hvis jeg setter core til f.eks 640 Mhz i Rivatuner, da vises denne som 648 i hardware monitor. Denne endrer seg ikke før den hopper helt opp til 675. Jeg har hele tiden trodd at det er disse valgene jeg reelt sett har, men jeg ser nå i GPU-Z at den leser av core til 640 når jeg har valgt dette i Rivatuner. Kan det være at hardware monitor har en bug, eller går kortet reelt sett på 648 selv om det er klokket til 640? Lenke til kommentar
pcp160 Skrevet 6. oktober 2007 Del Skrevet 6. oktober 2007 Det er sånn trinnvis Bradbury, og det var også grunnen til at jeg tok med litt ekstra info om dette under 14251poeng- 741/1135Mhz "skryteposten" litt tidligere. meg selv,741/1135 er satt med ATI Tool, dette gir i følge Rivatuner 729/1134 og shader 1728Mhz (i følge ATI tool er det 734Mhz core...) Her har jeg altså satt klokken i ATI Tool, men kunne like gjerne gjort det i Rivatuner. 741Mhz er egentlig 729Mhz, men grunnen til at jeg likvel satte 741Mhz er at shaderclock da ligger høyere enn om jeg hadde satt 729Mhz. "Neste stopp" på core er 756Mhz, og det klarer ikke mitt kort. På minnet er 1152Mhz neste over 1134Mhz. Det finnes noen lister over disse trinnene (bla i Simalarion's 8800 tråd) men såvidt jeg kan se går de ikke langt nok for meg, og jeg er heller ikke sikker på om det er likt på GTS og GTX. Om jeg ikke husker feil blir avstanden mellom trinnene også noe lenger med høyere fart. Det jeg syns gjør det enda mer vanskelig er at ATI tool viser noe annet enn Rivatuner, samt at jeg får den til å stoppe på forskjellige trinn avhengig av om jeg går oppover, eller nedover med slideren... Jeg har dog intrykk av at Rivatuner er den som viser mest riktig, men er altså ikke sikker. Er ikke bare bare å bli klok på disse kortene. Lenke til kommentar
2bb1 Skrevet 6. oktober 2007 Del Skrevet 6. oktober 2007 Hvordan i alle dager får du GTS-kortet ditt til 730 på core? Mitt stopper på 640 Lenke til kommentar
pcp160 Skrevet 6. oktober 2007 Del Skrevet 6. oktober 2007 Hvordan i alle dager får du GTS-kortet ditt til 730 på core? Mitt stopper på 640 9650655[/snapback] Nei si det, noe av grunnen/forskjellen er vel denne; Utover det så har jeg rett og slett vært meget heldig med mine Gainward/Nvidia kort. Har hatt 6600GT GLH, 6800GT, og nå 8800GTS 640 som alle med vann har klokket særdeles godt Lenke til kommentar
2bb1 Skrevet 6. oktober 2007 Del Skrevet 6. oktober 2007 Ahh Må si det på en måte er komplisert å klokke grafikkort, selv om det i teorien bare er å flytte på sliderene. ATITools klikker rambo og PC-en må restartes om jeg bruker core 641, mens i Rivatuner går <650 helt fint til benchmark. Og når du driver å scanner for artifacts med ATITool, så når du først har fått den første artifacten, må jeg laaangt tilbake før artifactsene forsvinner. Meget forunderlig. Lenke til kommentar
pcp160 Skrevet 6. oktober 2007 Del Skrevet 6. oktober 2007 Ja, jeg må få si meg ening 2bb1, mitt forrige X1800 kort var mer komplisert med tanke på verktøy for klokking, og jeg husker jeg savnet Nvidia og Cool Bits i begynnelsen med det kortet. Men dette 8800 blir jeg liksom ikke helt 100% fortrolig med, og jeg føler ikke at jeg har helt kontroll og oversikt over hva som skjer, eller hvilke verdier jeg skal stole på... Det du sier med at du må laaangt tilbake på minnet når det feiler, kan vel muligens også være pga disse trinngreiene? Det gjelder jo i alle fall minnet også. 641Mhz core satt i ati tools er altså 648Mhz core i følge Rivatuner monitor, men når du går fra 640Mhz til 642 med Ati Tool forblir core det samme, men shader domain spretter fra 1458Mhz og opp til 1512Mhz. Så kanskje dette kan være grunnen til at det klikker akkurat der. Jeg vet ikke, og det forklarer unansett ikke hvorfor det bare skjer med AtiTool og ikke Rivatuner Lenke til kommentar
deaktivert443556 Skrevet 6. oktober 2007 Del Skrevet 6. oktober 2007 Jeg har aldri brukt AtiTool før, fordi jeg har ikke fått det til å fungere i Vista. Testet det i XP og programmet hostet opp en maksklokk på 689/1099. Jeg klokket litt ned til 683/1095 og gjennomførte 3dmark06 med Q6600 @ 3822 (En dag skal jeg virkelig guts'e på med volt og se hva denne jævelen klarer under litt press!). Resultatet ble i hvert fall 13519. Jeg legger ved et (noe rotete) skjermbilde. Lenke til kommentar
Salemonsen_ Skrevet 9. oktober 2007 Forfatter Del Skrevet 9. oktober 2007 Hvis dere har giddet så vil jeg anbefale å bruke "GPU-z" til validering av overklokk LINK til gpu-z Lenke til kommentar
basushjerne Skrevet 9. oktober 2007 Del Skrevet 9. oktober 2007 Blir det ikke litt feil å bruke totalscoren i 3dmark på lista, eller er jeg bare helt på gjordet? De som er gærne på å overklokke skjermkort, men som har en tragisk prosessor, skal ikke de fortjene en plass på topp 3 lista? Lenke til kommentar
-Tommy Skrevet 9. oktober 2007 Del Skrevet 9. oktober 2007 Blir det ikke litt feil å bruke totalscoren i 3dmark på lista, eller er jeg bare helt på gjordet? De som er gærne på å overklokke skjermkort, men som har en tragisk prosessor, skal ikke de fortjene en plass på topp 3 lista? Er derfor han har en liste utenom 3dMARK hvor det er scoren på skjermkortet som teller Lenke til kommentar
Salemonsen_ Skrevet 9. oktober 2007 Forfatter Del Skrevet 9. oktober 2007 Blir det ikke litt feil å bruke totalscoren i 3dmark på lista, eller er jeg bare helt på gjordet? De som er gærne på å overklokke skjermkort, men som har en tragisk prosessor, skal ikke de fortjene en plass på topp 3 lista? Fikset det nå, Last ned GPU-z å post linken din her så kommer du på listen så langt du har det som trengs Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå