kakesjef Skrevet 3. november 2007 Del Skrevet 3. november 2007 (endret) sorry for latskap osv. ok nå prøver jeg å følge guiden til punkt og prikke. på punk nr. 8 er det noe jeg ikke får til... Da jeg velger: Check "enable driver level hardware overclocking så kommer den en boks opp. Der kan jeg velge mellom å detect, reboot, og cancel. og det er en checkbox der hvos det står allow separate 2D/3D clock frequency adjustment. sier jeg detect now skjer det ingenting og rebooter jeg er jeg like langt... takker så meget for hjelp. Endret 3. november 2007 av kakesjef Lenke til kommentar
kakesjef Skrevet 3. november 2007 Del Skrevet 3. november 2007 Da skjer det ingenting... boxen bare forsvinner og vi er tilbake der jeg var før jeg trykka enable driver level..... Lenke til kommentar
Andrull Skrevet 3. november 2007 Del Skrevet 3. november 2007 Ps: Husk å nedlaste rivatuner 2.06 om man ikke har gjort dette. (dette fikser det relativt normale problemet som gjør at mange ikke får overklokket) http://downloads.guru3d.com/download.php?det=163 Lenke til kommentar
kakesjef Skrevet 3. november 2007 Del Skrevet 3. november 2007 (endret) takk andrull hehe. Nå var det i orden med en gang Vel ikke den store forskjellen eller? klokket shaders fra 1188 til 1626Mhz gikk fra 13233 til 13531 i 3Dmark06 Endret 3. november 2007 av kakesjef Lenke til kommentar
simalarion Skrevet 3. november 2007 Forfatter Del Skrevet 3. november 2007 Oppdatert 1 post\tråden med GT, ser ingen grunn til ny tråd når den ligger i samme serien (overskrifter, 3dscore, spec) Lenke til kommentar
smy Skrevet 4. november 2007 Del Skrevet 4. november 2007 (endret) noen her med spill dods kunne last opp bilde fra map donner folk 88gts og gtx alså det fra ati kort mitt synes såg veldig annles fra gtx kort mitt Endret 4. november 2007 av smy Lenke til kommentar
Andrull Skrevet 4. november 2007 Del Skrevet 4. november 2007 takk andrull hehe. Nå var det i orden med en gang Vel ikke den store forskjellen eller? klokket shaders fra 1188 til 1626Mhz gikk fra 13233 til 13531 i 3Dmark06 Tipper det er mer å tjene i spill som tar i bruk litt heftigere med shadere. Crysis er vel kanskje det beste eksempelet ville jeg tro. Lenke til kommentar
simalarion Skrevet 4. november 2007 Forfatter Del Skrevet 4. november 2007 Noen som har testet hellgate?, skulle ha testet det men har rotet bort lørdags kvelden på OS trøbbel - jippi. Lenke til kommentar
simalarion Skrevet 4. november 2007 Forfatter Del Skrevet 4. november 2007 (endret) Takker for linken, tenkte også på testet med 8800 kort med tanke på ytelse etc(hellgate). Endelig ferdig med 64 bit Vista innstalering og til min overaskelse funket Crysis bedre, ikke bare det men jeg fikk tonnvis med eyecandy på kjøpet (nesten sikker på jeg ikke spillte med dx10 effekter før, men jeg spilte jo på very high med vista 32). Det råeste var at lyset trengte seg mellom vært minste blad etc, og fjellene bak så ut som ekte fjell selv på avstand. Det ser sjokkerendet bra ut. Alt på fullt på gode gammle 1024, funker akkurat på k... håret å spille. Endret 4. november 2007 av simalarion Lenke til kommentar
perpyro Skrevet 4. november 2007 Del Skrevet 4. november 2007 (endret) Jeg driver nå og overklokker mitt XFX 8800 GTS 640Mb ram kort og synes jeg får noen undelige score i 3Dmark06. Noen som har noe forklaring på dette? Foreløpig er det bare core som er klokket og klokkingen er gjort rett i Nvidia driveren med nTune. Kjører XP pro 32 bit Drivere 163.71 Resten av systemet står i profilen. Overklokking.Utført på nybootet maskin ikke pålogget nett. 3Dmark06 Demo 1.0.2 GPU 513/792 8568 Stock 530/792 8838 540/792 8856 550/792 8898 560/792 8970 9049 570/792 8964 8948 8983 100% kjøling 575/792 9118 580/792 9028 585/792 9106 590/792 9099 595/792 9165 600/792 9216 Endret 4. november 2007 av perpyro Lenke til kommentar
Spirre Skrevet 4. november 2007 Del Skrevet 4. november 2007 det er fordi skjermkortet ikke klokker i 5-10mhz intervallser som du bruker. det er posta en liste litt lenger tilbake i tråden som viser intervallene skjermkortet bilr klokka til når du setter en gitt mhz. f.eks så ser det ut som 575 til 590 gir akkurat samme klokk. siden scoren er såpass lik hele veien. dersom du åpner rivatuner og viser hardvaremonitoring, så ser du hvor høyt kortet egentlig blir klokka ved de forskjellige intervallene du har valgt Lenke til kommentar
Intern Skrevet 4. november 2007 Del Skrevet 4. november 2007 Oversatte shader-klokke-guiden til norsk... Dette er en guide for å enable shader klokke slideren via RivaTuner Før du gjør noe som helst, se at du har seneste RivaTuner (2.06) A- Muliggjøre shader clock slideren i WIN XP: 1- Åpne RivaTuner å gå til Power user tab'en 2- Trykk på + forran RivaTuner \ System 3- Gå til NVAPIUsageBehavior og sett verdien til 1 4- Gå til NVAPIClockControl og sett verdien til 1 5- Trykk OK og Restart XP B- Muliggjøre CORE/SHADER/MEM klokke instillinger: 1- Åpne RivaTuner å gå til Power user tab'en 2- Trykk på + forran RivaTuner \ NVIDIA \ Overclocking 3- Gå til DisableMemClkResetProtection og sett verdien til 1 4- Gå til EnableLowPower3Dcontrol og sett verdien til 1 5- Gå til UseAlternateStartupDaemon og sett verdien til 1 6- Trykk OK og Restart XP 7- Åpne RivaTuner å gå til system tweaks (der man overklokker) 8- Check "enable driver level hardware overclocking" 9- Velg Standard 2D 10- Uncheck "Link clocks" mellom kjerne klokk slideren og Shader klokk slider'en 11- Sett shader klokken til klokken du vil ha og trykk apply 12- Gå til Low power 3D og Performance 3D og gjør det samme 13- Tilbake til standard 2D og sett kjerne klokken til det vil 14- Gjenta nr. 12 15- Tilbake til standard 2D og sett Memory klokken til det vil 16- Gjenta nr. 12 Valgfritt: 17- Gå til startup settings under overklokking sliderene 13- Check boksen for Standard 2D, Low Power 3D og Performance 3D og trykk Apply Lykke til Lenke til kommentar
simalarion Skrevet 4. november 2007 Forfatter Del Skrevet 4. november 2007 (endret) Crysis igjen. Wow, for et spill ). Sitter med en sterk følelse at jeg kommer til å ønske at det aldri haddet vært blandet in Aliens greier men. På det ene bildet her stod jeg inne i et hus mens det ble blåst sønder å sammen, beste spill opplevelse på veldig lenge hehe (siste) Endret 4. november 2007 av simalarion Lenke til kommentar
Halvt horn ost skinka piffi varmt Skrevet 4. november 2007 Del Skrevet 4. november 2007 (endret) Et lite spørsmål.... Hvis kortet skrur seg av (kommer ikke bildet på skjermen) under stresstesting (dvs spill) er det et tegn på for lite strøm til skjermkortet? Har en litt jalla løsning på den andre strømkontakten. Kan jeg ha nådd grensen på kortet? Temperaturene er fortsatt "lave" (>70C load). Endret 4. november 2007 av heanwi Lenke til kommentar
Theo343 Skrevet 4. november 2007 Del Skrevet 4. november 2007 (endret) Oppdatert 1 post\tråden med GT, ser ingen grunn til ny tråd når den ligger i samme serien (overskrifter, 3dscore, spec) Enig. Simalarion: For noen herlige bilder du har produsert her. Så Vista 64bit er altså valget for best ytelse og grafikk i Crysis? Endret 4. november 2007 av Theo343 Lenke til kommentar
simalarion Skrevet 4. november 2007 Forfatter Del Skrevet 4. november 2007 (endret) Virker slik ja, tvilte på om jeg overhodet spilte på dx10 før men brukte jo vista 32 very high 1024, jeg har ikke funnet svaret på det enda. Men ser en hel del bedre ut og glir en bitte liten tanke bedre, drister meg til å kalle det spillbart. Endret 4. november 2007 av simalarion Lenke til kommentar
acerview Skrevet 4. november 2007 Del Skrevet 4. november 2007 jaja tenke eg skulle hive inn 3dmark score mine her med faktisk ny pers rekord: 3dmark06: 16257 Link skal ta å sjekke hva eg klare med 24/7 klokken min som er 771\1890\1022 q6600@3600 Lenke til kommentar
kakesjef Skrevet 4. november 2007 Del Skrevet 4. november 2007 Og hva er så din HW? Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå