Gå til innhold

9800pro@XT - Hvordan få til dette?


Anbefalte innlegg

Jeg begynte å tenke på å bytte ut mitt 9800pro-kort med et 6800gt eller lignende, men fant ut at det ble litt dyrt i forhold til hva jeg oppnår med det. Derfor tenkte jeg jeg skulle prøve meg på denne bios-flashingen som gjør at man kan få kortet opp til XT-hastighet. Det var en tråd om dette en gang, men hvor den ble av da skjermer og skjermkort ble delt vet jeg ikke.

 

Det jeg først og fremst lurer på er hvor høyt man må få skjermkortet for å vite at det takler XT-klokken.

Dernest må jeg vel vite hvor man laster ned XT-bios og hvordan man går fram for å flashe den inn på kortet.

 

Det beste hadde jo vært om noen kunne linke til tråden, men jeg fant den ikke på søk.

 

På forhånd takk for svar :)

Lenke til kommentar
Videoannonse
Annonse

absolutt 0 vits å flashe hvis du kan overklokke :) er i grunn det samme. og du kan få ødelagt kortet ditt med flashing ( som f.eks kortet mitt ikke likte helt, måtte mye styr for å få det til normal stand)

 

men om ikke jeg tar helt feil her, så gir XT flashingen mer volt til core, som resulterer i at du kan overklokke core mer enn du gjorde før. men om du skal bare ha 9800pro @xt hastighet (core/mem Mhz), så er det ingen vits i å flashe. Eneste du får er "ATI 9800XT" i "Enhetsbehandling". No more, no less.

Lenke til kommentar
absolutt 0 vits å flashe hvis du kan overklokke :) er i grunn det samme. og du kan få ødelagt kortet ditt med flashing ( som f.eks kortet mitt ikke likte helt, måtte mye styr for å få det til normal stand)

 

men om ikke jeg tar helt feil her, så gir XT flashingen mer volt til core, som resulterer i at du kan overklokke core mer enn du gjorde før. men om du skal bare ha 9800pro @xt hastighet (core/mem Mhz), så er det ingen vits i å flashe. Eneste du får er "ATI 9800XT" i "Enhetsbehandling". No more, no less.

Dersom du har 360 kjerne får du ca. 300 poeng mere ved å flashe til XT enn ved kun overklokking. 360 gpu'en inneholder opptimaliserte shadere, som ikke tas i bruk før du flasher.

 

Har du derimot 350 kjerne, ser jeg ingen hensikt i å flashe. Tror også du kan regne med grafikkfeil når disse shaderene brukes.

 

Dersom kortet ditt ikke greier 412 core og 370 mem, og du ikke vil bytte kjøling. Kan du redigere "XT" biosen til lavere clock, før du flasher. Og du får en liten ytelsesøkning likevel.

 

Volten på core kan nok ikke endres med bios. Men noen minne timmings er satt strammere i "XT" biosene. Disse innstillingene er det mulig å redigere både i orginal og "XT" biosene, med f.eks RaBit.

Endret av Sigurd2
Lenke til kommentar
Dersom du har 360 kjerne får du ca. 300 poeng mere ved å flashe til XT enn ved kun overklokking. 360 gpu'en inneholder opptimaliserte shadere, som ikke tas i bruk før du flasher.

 

Har du derimot 350 kjerne, ser jeg ingen hensikt i å flashe. Tror også du kan regne med grafikkfeil når disse shaderene brukes.

Er det noen måte å sjekke hvilken kjerne jeg har på?

 

EDIT: Leif

Endret av WizendraW
Lenke til kommentar
Er det noen måte å sjekke hvilken kjerne jeg har på?

Har hørt at pinnene som fester kjøleren, ble skiftet fra metallfargede, til svarte samtidig som de begynte å bruke 360 kjernen.

 

Men eneste måten å si det sikkert på er visst å ta av kjølleribben, og sjekke hva som står på gpu.

 

Dersom du har tenkt å kjøre "XT" hastighet, må du mest sansynlig bytte kjøler likevel for å unngå artifactser pga varme.

Endret av Sigurd2
Lenke til kommentar
Er det noen måte å sjekke hvilken kjerne jeg har på?

Har hørt at pinnene som fester kjøleren, ble skiftet fra metallfargede, til svarte samtidig som de begynte å bruke 360 kjernen.

 

Men eneste måten å si det sikkert på er visst å ta av kjølleribben, og sjekke hva som står på gpu.

 

Dersom du har tenkt å kjøre "XT" hastighet, må du mest sansynlig bytte kjøler likevel for å unngå artifactser pga varme.

Jeg glemte visst å nevne at jeg har vannkjøling på GPU :p

 

Men jeg tror jeg bare flasher kortet, klokka det til 430/378 uten artifacts så jeg tror det går.

Lenke til kommentar
Har hørt at pinnene som fester kjøleren, ble skiftet fra metallfargede, til svarte samtidig som de begynte å bruke 360 kjernen.

 

Men eneste måten å si det sikkert på er visst å ta av kjølleribben, og sjekke hva som står på gpu.

Dumt spørsmål: hvordan får man av kjøleren? Finner to svarte "pinner" på baksiden av kortet (motsatt side av kjølere hvis noen var usikker), og jeg antar jeg må gjøre noe med den, men hva?

Lenke til kommentar
Har hørt at pinnene som fester kjøleren, ble skiftet fra metallfargede, til svarte samtidig som de begynte å bruke 360 kjernen.

 

Men eneste måten å si det sikkert på er visst å ta av kjølleribben, og sjekke hva som står på gpu.

Dumt spørsmål: hvordan får man av kjøleren? Finner to svarte "pinner" på baksiden av kortet (motsatt side av kjølere hvis noen var usikker), og jeg antar jeg må gjøre noe med den, men hva?

Du kan prøve med ATITool, meiner å huska at det stod kva kjerne kortet hadde...

ATITool

Det er også eit fint program viss du vil finne ut om kortet takler XT - hastigheter

Mvh

 

Espen

Lenke til kommentar

Det er jo kjempe lett og ta av kjøleren! Du tar bare en tang og klemmer sammen pinnene samtidig som du dytter ut (kan være lurt og tape tanga med isolasjonstape før du bynner og klemme på pinnene)

 

Montere i forgårs en ATI Silencer 1. og ram skinz. (den vifta er RÅ!!!!!)

 

Før klokka jeg til 384/344 som engentilg ikke er noen klokk i det heletatt, nå kjører jeg glatt på 412/371 :D (har R350 så jeg gidder ikke flashe)

 

og økte ca 500-600 poeng i 3dmark 03, i forhold til standar klokk

Endret av Blue--Sky
Lenke til kommentar
Du tar bare en tang og klemmer sammen pinnene samtidig som du dytter ut

 

På mitt Powercolor Radeon 9800 Pro måtte jeg trekke ut en sort pinne i klemmene som holder originalkjøleren fast. Deretter kunne jeg klemme sammen pinnene på baksiden.

 

Holder det med å ta ramsinks på den ene siden av minnebrikkene eller bør det være på begge sidene? Kjenner at de blir ganske varme ved overklokking.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...