Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

16bit vs 32bit!


flikk

Anbefalte innlegg

Videoannonse
Annonse

Heisann!

Hold deg til 16mill. farger du !

Viste du att menneskets øye kan ikke se forskjell på 16mill.farger og 32mill. farger !

så hold deg til 16mill ! bedre ytelse :wink:

håper dette hjalp

 

 

PS: ett lite tips ! skaff deg nytt 3dkort !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

_________________

m0r di....

 

<font class=editedby>[ Denne Melding var redigert av: SAMU3L på 2001-11-18 18:36 ]</font>

 

[ Denne Melding var redigert av: SAMU3L på 2001-11-18 18:37 ]

Lenke til kommentar

Athlon 1.5 og et tnt kort? blir vel som å slenge en ferrari motor inn i en 2cv og ikke bytte drivverket... vil aldri kunne bli utnyttet... et geforce 2 mx kort vil være "uendelig" mye bedre enn det du har og koster ikke så veldig mange hundrelappene...

 

men til spørsmålet ditt... i f.eks quake, castle wolfenstein og andre fps tror jeg ikke en vil ha tid til å registrere de små forskjellene som er mellom 16-bits og 32-bits fargedybde... i andre mer "rolige" spill kan det nok være mer synlige forskjeller...

 

På et tnt kort ville jeg bare glemt 32-bits farge da det blir for tungdrevet...

btw, 16-bits fargedybde er ca 65 tusen farger og 32-bits er 16 millioner et eller annet...

Lenke til kommentar

3d kortet funker bra det. Hakker ikke i max payne med detaljer på MAX og 800x600 punkter :grin: med 16bit farger selvfølgelig.

 

Hvis det blir noe nytt 3d kort så venter jeg til directx8 spilla kommer ut. Kjører jo alle spill idag greit. Når jeg først skal kjøpe nå så må det bli Radeon8500 eller bedre.

Lenke til kommentar

Quote:


On 2001-11-18 18:35, SAMU3L skrev:

Heisann!

Hold deg til 16mill. farger du !

Viste du att menneskets øye kan ikke se forskjell på 16mill.farger og 32mill. farger !



 

16bit er vel 65536 og 32bit er vel 16,7Mill farger - 32mill er det vel ingen skjermkort (vi har råd til) som støtter.

 

Ellers er det synlig forskjell på 16 og 32 bit, i 16bit blir bildet "hviter/grådere" mens i 32bit får du et varmt bilde (synes jeg)

 

Kjører seff 32bit (ytelsen er i praksis lik uansett - 3 ganger mer fps en jeg trodde var mulig for 2 år siden)

Lenke til kommentar

Jeg ser forskjell fra 16 bit til 32 bit farger

i mange av spilla mine med mitt Hercules prophet 4500 (kyro II)

i 32 bit farger er alle fargene litt klarere lissom og objektene i spilla blir finere og mere "smooth"

ser også tydelig forskjell i win 98SE.

med 16 bits farger blir litt "gråere" enn 32 bits farger.

men med ett TNT kort er det ikke no vits og kjøre 32 bits farger , desuten er jeg enig med han nevnte det med ferrarien og 2cven,,,

det er jo helt på jordet og kjøre en slik kombinasjon..

 

800 X 600 på en 1500 Mhz .hahahahahahaha

 

gå på QXL.no og kjøp deg ett GeForce 2 MX

du får det for ca 400-500 kr :smile:

(jeg kan garantere att du vil merke en enorm forskjell + att du kan begynne og spille spill i minimum 1024 X 768 noe som er ett minimumskrav til Max Payne ...

800 X 600 ser jo ille ut ...

Lenke til kommentar

Quote:


On 2001-11-19 11:00, Dollar skrev:

Quote:


On 2001-11-18 18:35, SAMU3L skrev:

Heisann!

Hold deg til 16mill. farger du !

Viste du att menneskets øye kan ikke se forskjell på 16mill.farger og 32mill. farger !



 

16bit er vel 65536 og 32bit er vel 16,7Mill farger - 32mill er det vel ingen skjermkort (vi har råd til) som støtter.

 

Ellers er det synlig forskjell på 16 og 32 bit, i 16bit blir bildet "hviter/grådere" mens i 32bit får du et varmt bilde (synes jeg)

 

Kjører seff 32bit (ytelsen er i praksis lik uansett - 3 ganger mer fps en jeg trodde var mulig for 2 år siden)

 

 

 

16bit er 65.536 farger

24bit er 16.777.216 farger

32bit er 4.294.967.296 farger

 

I et fotografi er det greit med 24bits. Under bildebehandlig er det greit med 32bits. Men i spill har ikke jeg tid til å studere grafikken. Da øker jeg heller oppløsninga så høyt som mulig, med bra framerate i 16bits.

Lenke til kommentar

En del spill blir veldig bra i 16bit (fx Episode 1 racer, null artifacts i 16bit [det er jo lagd for 16bit da]), men fx Deus Ex blir veldig stygt og kornete. Jeg kjører helt 32bit på alle spill, GF3 klarer det meste:)

Det er også forskjell på 16bit fargedybde og 16bit texturer, førstnevnte tar mindre cpu/gpukraft og er endel styggere, 16bit texturer på 32bit fargedubde ser en del bedre ut, og sparer RAM og er litt kjappere enn 32bit tex.

Har hatt litt trøbbel med Deus Ex på GF3, med lagging og ustyrlig mus, men det finner jeg vel ut a etterhvert...

Forslag mottas med takk.

OpenGL-driveren som følger med den siste patchen kræsjer, den vil jeg ikke bruke.

Lenke til kommentar

Quote:


16bit er vel 65536 og 32bit er vel 16,7Mill farger - 32mill er det vel ingen skjermkort (vi har råd til) som støtter.



 

2^16 = 65536 farger, 2^16 = ca. 16,7 mill. farger, 2^32 = ca 4,3 mrd farger...

 

Ikke det at det har noen større betydning om man kjører 16 eller 32 bit, det har bare blitt en "hype" blant datafolk (med et heller skrantende teknisk innsiktsnivå) å kjøre høyest mulig av mest mulig for å imponere flest mulig (fortrinnsvis med den samme mangelen på teknisk innsikt).

Lenke til kommentar

Quote:

2^16 = 65536 farger, 2^16 = ca. 16,7 mill. farger, 2^32 = ca 4,3 mrd farger...


Antar at du mente 2^24 = ca. 16,7 mill?

Uansett brukes ikke mer enn 24 bit fargedybde, da har rød, grønn og blå 256 fargenyanser hver. med 16-bit farger fordeler man vanligvis 5-6-5, (R=5 bit, G=6 bit, B=5 bit) ettersom grønn er den fargen man ser best forskjeller på. I 32-bit kan de siste 8 bit brukes til alpha (gjennomsiktighet). Hvordan forskjellen mellom 16 og 32 bit blir, avhenger av programmeringen, driverne og div. innstillinger.

Lenke til kommentar

16 bits er for lite til å nyansere alle de fargene vi er i stand til å oppfatte, spesielt gradering av farger (spesielt ved bruk av farget lys) lider under 16 bit og vil virke noe kornete. Slå desktopen over i 16bit så ser du hva jeg mener.

 

farge.jpg

 

 

[ Denne Melding var redigert av: MailMan13 på 2001-11-21 17:55 ]

Lenke til kommentar

> Hold deg til 16mill. farger du !

> Viste du att menneskets øye kan ikke se forskjell

> på 16mill.farger og 32mill. farger !

 

Det er sant, men som det sies her så er det snakk

om 16 bits, ikke 16 millioner farger. (16 bits =

65536 farger, 32 bits = 16.7 millioner farger)

 

> så hold deg til 16mill ! bedre ytelse

 

Det er sant, fordi det tar kortere tid å dytte 16

bits textures mellom GPU og minnet.

 

> Ellers er det synlig forskjell på 16 og 32 bit, i

> 16bit blir bildet "hviter/grådere" mens i 32bit

> får du et varmt bilde (synes jeg)

 

Det *er* stor forskjell, fordi paletten blir drastisk

forandret når man går fra 32 bits til 16 bits og

alle texturene blir "downsampled". Som det også sies

så ser man lett forskjell når det er mange

forskjellige elementer/gradients på skjermen

samtidig.

 

/gloom.

Lenke til kommentar

Jeg kjører konsekvent 32bit. ikke kom her og si at det ikke er synlig forskjell på 16 og 32bit! Hvis man bruker 16 bruker ofte programmene en teknikk som heter dithering for å gjøre overgangene "jevne" dere har sikkert alle sett det noen ganger, det er den effektern når mønstre av punkter brukes for å lage overganger. Dette vises veldig godt på gjennomsigtige textures og textures med jevne overganger på fargene. Ellers fører 16bits textures til at textures blir blasse og uskarpe. 16bits instilling vises mest med 16bit textures, ikke like mye på rendering...

 

Mailman13's ilustrasjon er bra for å enkelt viste hvorfor 16bits textures kan bli blasse/uskarpe.

 

Det finnes en del spill som faktisk gir lavere fps i 16 bit en 32 bit. (husker unreal var slik i software mode iaffal)

 

Brukes det ikke gpu cycles til å downsamle en 32bits texture?

 

På dagens skjermkort (Geforce, ++) er ikke yteses tapet/økningen på 32bits VS 16bits større en et par frames, så hvorfor man da skal kjøre 16bits, skjønner jeg ikke, hvis man har et eldre skjermkort derimot, blir det en helt annen sak.

 

Jeg vil si prøv med både 32bit og 16bit, hvis det gir merkbar ytelsesforskjell ved 16bit, kjør det, men hvis det ikke er noen forskjell, ser jeg ingen grunn til å ikke kjøre 32bits.

 

P.S: Det virker som folk har litt forvirete begreper om bits og farger..... det er 32 BITS (du vet sånne binære greier: 010001011010101010010001) ikke 32 millioner farger!!!

 

Det er riktig som sagt ovenfor at med 32 bits så har man RGB+8bits, med 16bits så har man en slags simulert RGB (dvs at mens ved 24-bits og 32bits har man 256 verdier på hver farge (RGB) har man med 16 bits tilnermingsverdier(=man kan velge mellom de samme verdiene, men det som vises på skjermen er enten den nermeste fargen innenfor 16bits skalaen eller en dithered tilnerming). For en dramatisk demontrasjon se på graffik med 256 farger, dette er den samme effekten men med enda færre farger å velge mellom.

 

[ Denne Melding var redigert av: Dipso på 2001-11-22 09:16 ]

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...