Kakeshoma Skrevet 21. januar 2010 Del Skrevet 21. januar 2010 (endret) Flott klipp-lim inn i oversetter-klipp-lim inn-post artikkel fra Guru3D Gleder meg til Mars:D eller april-mai... Endret 21. januar 2010 av Kakeshoma Lenke til kommentar
DarkSlayer Skrevet 21. januar 2010 Del Skrevet 21. januar 2010 *snip* Om du leser dokumentet deres litt i detalj. Feks tesselation med displacment mapping... ingen spill støtter dette idag sikker = waste. Den raytrace greia dems, veldig kul, men sikkert ingen spill som støtter dette idag = waste På toppen av dette... spill er ikke bare grafikk. Det er faktisk ofte jeg ser spill med bra grafikk... og jeg irriterer meg over grafikken av en eller annen grunn. Men i all verden.... Det at det ikke er støttet pr. dags dato betyr altså at det er waste? HALLO!? Skulle verden utviklet seg etter dine prinsipper ville man fortsatt vært i steinalderen. Å betale ekstra penger for noe du ikke kan bruke er waste. Er du uheldig, så har du erstattet kortet ditt med et nyere innen det kommer et spill som du liker, som bruker effektene. Men du kan hvertfall dra på vors og skryte av at du er klar for tesselation displacementmapping ... det har jo unektelig en verdi i seg selv. Har selv kjøpt både billige og dyre kort, så har selv sittet og betalt noen tusenlapper der eneste forskjell var null og niks i et tilfelle, og 20 ekstra fps med et annet. Det kortet jeg har skaffet meg nå, fikk spillet mitt til å vise langt mer detaljer og skygger, men spillet ble ikke noe bedre av den grunn - men så var ikke grafikken noe jeg ergret meg over før heller. Men så var mitt gamle kort så dårlig at flere spill ikke ville kjøre, og oppgraderingen løste det fint. Artikkel forfatter skriver.... "På bildet over er det benyttet tesselation på døren, fordi kulehullene faktisk er bøyd innover. Se litt nærmere på våpenet, kantene er hakkete." Kulehullene der er fullt mulig og få til uten tesselation, med parallax mapping eller displacement mapping, også normal mapping klarer den effekten der ganske godt, så lenge det ikke er i kanten av ett objekt.. Syns kanskje artikkelen gjenspeiler artikkelforfatters litt tynne kunnskap om emnet.... Web Noen som har en link til en god forklaring på normal mapping? Nå trodde jeg at en vertex bare har en normal som brukes til å regne ut hvordan lyset skal falle på polygonen ... og normal mapping ser ut til å være en metode for å ta vertex normalene fra en detaljert modell (som jo vil ha en bråte vertexter, og derfor en bråte normaler), overføre dette til et rgb bilde, så bruke dette bildet på en lowpoly figur, og så "hente opp normalene, og bruke dem i prosessen for å regne ut lyset" ... som igjen vil fake detaljer ganske bra. Men jeg skjønner ikke hele prosessen ... altså man lager vel ikke flere vertexer eller normaler på polygonen vel? Så det er vel kun i prosessen der man kalkulerer hvordan lyset faller som benytter dette? Parallax er nå greit nok, der flytter man kun litt på uv koordinatene med utgangspunkt fra view vektoren. Men displacement mapping handler jo om fysisk flytting av vertexter. Problemet med en dørflate er at den bare består av 2 triangler med 3 vertexter hver(altså 6), og de vil være ute i hjørnene seff ... så et kulehull midt i døra blir litt vanskelig å få til da det ikke er noe vertexer å flytte på der. Derfor tesselerer man døra først slik at man får en firkantet flate med et tonn av polygoner, og flytter på vertexene der kulehuller et etter et displacmentmap (som egentlig bare er et bilde der hver pixel beskriver en høyde ala slik DEM bilder er. tata nesten ekte kulehull Var sikkert ikke rett alt dette ... men tror det er sånn ca greit. Lenke til kommentar
Malvado Skrevet 21. januar 2010 Del Skrevet 21. januar 2010 (endret) Det er ikke Nvidia sin skyld at 3parts produsenter lager feil på kortene sine, det vet du like godt som jeg.ATI har en enklere struktur og det er lettere for jalla-produsenter å lage feilfrie kort , den er jeg med på. Men jeg snakker i min post om driver problemer og diverse andre software problemer med ATI-kort , og dette forsvant fullstending når jeg byttet til Nvidia. Igjen er egentlig dette mer tilfeldigheter enn egentlig et tegn på feil på hardware, jeg har personlig byttet mellom Ati / Nvidia i det siste og har opplevd at begge kortene er knall stabile. Hovedproblemet mitt med Nvidia er at jeg ikke helt stoler på byggekvaliteten på kjernen, spesielt siden Nvidia har Trikset / jukset / gjort en stor feil som forårsaker at den tar kvelden mellom 1 - 3 års bruk , noe jeg selv opplevde på mitt 8800Gts kort. Drivermessig så føler jeg at begge to er side om side og ingen av utvikklerene kan kalle seg for feilfrie... Edit : /Back to Topic Jeg er ganske så spent selv på Fermi , ytelsemessig forventer jeg ikke helt det store forspranget på Ati men vi vil nok merke Nvidia sin kraftige satsing på raytracing og vil sannsynligvis få ganske gode resultater i blandt annet folding. Endret 21. januar 2010 av Malvado Lenke til kommentar
ignoreme Skrevet 21. januar 2010 Del Skrevet 21. januar 2010 God artikkel dette, minner meg litt mer om gamledager! Keep it on Lenke til kommentar
Gjest Slettet+513 Skrevet 21. januar 2010 Del Skrevet 21. januar 2010 Den nye DX 11 funksjonen har jeg hørt om veldig lenge og er godt nok til at jeg bytter GF kort etter hvert.. er litt sånn realisme freak. Lenke til kommentar
wiak Skrevet 21. januar 2010 Del Skrevet 21. januar 2010 AMD kommer med 3D støtte alså 3D skjerm støtte i en av de oppkomende catalystene da http://www.geeks3d.com/20100110/ati-cataly...ngl-extensions/ AMD sin kjerne er basert på R600, AMD kommer til neste år eller til høsten med en helt ny serie med ny kjerne omtrent som fermi Lenke til kommentar
Kaymeerah Skrevet 22. januar 2010 Del Skrevet 22. januar 2010 Det er en enkel grunn til å velge Nvidia ; Lave temperaturer,ingen BSOD, stabile drivere, få krasjer og kvalitet tvers gjennom.Man slipper å vente en måned på bedre drivere og enda en måned på en "hotfix". Har bygget mine egne PCer nå i snart 20 år , og er av erfaring blitt en Nvidia-fan Nja, har opplevd mindre problemer med mitt radeon 4890 enn jeg noen gang opplevde med Nvidia 6600GT, 8600GT og 275GTX Hvorfor er det slik at nVidia og ATI ikke har hørt om blondt, brunt og svart hår? Grønt og sjokkrødt er jo det det går på ser det ut som Tja, jeg har da brunt hår på damen til Gainward 8600GT Golden Sample esken min Lenke til kommentar
Samcki Skrevet 22. januar 2010 Del Skrevet 22. januar 2010 Wolfie det er Gainward sin "dame" Grønn og Rød representerer logoen til de foskjellige selskapene, så er nok ganske sikker på at det er derfor de har disse fargene. Lenke til kommentar
Kaymeerah Skrevet 22. januar 2010 Del Skrevet 22. januar 2010 Joda er enig med at det er derfor de har disse fargene på håret, skulle bare kommentere at det er ikke "alltid" slik Lenke til kommentar
Professional Skrevet 22. januar 2010 Del Skrevet 22. januar 2010 Mye bra patetisk fanbois i denne tråden ser jeg. Fin artikkel, litt ned dummet i forhold til anandtech sin versjon men det passer vel til målgruppen hvis en ser på komentar feltet. Lenke til kommentar
Samcki Skrevet 22. januar 2010 Del Skrevet 22. januar 2010 Mye bra patetisk fanbois i denne tråden ser jeg. Fin artikkel, litt ned dummet i forhold til anandtech sin versjon men det passer vel til målgruppen hvis en ser på komentar feltet. Kommer helt ann på hvordan du ser på det. For min del så er det en kombinasjon av produkt og tileggstjenester, der Nvidia foreløpig scorer høyere enn ATI. For de som ikke har "behov" for 3D briller osv så er foreløpig ATI det definitivt beste valger mtp pris/ytelse. Lenke til kommentar
Mirandur Skrevet 22. januar 2010 Del Skrevet 22. januar 2010 (endret) Skal du benytte deg at 3D-teknologien, er oppløsningen begrenset til tre skjermer på 1920 x 1080 piksler. Hvorfor bildehøyden er satt til 1080 og ikke 1200 piksler vet vi ikke, men sistnevnte hadde vært foretrukket. 1920 x 1080 = 1080p = HD-oppløsning? -For etter det jeg kan forstå med 3D-støtte, er det vel snakk om den 3D teknologien som også har begynt å dukke opp i hjemmeunderholdningsmarkedet, som Blue-Ray disken til 'Avatar' er annonsert skal ha, der man med spesielle skjermer og briller i kombinasjon kan se den i 3D, slik vi kunne på kino? HD-oppløsning er da nærmest et logisk valg? Nå har ikke Samsung's skjerm HD-oppløsning, men det er da produsenter som kommer med dette? Endret 22. januar 2010 av Mirandur Lenke til kommentar
MiRaCL Skrevet 22. januar 2010 Del Skrevet 22. januar 2010 (endret) Det er en enkel grunn til å velge Nvidia ; Lave temperaturer,ingen BSOD, stabile drivere, få krasjer og kvalitet tvers gjennom.Man slipper å vente en måned på bedre drivere og enda en måned på en "hotfix". Har bygget mine egne PCer nå i snart 20 år , og er av erfaring blitt en Nvidia-fan Håper den nye kjernen biter i fra seg i kampen med ATI. Konkurranse mellom produsentene er vi brukere tjent med , både når det gjelder pris og ytelse. Tullete innlegg. Få deg et ATI kort, så endrer du fort mening. Fin artikkel, men jeg tror fortsatt at Gf100 kommer litt for sent. Ati klargjør nok en konkurent til gf100 nærmere lansering. Ati har ytelsestronen akkuratt nå og tipper de vil prøve å holde på den.. Alt som har blitt publisert av info rundt gf100 så lang er det Nvidia vil at vi skal se. Tror ikke at Gf100 vil yte så mye bedre en ati sine kort. Erfaringsmessig så yter alltid nye kort littebitt bedre en toppkortet til motstander. Men vi snakker ikke 60% høyere ytelse her. Kansje mellom 5-10% (er også sikker på at jeg har lest denne artikkelen på engelsk andre steder...) Endret 22. januar 2010 av MiRaCL Lenke til kommentar
josh909 Skrevet 22. januar 2010 Del Skrevet 22. januar 2010 (endret) Ikke en eneste offisiell ytelsestest i fra ett eller fler av de mest populære spillene, tyder på at Nvidia ikke akkurat synes tallenes tale er for gode akkurat nå Nei, det tyder på at de har lært seg litt mer om hvordan man slipper produkter. Endret 22. januar 2010 av josh909 Lenke til kommentar
Malevolence Skrevet 22. januar 2010 Del Skrevet 22. januar 2010 Selvsagt kommer dette kortet til å være bedre enn ATIs RV600. Problemet er at det konkurrerrer ikke akkurat nå, nå leder ATI. Om du tror at det ene er veldig mye bedre enn det andre, er årsaken mest sansnynlig fanboyisme. Du kan selvsagt vente i noen måneder før dette kommer ut for å få det beste kortet, men da er det bare spørsmål om tid før det kommer enda nyere kort på markedet igjen. Lenke til kommentar
Taggart Skrevet 22. januar 2010 Del Skrevet 22. januar 2010 Mye bra patetisk fanbois i denne tråden ser jeg. Fin artikkel, litt ned dummet i forhold til anandtech sin versjon men det passer vel til målgruppen hvis en ser på komentar feltet. Kommer helt ann på hvordan du ser på det. For min del så er det en kombinasjon av produkt og tileggstjenester, der Nvidia foreløpig scorer høyere enn ATI. For de som ikke har "behov" for 3D briller osv så er foreløpig ATI det definitivt beste valger mtp pris/ytelse. ATI vil støtte dette i neste driver (10.1) og spillprofiler i februar (10.2). Lenke til kommentar
Samcki Skrevet 22. januar 2010 Del Skrevet 22. januar 2010 Mye bra patetisk fanbois i denne tråden ser jeg. Fin artikkel, litt ned dummet i forhold til anandtech sin versjon men det passer vel til målgruppen hvis en ser på komentar feltet. Kommer helt ann på hvordan du ser på det. For min del så er det en kombinasjon av produkt og tileggstjenester, der Nvidia foreløpig scorer høyere enn ATI. For de som ikke har "behov" for 3D briller osv så er foreløpig ATI det definitivt beste valger mtp pris/ytelse. ATI vil støtte dette i neste driver (10.1) og spillprofiler i februar (10.2). Skal de selge egne briller? Om de i såfall kan benytte seg av Nvidia sine briller som jeg har i dag så er det en smal sak... da blir det ATI på meg. Dog er jeg redd for at ATI ikke fullfører denne tjenesten 100% slik Nvidia har gjort. Nvidia har til og med fått samsung med på laget. Så greit nok at drivere støtter 3d funksjonen, men finnes det noe utstyr? Lenke til kommentar
theozH Skrevet 23. januar 2010 Del Skrevet 23. januar 2010 ATI!! Alltid, det er ATI som er tingen! Lenke til kommentar
Habitats Skrevet 23. januar 2010 Del Skrevet 23. januar 2010 (endret) Veldig bra artikkel - men fant en liten skrivefeil. De har gikk denne karakteren hatt, så grafikkortet ditt skal slippe og konstant jobbe med det blonde håret som blafrer i vinden. Endret 23. januar 2010 av Habitats Lenke til kommentar
Kraa Skrevet 23. januar 2010 Del Skrevet 23. januar 2010 YO jeg må bare si fra siden ingen andre har sakt det. Største ulempen med ATI det er at de støtter ikke 120hz ikke med sine nye 58XX skjermkort heller Derfor har jeg ikke kjøpt 58XX korta. De støtter maks 85hz i følge forumer. Leste litt på ati sine forumer hvor mange har klaget. Men 38XX og 48XX støtter heller ikke 120hz så tror ikke ati kommer å fikse det. Feilen er for lite 2D mzh sier de, men folk har prøvd å overlkokke 2D mzh men 120hz funker ikke fordet. Har lest at mange som er skuffet, forbannet som ikke viste det før de kjøpte og de har sent inn skjermkortene i refund og kjøpt Geforce 295 GTX eller annett Geforce skjermkort imens. Det er mange som venter på Geforce sitt nye skjermkort på grund av det. Det finst 2 pc lcd skjermer med 120hz Samsung og Viewsonic begge er 22 tommere. 120hz skjerm er et must for gamere. Er fortsatt de som spiller på CTR skjermer fordi vanlige lcd skjermer kunn støtter 60hz, Men nå har de kvitta seg med den. Har selv den Samsungen og du ser stor forskjell på spilla og til og med bare i windows. Musepekeren beveger seg raskere uten laag. Så får man 120fps hvis skjermkortert klarer det Counter Strike Source første gang gikk det egenltig for fort, men når man blir vant med det så kan man faktisk regarer fortere en motstanderen. Folka tror jeg cheater så jeg må forklare det Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå