OnetroM Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Hvis teknologien implementeres i nVidia-kort over hele fjøla så blir penetrasjonen i markedet enorm bare i løpet av et år. Da får nok utviklerene vann på mølla ganske kjapt tenker jeg. Lenke til kommentar
RamGuy Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 De kom jo nettopp med et topklassekort som slår ut nvidia's 8800 serie...Men på den annen side, vi får vente å se til nvidia kommer med 9800 serien. Det er en sannhet med modifikasjoner Hva mener du nå? Er 8800 serien, med en kjerne, bedre enn en tokjernet HD 3450? (nyeste, ikke sant?) Det er en sannhet med modifikasjoner. Radeon HD 3870X2 er en "mulit-GPU" løsning, og slike løsninger er veldig avhengige av spill og drivere for å fungere optimalt. Derimot, med en "single-GPU" løsning så vil du få "optimal" ytelse i alle spill. HD 3870X2 og Crossfire generelt sliter i en del store spill, hvor faktisk et HD 3870X2 ikke trenger å gi deg bedre ytelse enn om du hadde hatt 1x HD 3870 kort til halveprisen. Dette er et veldig stort uro moment med hele kortet. Derfor er det et mye "sikrere" kjøp å skaffe seg en "single-GPU" løsning. SLi derimot ser ikke ut til å ha dette problemet i så stor grad, SLi ser ut til å gi en ytelsesøkning i så og si alle senere spilltitler. Og siden 2x 8800GT kort koster ca det samme som 1x HD 3870X2 så vil jeg si at det er et mer sikrere valg. Dog har jo HD 3870X2 fordelen av at begge GPU-ene sitter på ett og samme kort, så det ikke krever et hovedkort med støtte for Crossfire for å fungere, samtidig som det bare tar opp 1x PCI-Express port og bruker mindre strøm enn et Crossfire / SLi oppsett. Men med tanken på at du kan få ett 8800GTS rev2, eller 8800GTX til samme pris, eller 2x 8800GT vil jeg ikke nødvendigvis si at 1x HD 3870X2 er den beste løsningen, da Crossfire ser ut til å "feile" i en del titler. Om du skal se utenom pris, og bare kåre "kongen-på-haugen" vil jeg vell si at 8800Ultra, som yter på samme nivå som HD 3870X2 er et bedre valg, på grunn det alltid vil gi deg den ytelsen du kan forvente og har betalt for i samtlige titler. Dog koster den alt for mye når det kommer til pris / ytelse. HD 3870X2 sitt problem, er rett og slett at "multi-GPU" løsninger ikke er gode nok enda, hvert fall ikke på Crossfire siden. Crossfire skalerer noe bedre enn SLi, men når du ikke kan være sikker på at spillet du skaffer faktisk gir deg bedre ytelse ved bruk av Crossfire så er jo det et stort "uro moment" med hele kortet. Hvor skuffet og irritert blir ikke du om du skaffer deg FarCry2, så yter ikke din skjermkort løsning til 3'000kroner, bedre enn naboen sitt skjermkort til halveprisen? Det blir litt som "hvilken prosessor er best til spilling?" De fleste vil se på Q6600 som en bedre prosessor enn en E6850. Det samme gjelder at folk flest ser på Q9450 som en bedre prosessor enn en E8500. Prisen er jo ca den samme, men den ene har jo firekjerner og den andre ikke. Og sånn "overall" vil jeg vell si at fire kjernern er det beste kjøpet, dog ikke til gaming. Det er bedre med den høyere frekvensen de dobblekjernene opererer på, enn å ha firekjerner til "gaming" siden det knapt finnes spill som benytter seg av firekjerner. En HD 3870X2 er kanskje fint på papiret, men når du litt for ofte støter borti spill som ikke benytter denne "multi-GPU" løsningen på en spesielt god måte. Så forsvinner jo fordelen i praksis. Lenke til kommentar
Unlimited LTD Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Det oppklarte en god del. Takk. Men du trakk inn cpuer med dobbel kjerne.. Må et spill støtte dobbelkjerne for å utnytte begge kjernene? Altså, et spill som før krevde 3 GHz, uten støtte for dobbeltkjerne, vil også i fremtiden kreve 3 GHz, uansett om du har to kjerner eller fire kjerner? Lenke til kommentar
Håkki Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Veldig interesangt. Lurer på om det kommer dedikerte kort eller om de blir intregert i grafikk chipen. Helst ikke to chiper på en pcb da dette krever mer kompliserte kjølere og dermed dyrere. Lenke til kommentar
CosmoK Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Som forventet etter at nVidia har "siklet" over Ageia de siste to årene. Synd for AMD da, som har gjort akkurat det samme... :/ Lenke til kommentar
RamGuy Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Som forventet etter at nVidia har "siklet" over Ageia de siste to årene. Synd for AMD da, som har gjort akkurat det samme... :/ Jeg fatter ikke helt hva AMD driver med for tiden jeg, virker jo ikke som om de fokuserer helt hjertet på verken prosessor eller skjermkortmarkedet lengre. Virker som de har tenkt til å plassere seg selv på budsjett og den lavere middelklassen innenfor begge felt? Lenke til kommentar
Unlimited LTD Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Håper virkelig ikke det, ettersom da får NVidia monopol på høyklasse kort, som igjen kommer tilbake på brukerne.. Dyrere og ikke like nyskapende grafikkort som vi ellers ville ha hatt dersom ATI er en konkurrent. Lenke til kommentar
idos Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 @RamGuy: Nå er det vel stort sett bare crysis at skaleringen ikke er god. I de andre spillene skalerer HD3870x2 bra (så vidt jeg kunne se). Og x2 kortet er fortsatt et singel kort men selvsagt multiGPU. Så selv om ledelsen ikke er så stor er fortsatt HD3870x2 ca 7% ( i følge Tomshardware) raskere en det raskeste enkelt kortet til nVidia. Du trenger ikke CF-klart hk for å bruke det.. og det har samme størrelse som 8800 ULTRA. Så det blir vel litt feil å si at det er en sannhet med modifikasjoner. "modifikasjonen" er vel at: HD3870x2 er det raskeste kortet bortsett fra Test Drive Unlimited og World In Conflict men i sum er det raskest. Dersom noen spurte etter det raskeste grafikkortet pr dags dato, så må vel svaret bli: HD3870x2 Lenke til kommentar
RamGuy Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 (endret) @RamGuy: Nå er det vel stort sett bare crysis at skaleringen ikke er god. I de andre spillene skalerer HD3870x2 bra (så vidt jeg kunne se). Og x2 kortet er fortsatt et singel kort men selvsagt multiGPU. Så selv om ledelsen ikke er så stor er fortsatt HD3870x2 ca 7% ( i følge Tomshardware) raskere en det raskeste enkelt kortet til nVidia. Du trenger ikke CF-klart hk for å bruke det.. og det har samme størrelse som 8800 ULTRA. Så det blir vel litt feil å si at det er en sannhet med modifikasjoner. "modifikasjonen" er vel at: HD3870x2 er det raskeste kortet bortsett fra Test Drive Unlimited og World In Conflict men i sum er det raskest. Dersom noen spurte etter det raskeste grafikkortet pr dags dato, så må vel svaret bli: HD3870x2 Jeg har fått inntrykk at det gjaldt flere spill enn kun Crysis. Mulig jeg tar feil, og da beklager jeg det Men om det stemmer, at HD 3870X2 og Crossfire generelt har problemer med å gi ytelsesøkning i flere spill, så vil jeg hvert fall gjøre folk oppmerksomme på dette før de punger ut for et slikt kort Endret 5. februar 2008 av RamGuy Lenke til kommentar
RamGuy Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 (endret) Det oppklarte en god del. Takk. Men du trakk inn cpuer med dobbel kjerne.. Må et spill støtte dobbelkjerne for å utnytte begge kjernene? Altså, et spill som før krevde 3 GHz, uten støtte for dobbeltkjerne, vil også i fremtiden kreve 3 GHz, uansett om du har to kjerner eller fire kjerner? Støtter ikke spillet dobbelkjerne, så vil det kun bruke én kjerne, samme gjelder fire også, støtter det kun to så vi det også kun benytte seg av to av dine firekjerner Så om et spill krever 3.0GHz og kun støtter en kjerne, så må en av dine kjerner klare den belastningen alene ja. Men du skal også vite at frekvensen på en prosessor er veldig individuelt, det er arkitekturen som er vesentlig. Så om et spill krever 3.0GHz Pentium 4 prosessor, så vil den ikke kreve 3.0GHz av en Athlon64, Phenom eller Core 2 Duo prosessor. Så det er sagt Endret 5. februar 2008 av RamGuy Lenke til kommentar
Unlimited LTD Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Ah.. Hvordan regnes det ut da? Altså.. Hvor mye vil en 2.2 Core 2 Duo prosessor yte for? Lenke til kommentar
idos Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 @RamGuy: Nå er det vel stort sett bare crysis at skaleringen ikke er god. I de andre spillene skalerer HD3870x2 bra (så vidt jeg kunne se). Og x2 kortet er fortsatt et singel kort men selvsagt multiGPU. Så selv om ledelsen ikke er så stor er fortsatt HD3870x2 ca 7% ( i følge Tomshardware) raskere en det raskeste enkelt kortet til nVidia. Du trenger ikke CF-klart hk for å bruke det.. og det har samme størrelse som 8800 ULTRA. Så det blir vel litt feil å si at det er en sannhet med modifikasjoner. "modifikasjonen" er vel at: HD3870x2 er det raskeste kortet bortsett fra Test Drive Unlimited og World In Conflict men i sum er det raskest. Dersom noen spurte etter det raskeste grafikkortet pr dags dato, så må vel svaret bli: HD3870x2 Jeg har fått inntrykk at det gjaldt flere spill enn kun Crysis. Mulig jeg tar feil, og da beklager jeg det Men om det stemmer, at HD 3870X2 og Crossfire generelt har problemer med å gi ytelsesøkning i flere spill, så vil jeg hvert fall gjøre folk oppmerksomme på dette før de punger ut for et slikt kort Laget en oversikt basert på TomsHardware (bruker ikke Anandtech da de ofte er litt "pro amd/ati" 1920x1200 4xAA og 8xaniso Lenke til kommentar
jonnor Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Ah.. Hvordan regnes det ut da? Altså.. Hvor mye vil en 2.2 Core 2 Duo prosessor yte for? Ghz er ikke et mål på ytelse. På ingen måte. En ytelsessammenligning mellom to cpu'er vil variere ganske mye avhengig av hvilke spill og programmer som testes. Men google feks "Intel Core 2 Duo E4500 review" og bla igjennom noen tester. Så finner du ut sånn ca hvor landet ligger i forhold til andre prosessorer. Forøvrig programeres ikke spill eller applikasjoner i dag for et visst antall kjerner. Det programmeres i tråder, slik at alle ting som er logisk å gruppere sammen har sin egen tråd. Feks kan man ha separate tråder for AI,lyd,grafikk,fysikk, eller man kan kjøre en tråd for grafikk og en tråd for resten. Helt opp til utvikleren, og er antall tråder har ikke noe med antall kjerner å gjøre. Hvor godt spillet skalerer med flere kjerner vil komme ann på hvor godt fordelt "arbeidet" i spillet er gjort over de forskjellige trådene. Det er igrunnen her problemet med å skrive spill som utnytter flere kjerner ligger. Lenke til kommentar
Unlimited LTD Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Ja, driver å lærer spillprogramering for tiden, så jeg tror jeg skjønner hva du mener. Men for å komme litt on topic igjen, hva gjør egentlig en fysikk prosessor? Regner ut fysikkbaserte oppgaver? Men hvordan vet spillet om man har et slikt kort og hvordan tildeler den prosessoren fysikkberegningene? Lenke til kommentar
tåa Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Forøvrig programeres ikke spill eller applikasjoner i dag for et visst antall kjerner. Det programmeres i tråder, slik at alle ting som er logisk å gruppere sammen har sin egen tråd. Feks kan man ha separate tråder for AI,lyd,grafikk,fysikk, eller man kan kjøre en tråd for grafikk og en tråd for resten. Men dersom spillet kun kjører to tråder, slik som f.eks. grafikk og resten, så vil det vel heller ikke være i stand til å dra nytte av flere enn to kjerner? Dermed får man i praksis likevel en begrensning på hvor mange kjerner som utnyttes, selv om koden ikke er optimalisert for et bestemt antall. Lenke til kommentar
Stigma Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Jaaaahahahaaaa!!! Endelig! Denne nyheten har jeg ventet lenge på. Det har aldri vært noe galt med Ageias teknologi, og faktisk er det helt vanvittig kule ting som kan gjøres med den (se Cellfactor for en ørliten del av det). Problemet var helt sidne starten at det ikke fikk fortfeste. Uten kort utbred blandt brukerene gadd ikke utviklerene å lage spill med støtte, og uten spill med støtte gadd ingen å kjøpe dedikerte PhysX kort. Nå ENDELIG vil det så og si garantert få fotfeste ettersom jeg regner med at alle high-end, og sikkert de fleste mid-end kortene til Nvidia kommer til å få en fysikk-kjerne med på kortet, og vips! plutselig har halve markedsbasen fysikk-chipper som det da blir meget øsnkelig å lage spill til. Jeg regner også med at AMD vil/må gjøre noe tilsvarende dersom de ønsker å henge med i kappløpet for high-end segmentet, ellers tror jeg dessverre at de kan ende opp med å miste hele high-end segmentet. AMD (eller ATI) har jo en god stund hold på med å forske på fysikk emulert på GPUen, så jeg kan tenke med de speeder opp det prosjektet for å kjempe mot Nvidia. Teknisk sett er dog en dedifkert fysikk-chip en bye bedre teknisk løsning, så vi får se hvordan det spiller seg ut. I uansett tilfelle er dette en win-win situasjon for oss gamere, sidne det betyr at dedikert fysikk-støtte innen kort tid kommer til å bli obligatorisk for gode "tripple-A" titler. -Stigma Lenke til kommentar
Andrull Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Ja, driver å lærer spillprogramering for tiden, så jeg tror jeg skjønner hva du mener.Men for å komme litt on topic igjen, hva gjør egentlig en fysikk prosessor? Regner ut fysikkbaserte oppgaver? Men hvordan vet spillet om man har et slikt kort og hvordan tildeler den prosessoren fysikkberegningene? Akkurat dette har hele tiden vært problemet til Ageia. Et spill kan ikke vite at du har et fysikkort, og spillet må derfor legge til støtte for dette. (og så er det som regel en instilling der du kan aktivere bruken av fysikkprosessoren) Lenke til kommentar
minimum payne Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Ja, driver å lærer spillprogramering for tiden, så jeg tror jeg skjønner hva du mener.Men for å komme litt on topic igjen, hva gjør egentlig en fysikk prosessor? Regner ut fysikkbaserte oppgaver? Men hvordan vet spillet om man har et slikt kort og hvordan tildeler den prosessoren fysikkberegningene? Akkurat dette har hele tiden vært problemet til Ageia. Et spill kan ikke vite at du har et fysikkort, og spillet må derfor legge til støtte for dette. (og så er det som regel en instilling der du kan aktivere bruken av fysikkprosessoren) har selv ett ageia phys x kort og det er fete effekter det lager i spill. jeg anbefaler deg å ta en titt på ageias sdk den er ikke vanskelig å lære og du trenger ikke ett kort for å prøve softwaren ut, den fungerer på en vanlig cpu også, bare at skal du kjøre en svær scene med 1000 enheter blir det mye hakking uten ageia kort. Lenke til kommentar
ATWindsor Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Blir interessant å se hvordan dette affiserer spill i framtiden, innbygging på GPU var vel den naturlige utviklingen egentlig. AtW Lenke til kommentar
jonnor Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Forøvrig programeres ikke spill eller applikasjoner i dag for et visst antall kjerner. Det programmeres i tråder, slik at alle ting som er logisk å gruppere sammen har sin egen tråd. Feks kan man ha separate tråder for AI,lyd,grafikk,fysikk, eller man kan kjøre en tråd for grafikk og en tråd for resten. Men dersom spillet kun kjører to tråder, slik som f.eks. grafikk og resten, så vil det vel heller ikke være i stand til å dra nytte av flere enn to kjerner? Dermed får man i praksis likevel en begrensning på hvor mange kjerner som utnyttes, selv om koden ikke er optimalisert for et bestemt antall. Ja, det stemmer at du vil ikke kunne bruke flere kjerner enn du har tråder. Men jeg vil tro at når utviklerene først går for tråd-designede spill, så deler de opp spillet enn mer enn to. Men det er og begrensninger på hvor mye man kan dele ting opp uten at det begynner å bli vrient. Jeg vil tro at noe mer enn 5 tråder er trøblete (bilde, lyd, AI, fysikk, diverse), fordi man må begynne å dele opp i enda mindre biter. Det man ville tjent mest på er vel å dele grafikkmotoren, men jeg vet ikke hvor enkelt det lar seg gjøre, eller om det kanskje er gjort allerede? Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå