Nizzen Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 Lurer egentlig hvorfor folk bryr seg om det er juks eller ei? Så lenge utviklingen går fremover og aplikasjoner går raskere for MEG, så er JEG fornøyd iallefall! Takk nVidia for at verden går videre Lenke til kommentar
wiak Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 hehe nei at kortet faktisk fungerer bedre må jo være langt fra juks... burdet ikke være noe å diskutere. Haddet det vært snakk om driver fusk haddet det selvsagt vært noe helt annet er driver fusk, alså å legge GPU PhysX i CPU scoren? Lenke til kommentar
Goodall Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 Synes det kvalifiseres som juks når man klarer å luren en cpu test til og bruke gpu i steden for ja! Oi der økte jeg 10 000 poeng i 3dmark 06 siden ATI lurte cpu testen der til og tro at mitt x1650xt kort i crossfire var cpu. Gikk fra 0.01 fps til 50fps Hadde det vært tilfelle tror jeg ATI hadde fått jævla mye pepper...Tror noen ville kalt det for juks ja Lenke til kommentar
Carl Sagan Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 Lurer egentlig hvorfor folk bryr seg om det er juks eller ei? Så lenge utviklingen går fremover og aplikasjoner går raskere for MEG, så er JEG fornøyd iallefall! Takk nVidia for at verden går videre Det er jo ikke snakk om at PhysX hjelper spill - det er snakk om at nVidia sine PhysX kort har en tweak i driveren som gjør at 3DM CPU-benchene ikke kjører helt og alene på CPU. Lenke til kommentar
Mr. Fiskum Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 HD 4870 ser jo bare elsk ut i crossfire, og billig er det og. Litt angrepille nå, nettop kjøpt 9800gx2, jaja, greit kort det og Lenke til kommentar
Fishboone Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 (endret) Sitter å er på nippet til å bestille 2 stk 4850. Men har P35 Hk( signatur). Litt skeptisk til å bruke 4x pci-e sporet. Vet det står ørten steder i forumet om ytelsetapet. Men det kan vel ikke være så mye? Endret 23. juni 2008 av Biomec Lenke til kommentar
Ourasi Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 (endret) Lurer egentlig hvorfor folk bryr seg om det er juks eller ei? Så lenge utviklingen går fremover og aplikasjoner går raskere for MEG, så er JEG fornøyd iallefall! Takk nVidia for at verden går videre Det er jo ikke snakk om at PhysX hjelper spill - det er snakk om at nVidia sine PhysX kort har en tweak i driveren som gjør at 3DM CPU-benchene ikke kjører helt og alene på CPU. Nå kommer disse driverne aldri til å bli å bli godkjent av FM, så det er kanskje like greit å ikke kaste bort tid på dem. Å la GPU gjøre jobben for PPU eller CPU for å booste scores i en benchmark, blir jo litt eh, teit... Endret 23. juni 2008 av Ourasi Lenke til kommentar
Ourasi Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 Sitter å er på nippet til å bestille 2 stk 3850. Men har P35 Hk( signatur). Litt skeptisk til å bruke 4x pci-e sporet. Vet det står ørten steder i forumet om ytelsetapet. Men det kan vel ikke være så mye? Du mener vel 4850 ikke 3850 tenker jeg... 16/4 configen gir god boost sammenlignet med 1 kort, men taper stort mot 2 16xPCI-E spor. Kjørte selv 16/4 en periode, og det fungerte greit nok, men heftig mange prosent ytelsesøkning ved bytte av hovedkort til 2x16. Lenke til kommentar
Fishboone Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 Tror jeg venter på 4870 ja:) http://www.tomshardware.com/reviews/pci-ex...sis,1572-8.html Lenke til kommentar
HKS Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 blir jo om om Bjørndalen kunne gå en annen løype enn de andre løperne. Det er fremdeles samme løype, bare at GPU'en nå avlaster CP'en for flere oppfaver... Synes det kvalifiseres som juks når man klarer å luren en cpu test til og bruke gpu i steden for ja! Hadde det vært tilfelle tror jeg ATI hadde fått jævla mye pepper...Tror noen ville kalt det for juks ja Hvorfor kan man ikke bare basere resultatene på GPU-testen da? Det går ann å se GPU score i 3DMark, den blir den samme med eller uten PhysX. Kan ikke se at det er juks å avlaste flere oppgaver fra CPU til GPU. Vil heller kalle det et fremskritt... Lurer egentlig hvorfor folk bryr seg om det er juks eller ei? Så lenge utviklingen går fremover og aplikasjoner går raskere for MEG, så er JEG fornøyd iallefall! Takk nVidia for at verden går videre Det er jo ikke snakk om at PhysX hjelper spill - det er snakk om at nVidia sine PhysX kort har en tweak i driveren som gjør at 3DM CPU-benchene ikke kjører helt og alene på CPU. Det er akuratt det som er poenget! Du har to muligheter... 1. Bruk PhysX hardware til å avlaste oppgaver fra CPU, noe som gjør at CPU-kraften kan brukes til andre ting. GPU er tross alt mye bedre enn en CPU til disse oppgavene. 2. Benytte den tilgjengelige kraften ekstra til å lage flere fysikk-effekter som dagens CPU'er ikke makter sammen med de andre oppgavene som må¨gjøres. 3DMark skal etter hva jeg ha forstått reflektere resultater til et gaming system, da må det vil kunne gi bedre score at den ene typen hardware er mer effektiv til å akselerere fysikk, noe som er en del av mange spill. Blir nesten som å si at det er juks å bruke quad-core prosessorer, de får jo bedre CPU-ytelse... Er nok bare å ta inn over seg at GPU'ene kommer til å kunne gjøre flere og flere oppgaver som vi tidligere bare har gjort på CPU. Her ligger nVIDIA enda en godt stykke forran AMD. Lenke til kommentar
simalarion Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 (endret) er driver fusk, alså å legge GPU PhysX i CPU scoren? Nei med driver fusk tenker jeg på å senke eyecandy på driveren for å score bedre (dette har blitt gjort før, av både nvidia og ati), at utviklingen går videre ser jeg bare på som et pluss og ikke fusk. Endret 23. juni 2008 av simalarion Lenke til kommentar
Carl Sagan Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 Og nei, quadcore hjelper skjelden ( aldri i spill. Lenke til kommentar
Hugo_Hardnuts Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 Hadde det vært mulig å ta diskusjonen om nVidias nye driver i en annen tråd? Dette skal tross alt handle om HD4800... Lenke til kommentar
Gjest Slettet-Pqy3rC Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 Og nei, quadcore hjelper skjelden ( aldri i spill. Vil nok det etterhvert, ihvertfall på en del spill. Lenke til kommentar
Kirchhoff Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 blir jo om om Bjørndalen kunne gå en annen løype enn de andre løperne. Det er fremdeles samme løype, bare at GPU'en nå avlaster CP'en for flere oppfaver... Synes det kvalifiseres som juks når man klarer å luren en cpu test til og bruke gpu i steden for ja! Hadde det vært tilfelle tror jeg ATI hadde fått jævla mye pepper...Tror noen ville kalt det for juks ja Hvorfor kan man ikke bare basere resultatene på GPU-testen da? Det går ann å se GPU score i 3DMark, den blir den samme med eller uten PhysX. Kan ikke se at det er juks å avlaste flere oppgaver fra CPU til GPU. Vil heller kalle det et fremskritt... Lurer egentlig hvorfor folk bryr seg om det er juks eller ei? Så lenge utviklingen går fremover og aplikasjoner går raskere for MEG, så er JEG fornøyd iallefall! Takk nVidia for at verden går videre Det er jo ikke snakk om at PhysX hjelper spill - det er snakk om at nVidia sine PhysX kort har en tweak i driveren som gjør at 3DM CPU-benchene ikke kjører helt og alene på CPU. Det er akuratt det som er poenget! Du har to muligheter... 1. Bruk PhysX hardware til å avlaste oppgaver fra CPU, noe som gjør at CPU-kraften kan brukes til andre ting. GPU er tross alt mye bedre enn en CPU til disse oppgavene. 2. Benytte den tilgjengelige kraften ekstra til å lage flere fysikk-effekter som dagens CPU'er ikke makter sammen med de andre oppgavene som må¨gjøres. 3DMark skal etter hva jeg ha forstått reflektere resultater til et gaming system, da må det vil kunne gi bedre score at den ene typen hardware er mer effektiv til å akselerere fysikk, noe som er en del av mange spill. Blir nesten som å si at det er juks å bruke quad-core prosessorer, de får jo bedre CPU-ytelse... Er nok bare å ta inn over seg at GPU'ene kommer til å kunne gjøre flere og flere oppgaver som vi tidligere bare har gjort på CPU. Her ligger nVIDIA enda en godt stykke forran AMD. Det blir bare galt å kalle det cpu score. Til og med på de "tipsene" du får i 3dmark06 står det at de har tilrettelagt alt for at det er cpu som skal være flaskehals. Da blir det feil at gpu kommer inn å blander seg. Ved senere versjoner av 3dmark bytter sikkert cpu delen navn til fysikk score. 3dmark06 er gammelt og skrøpelig, tar vantage ibruk physix? Nå kommer nok ati med havok fysikk i gpuen om en stund(eller i driverene), noe som appelerer mye mer til meg som er en stor fan av valve sine verk. Fysikk i gpu er en god ting, mens cpu avlstning i 3dmark er "juks", selv om jeg sikkert må bite det i meg at det er kommet for å bli. Lenke til kommentar
HKS Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 3dmark06 er gammelt og skrøpelig, tar vantage ibruk physix? Fysikk i gpu er en god ting, mens cpu avlstning i 3dmark er "juks", selv om jeg sikkert må bite det i meg at det er kommet for å bli. Vantage bruker også PhysX... Fysikk er bare en av flere ting som kommer til å bli avlastet på GPU. Lenke til kommentar
Kirchhoff Skrevet 23. juni 2008 Del Skrevet 23. juni 2008 Da må enten futuremark bytte navn på testen eller finne andre måter å teste cpu, for å bruke gpu til cpu sier seg selv er juks. Og hva når driverene til ati får havok, da må Futuremark nesten kalle testen: Nvidia physics. Lenke til kommentar
Osse Skrevet 24. juni 2008 Del Skrevet 24. juni 2008 (endret) 3dmark06 er gammelt og skrøpelig, tar vantage ibruk physix? Fysikk i gpu er en god ting, mens cpu avlstning i 3dmark er "juks", selv om jeg sikkert må bite det i meg at det er kommet for å bli. Vantage bruker også PhysX... Fysikk er bare en av flere ting som kommer til å bli avlastet på GPU. Raptor, er i og for seg enig med mye, er det samme program altso workload som kjøres på et system, så er det greit, og er det slik at det phsyx hjelper i andre program, eller er det slik at at programmet må være spesielt skrevet for nvida kort for å utnytte dette. men frem til det er alminnelig støtte for denne funksjonen i andre program, vil du da si at å omdefinere reglene for bruk av 3dmark er ok ?? 3dmark skal vel opprinnelig gjenspeile hvordan et system fungerer med andre program, derimot har denne funksjonen god støtte i software mener jeg klart at det bør gjenspeiles i benchmarks som viser systemets ytelse. slik det fremstår nå , tja virker i allefall med 3dmark, selv om det ikke er godkjent. Er tross alt et systems ytelse som teller , ikke en individuell komponent. Endret 24. juni 2008 av Osse Lenke til kommentar
mackanz Skrevet 24. juni 2008 Del Skrevet 24. juni 2008 Blir ju som om reviewsites tar med Folding @ home när de testar Amd mot Ati. Ati får massa plus för att de får bra score medans Nvidia får minus för att de inte får till någon score alls, även om Nvidia nu kommer med stötte för Folding @ home snart. Jag tror knappast att Nvidia hade vart speciellt glada om alla de sora siterna tog med Folding @ home med i sina beräkningar för att välja det bästa korten. Lenke til kommentar
foxtrott Skrevet 24. juni 2008 Del Skrevet 24. juni 2008 hei alle sammmen=) sitter med planer om å kjøpe 2 x 4850/70 som mange andre her på denne tråden Men lurer på om hovedkortet mitt vil bli en flaskehals? Har et GigaByte ga-p35-dq6 (ddr 2) hovedkort, q6600 cpu, 4 gb ram. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå