ExcaliBuR Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 Hvorfor kan vi ikke gå tilbake til Software Rendering? Uansett... Hva er egentlig "juks" når du optimaliserer en driver? ATi sin måte, som har blitt forklart her, er å gjøre shaderinstruksjnene mer effektive, mens nVidia henger etter fra 'Quack' tidene til ATi og går heller ut med "dårligere bildekvalitet" for å øke sin score, evt. artifacts. Er det slik som er "juks"? Hva er egentlig juks i denne sammenhengen? Eller er det forbrukerne som heller burde bli sure fordi "spillet" dems er har elendig bildekvalitet og står ikke i stil med screenshots (nVidia)? Evt. går det fortere enn antatt (ATi). Jeg synes heller vi burde, kanskje boikotte også, 3DMark... Det er så kjent hos systemutviklerne at optimalisering av drivere til det må forekomme på et visst punkt... Jeg sier heller: Er du fornøyd med hvordan spillene dine kjører, eller du er fornøyd med hvordan den siste demoen fra Farb-Rausch kjører, så hvorfor klage? Eller er mange her såååååå opptatt av å briefe med det siste, at dere står midt uti hallen på "The Gathering" og skriker deres 3DMark scores i ren og skjær angst over å vite at en eller annen har høyere score enn deg? Det er bare tall som kommer når "demoen" er ferdig... hva betyr det egentlig? Det er mange som scorer latterlig høyt i 3DMark, men som har elendige tall der hvor det egentlig teller: i game benches... Eller SiSoft Sandra for den saks skyld... "Don't worry, be happy!" Lenke til kommentar
mad_arab Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 Hvor jukset ATI?? Vis meg en link som sier at dem jukset istedenfor å komme med slike påstander. Hvor jukset noen av dem? Foreløpig har ingen innrømmet noe som helst, men i alle tilfeller har det vært påvist tap i bildekvalitet eller kunstige ytelsesøkninger som kun gjelder 3dmark. Man finner ingen 100% BEVISER for at noen av dem har jukset, hverken ATi eller NVidia. Og begge har unnskyldt seg med bugs, både i 3dmark og quack3 saken. Dermed blir det ganske meningsløst av deg å kreve bevis for noe som ikke kan bevises... Men de fleste her på forumet som klarer å holde seg litt nøytrale synes nok at begge de omtalte sakene lukter litt rart.... Lenke til kommentar
Robin B Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 Hvor jukset ATI?? Vis meg en link som sier at dem jukset istedenfor å komme med slike påstander. Hvor jukset noen av dem? Foreløpig har ingen innrømmet noe som helst, men i alle tilfeller har det vært påvist tap i bildekvalitet eller kunstige ytelsesøkninger som kun gjelder 3dmark. Man finner ingen 100% BEVISER for at noen av dem har jukset, hverken ATi eller NVidia. Og begge har unnskyldt seg med bugs, både i 3dmark og quack3 saken. Dermed blir det ganske meningsløst av deg å kreve bevis for noe som ikke kan bevises... Men de fleste her på forumet som klarer å holde seg litt nøytrale synes nok at begge de omtalte sakene lukter litt rart.... Bevis for at NV jukset er bevist mere enn en gang,hvorfor skulle noen inrømme noe som helst?Tror ikke du leser alt som blir postet(ikke hardt ment)men mener aldri å ha lest at NV har sagt noe som helst om bug da de på godt norsk begynte å klippe hjørner. Lenke til kommentar
mad_arab Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 Tror det er du som ikke er helt oppdatert, NVidia skylder på bug og uttaller seg bl.a om futuremark og manglende mulighet til å teste med utviklings versjoner av programmet. Bla litt ned på www.nvnews.net så burde du finne den uttalelsen. Ellers, så skjønner jeg ikke helt hvor du vil... Som sagt så tror jeg de fleste innser at både ati og nvidia har brukt metoder som går utover billedkvalitet og i manges øyne er juks. Å teknisk bevise hvorvidt dette er bugs eller ikke er ikke lett, men de fleste her med litt sunn fornuft kan gjøre seg opp sine egne tanker i begge tilfeller... Der er vi vel faktisk enige? Eller prater du om noe helt annet? Lenke til kommentar
Robin B Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 Vel tenker vi kan være ganske enige bortsett fra at NV jukset som bare det noe som Beyond3d var en av de første til å oppdage.Når det er sagt så tar jeg alt som kommer både fra ATI og NV direkte med en klype salt.Det værste er vel til 7 og sist at Futuremark er den som sitter med sjegget i kassa,og det er veldig synd etter min mening så lenge vi ikke har DX9 spill å teste i mot.Og det var NV som trekte seg fra 3Dmark-03 ikke motsatt,så å skylde på det er tynt. Dette er hva ATI sier. ATI Technologies Explains Optimisations for 3DMark03 "No" to Cheatings, "Yes" to Optimisations ATI Technologies explained today the optimisations they implemented in its CATALYST drivers in order to improve performance in 3DMark03 Game 4. An official from the company told us that ATI’s optimisations are really optimisations, but not cheats as we thought before. In contrast to the rival, ATI Technologies’ drivers do not avoid any workload for the RADEON-based graphics cards. The final image quality is exactly as FutureMark intends, so, this more resembles optimisations, but not simple cheating, when the final image quality is lower than it should be and the graphics processor avoids certain workload. In fact, ATI rendered the 3DMark03 in such a way that allowed the R300 and R350 VPUs to perform 3 pixel shading instructions in parallel. According to ATI, this also works in real games as well when the Developer Relations department works with the developers of such games. In fact, it may be hard or impossible to perform such optimisations via compiler, ATI said, so, they need to work with the developers to achieve such efficiency. Note that ATI decided to avoid such optimisations for 3DMark03 in future and will remove this one from the next version of CATALYST drivers. http://www.xbitlabs.com/news/video/display...0528101933.html Lenke til kommentar
mad_arab Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 jeg snakket ikke engang om ati sin optimisering her hvis det er den du prøver å forsvare... jeg bare påpeker det faktum at begge parter har gjort ting som er ganske tvilsomme (3dmark, quake3), og selv om ingenting er teknisk bevist, så er de fleste her nokså overbeviste om at både ati og nvidia har 'tatt en spansk en'. begge skylder dog på bugs, men jeg kjøper ikke det.... Lenke til kommentar
Duke Soforth Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 jeg snakket ikke engang om ati sin optimisering her hvis det er den du prøver å forsvare... jeg bare påpeker det faktum at begge parter har gjort ting som er ganske tvilsomme (3dmark, quake3), og selv om ingenting er teknisk bevist, så er de fleste her nokså overbeviste om at både ati og nvidia har 'tatt en spansk en'. begge skylder dog på bugs, men jeg kjøper ikke det.... mad_arab, begge fiaskoene du viser til har blitt behørig teknisk bevist. Det som mest av alt karakteriserer omtalen av Quake3 episoden i det herrens år 2003 er imidlertid dessverre dårlig selektiv hukommelse. Konsensus blant de fleste nøytrale nettstedene med litt kunnskap har imidlertid hele veien vært at dette var et forsøk på å optimalisere spesielt for Q3 med en bug. Er det cheating? Det var ikke en benchmark-spesifikk greie. nVidia & 3dmark stiller i en helt annen klasse i så måte. Nå tyder mye på at det skjer uheldige ting også i Shadermark og Splinter Cell. Det er også vanskelig å forstå hvordan nVidia kan opptre så barnslig som de har gjort i etterkant av at Futuremark kom med sin rapport. Det blir direkte pinlig når et selskap tyr til ad hominem på denne måten (mens det konkurrerende selskapet opptrer noenlunde åpent og ærlig). Det er nesten så jeg lurer på om ikke infominister Ali burde vært ansatt som PR-gutt hos nVidia (da ville vel presseuttalelsen sett noe slik ut: "Our Detonators cheating on benchmarks? Never! It is the infidels who are cheating - Our GeforceFX is the fastest on the market! ATI is already filing bankruptcy."). Lenke til kommentar
[-GoMp-] Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 "]Men ja, nVidia var med på å utvikle Xbox. Hvordan ATi fikk tak i info? spør ikke meg. Jeg har lett og lett og lett og lett etter den artikkelen jeg leste, som fortalte om "the very beginning" av grafikort og frem til i dag - hvor jeg leste at Xbox-utviklingen "avslørte" mye av nVidia's teknologi. Ikke gidd å let. Grafikkbrikken i Xbox er fra nVidia, akkurat som grafikkbrikken i Gamecube er fra Ati. Ati har aldri vært involvert i noen del av Xbox. Å insinuere at Ati skulle ha "bøffa" noe som helst fra nVidia og at det er grunnen til at Ati gjør det så bra i dag tror jeg ikke er egnet til å være annet enn en direkte fornærmelse mot gutta i Ati. Da tror du feil. Lenke til kommentar
Duke Soforth Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 "]Da tror du feil. Hallo? Så en magisk artikkel, unik i sitt slag, umulig å finne igjen, kommer med vanvittige påstander som hvis de var sanne hadde vært over hele nettet i dag. Inntil du finner artikkelen så tror jeg ikke saksvinklingen din egentlig fortjener noe mer oppmerksomhet enn den har fått nå. Lenke til kommentar
vipewan Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 Som sagt så tror jeg de fleste innser at både ati og nvidia har brukt metoder som går utover billedkvalitet og i manges øyne er juks. Dette er jo feil. ATI har jo nettopp IKKE gjort optimaliseringer som går ut over billedkvaliteten i denne saken. Instruksjonene de gjør er identiske med 3dMarks instruksjoner. Lenke til kommentar
vipewan Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 "] "]Men ja, nVidia var med på å utvikle Xbox. Hvordan ATi fikk tak i info? spør ikke meg. Jeg har lett og lett og lett og lett etter den artikkelen jeg leste, som fortalte om "the very beginning" av grafikort og frem til i dag - hvor jeg leste at Xbox-utviklingen "avslørte" mye av nVidia's teknologi. Ikke gidd å let. Grafikkbrikken i Xbox er fra nVidia, akkurat som grafikkbrikken i Gamecube er fra Ati. Ati har aldri vært involvert i noen del av Xbox. Å insinuere at Ati skulle ha "bøffa" noe som helst fra nVidia og at det er grunnen til at Ati gjør det så bra i dag tror jeg ikke er egnet til å være annet enn en direkte fornærmelse mot gutta i Ati. Da tror du feil. Nei, du har feil. ATI har ikke "bøffa" noe som helst fra Nvidia. Hvis du hadde fulgt med, så kom det orginale Radeon kortet ut FØR X-Box greia. Og allerede da var de fleste enige om at ATI kortet var ett bedre kort hardware-messig en Nvidias kort, men at driverene holdt det tilbake.... I disse dager så er hardware nok også litt bedre, og driverene er like gode.... Lenke til kommentar
[-GoMp-] Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 "] Men ja, nVidia var med på å utvikle Xbox. Hvordan ATi fikk tak i info? spør ikke meg. Jeg har lett og lett og lett og lett etter den artikkelen jeg leste, som fortalte om "the very beginning" av grafikort og frem til i dag - hvor jeg leste at Xbox-utviklingen "avslørte" mye av nVidia's teknologi. Ikke gidd å let. Grafikkbrikken i Xbox er fra nVidia, akkurat som grafikkbrikken i Gamecube er fra Ati. Ati har aldri vært involvert i noen del av Xbox. Å insinuere at Ati skulle ha "bøffa" noe som helst fra nVidia og at det er grunnen til at Ati gjør det så bra i dag tror jeg ikke er egnet til å være annet enn en direkte fornærmelse mot gutta i Ati. det var det jeg mente med at du tror feil - var ikke ment som en fornærmelse. Du misforsto meg. Lenke til kommentar
Mr.Garibaldi Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 "]Da tror du feil. No offence, men jeg ville ventet til jeg fant igjen den artikkelen før jeg begynnte å komme med slike kommentarer... Eller i det minste presentere de fakta du husker fra artikkelen, så vi har en mulig til å forstå hva du mener... Lenke til kommentar
[-GoMp-] Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 Jeg har beklaget dette og lett som en gal etter artikkelen. Unnskyld at du ikke blir fornøyd med det :-? Skal jeg slette innlegget kanskje? Lenke til kommentar
Vice Skrevet 29. mai 2003 Del Skrevet 29. mai 2003 Hvor jukset ATI?? Vis meg en link som sier at dem jukset istedenfor å komme med slike påstander. Ehh, henviste du ikke selv til feks. "ATI still detected 3DMark03 within their driver, and substituted a "better optimized" shader, and that is still benchmark cheating in our book, even if the overall performance boost was modest" http://www.extremetech.com/article2/0,3973...,1105259,00.asp Lenke til kommentar
mad_arab Skrevet 30. mai 2003 Del Skrevet 30. mai 2003 Det som mest av alt karakteriserer omtalen av Quake3 episoden i det herrens år 2003 er imidlertid dessverre dårlig selektiv hukommelse. Konsensus blant de fleste nøytrale nettstedene med litt kunnskap har imidlertid hele veien vært at dette var et forsøk på å optimalisere spesielt for Q3 med en bug. Er det cheating? Det var ikke en benchmark-spesifikk greie. nVidia & 3dmark stiller i en helt annen klasse i så måte. Hvis du snakker om samme ting som meg... Nemlig at ATi la inn funksjoner i driveren som satte ned kvaliteten på textures i Quake3 fordi den kjente igjen .exe filen til spillet... En fil man kunne edite slik at driverne ikke kjente den igjen, og som ga mye dårligere resulater men bedre bilde... Så vil jeg absolutt si at den stiller i samme klasse som NVidia sin 3dmark historie. Begge deler trenger du en irakisk minister for å bortforklare... Lenke til kommentar
Mr.Garibaldi Skrevet 30. mai 2003 Del Skrevet 30. mai 2003 "]Jeg har beklaget dette og lett som en gal etter artikkelen. Unnskyld at du ikke blir fornøyd med det :-? Skal jeg slette innlegget kanskje? Neida, du trenger selvsagt ikke slette innlegget... Jeg bare ba/ber deg om å vente med flere lignende innlegg til du har funnet arttikkelen... (Jeg har faktisk veldig lyst til å lese den!) Lenke til kommentar
Duke Soforth Skrevet 30. mai 2003 Del Skrevet 30. mai 2003 Hvis du snakker om samme ting som meg... Nemlig at ATi la inn funksjoner i driveren som satte ned kvaliteten på textures i Quake3 fordi den kjente igjen .exe filen til spillet... En fil man kunne edite slik at driverne ikke kjente den igjen, og som ga mye dårligere resulater men bedre bilde... Så vil jeg absolutt si at den stiller i samme klasse som NVidia sin 3dmark historie. Begge deler trenger du en irakisk minister for å bortforklare... Vi snakker definitivt om samme ting. Men jeg tror du må få historien din korrekt før du legger den fram. For det første: Ja, driveren til Ati hadde spesielle Quake3-optimaliseringer, driveren gjenkjente Q3 gjennom strengen "quake3". Og vi er vel begge enige om at det er lov å gjøre optimalisering i driveren dersom dette får spillet til å gå raskere (vel og merke uten å gå på bekostning av bildekvalitet)? MEN: der du husker feil er på punktet "hva skjedde egentlig". Den Q3-optimaliserte koden som Ati hadde fungerte utmerket på Radeon, mens den ga texture-feil på R8500. Neste driverversjon fikset feilen. For å gjøre saken ennå mer pinlig for alle websteder med udugelige journalister så ga til og med denne driveren en pen hastighetsøkning... Det eneste denne hendelsen i dag er egnet til å vise oss er hvor lite gjennomtenkt mange websteder til tider kunne være (hardocp og nvnews sto langt framme i så måte). Og hvor selektiv hukommelsen i dag er. Lenke til kommentar
mad_arab Skrevet 30. mai 2003 Del Skrevet 30. mai 2003 Husk også hvor ferskt r8500 var på den tiden og hvor umodne og dårlig optimaliserte driverne til ATi ellers var. De ønsket veldig hardt å overbevise folk om at r8500 kunne konkurrere med GF3, men driverne holdt igjen.... Hva gjør man da...? Hvis du velger å kjøpe den historien fra ATi, hvorfor kan du da ikke kjøpe tilsvarende historie fra NVidia nå? Er jo omtrent det samme de har sagt når det gjelder 3dmark. Er flere som er selektive her tydeligvis, jeg har fremdeles store problemer med å se forskjellen på disse to tilfellene. If it looks like shit and smells like shit, that's probably what it is.. Lenke til kommentar
Gjest Slettet-80wCWpIM Skrevet 30. mai 2003 Del Skrevet 30. mai 2003 la oss se bort fra alle disse anklagene og se på fakta. hva er 3dmark 03 - et skryteprogram deluxe, det har ingen annen verdi enn skryting. dell og div andre pc-leverandører slenger ikke gigantiske multi-mill avtaler i henda på det firmaet som oppnår høyest 3dmark 03 score. personer kjøper ikke skjermkort på grunnlaget av en 3dmark 03 poengsum, noe som dette forumet f.eks er et bevis på, for jeg har ikke lagt merke til at noen som lurer på hvilket skjermkort de skal ha blir henvist til en side med oversikt over hvordan div kort gjør det i 3dmark 03. jeg skal ikke tro for mye, men jeg tror seriøst at folk velger å undersøke før de kjøper et skjermkort, for er man ute etter å kjøpe noe så er det pga man har et behov,og da sjekker man at produktet man vurderer å kjøpe dekker det behovet. altså, 3dmark 03 betyr egentlig ingenting foreløpig. jeg gidder ikke engang begynne å diskutere hvorvidt det gir en pekepinn på hvordan skjermkortet vil klare seg i fremtiden, for vi vet alle at det er så mange faktorer som spiller inn at den "pekepinnen" kan for alt vi vet peke i feil retning. hadde enn 3dmark 03 betydd noe så hadde jeg slengt meg på denne bad-mouthinga av nvidia, men det betyr absolutt null. hva nvidia egentlig har gjort er å bevise hvor lite som skal til for å fucke opp det mange omtaler som en "flott pekepinn på hvordan skjermkortet vil takle fremtiden". hva annet. nvidia deltar ikke i futuremark programmet, derfor er det verre for dem å fjerne bugs i oppbygningen av driverne som forårsaker abnormale glitcher i futuremark prog før det da er for sent, etter de er lagt ut til nedlastning og sider tester dem. husker jeg ikke helt feil så hadde nvidia problemer med 3dmark 03 i sin forrige driver as well. ati deltar, ati har ikke hatt noen lignende problemer. litt ekstra - hva vet vi, joda, fx 5900 ultra scorer fortsatt høyere i 3dmark 03, selv når man ser på resultatet uten "juks". fx 5900 ultra scorer høyere i resten av virkelige benchmarks foretatt i spill. fx 5900 ultra støyer mindre enn geforce 4 ti 4600. geforce fx 5800 ultra gjør det svært bra med de nye driverne,noe vi også leste i hw.no sin test av 5800 ultra, noe som er et klart bevis på ytelsen vi har i vente med 5900 ultra. Developers on GeForce FX - John Carmack (Id Software) NVIDIA Is the first of the consumer graphics chip companies to firmly understand what is going to be happening with the convergence of consumer realtime and professional offline rendering. The architectural decision in the NV30 to allow full floating point precision all the way to the framebuffer and texture fetch, instead of just in internal paths, is a good example of far sighted planning. It has been obvious to me for some time how things are going to come together, but Nvidia has made moves on both the technical and company strategic fronts that are going to accelerate the timetable over my original estimations. My current work on Doom is designed around what was made possible on the original GeForce, and reaches an optimal implementation on the NV30. My next generation of work will be designed around what is made possible on the NV30. kan vi ikke heller bare legge lokk på alle diskusjonene helt frem til alle fakta er lagt frem på bordet ? det er alltid kjekt å diskutere, men foreløpig er det nyttesløst. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå