ATWindsor Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 ATi sine problemer med drivere, samt manglende støtte for 2 skjermer, gjør at jeg går for et 6800 GT .. "Ignorance is bliss" ATi har null problemer med drivere, det hører fortiden til. Dessuten har kortet støtte for 2 skjermer... ATI har ikke like bra støtte for flere skjermer, bla mangler de span-mode, og det er min subjektive mening at nvidia fortsatt har bedre drivere selv om ATI ikke direkte sliter. AtW Lenke til kommentar
MrVilla Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 (endret) jeg digger den skrivinga di, høres liksom så bra ut, ikke det at jeg skjønner ET PIP AV DET DU SIER...men DET er vel ikke poenget heller.... Les signaturen hans Endret 6. mai 2004 av MrVilla Lenke til kommentar
Simen1 Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 Noen som la merke til størrelsen på skjermkortene og hvor mange molex kontakter dem bruker? jeg ville nok tro at X800-serien ville ha vært mer behagelig enn 6800 i en Shuttle mini PC feks. 6800 kan offisiellt ikke brukes i miniPC-systemer fordi det krever minst 550W PSU, og det er det ingen miniPC-systemer som kommer med så kraftig PSU. Men dette er jo bare den offisielle versjonen, så det er sikkert noen som klarer å modde og fikse så de får det til stabilt. X800 ble utviklet spesiellt med tanke på at folk vil kunne bruke kortene i miniPC'er. Det er derfor det tar så lite plass og utvikler mye mindre varme. Dette var visstnok noen av design-målene de hadde under utviklingen i følge presentasjoner fra ATi. Jeg liker absolutt ikke varmeutviklingen, plassen og PSU-kravet fra Nvidia's 6800 så jeg kommer nok til å gå over til ATi neste gang jeg oppgraderer skjermkort (har Geforce4 Ti4200 nå). Jeg vet jeg vil savne Nvidia's Nview-programvare om ikke ATi forbedrer/endrer sin Twinview-programvare drastisk. Lenke til kommentar
djorgen Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 (endret) De støtter to skjermer, men de har ikke de samme funksjonene som nVidia kort. Det er en ganske omfattende tråd om dette i "brukerguider" delen av forumet. Blah, ok, en post til. Akkurat dette som er poenget. ATi-korta kan ikke kjøre samme funksjoner som NVidia-kort, bla.a. å spille over to skjermer.. På en tilfredstillende måte. (Mangler span-mode - som er et must om en ska bruke to skjermer) Endret 6. mai 2004 av djorgen Lenke til kommentar
Tåkefyrste Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 Akkurat dette som er poenget. ATi-korta kan ikke kjøre samme funksjoner som NVidia-kort, bla.a. å spille over to skjermer.. På en tilfredstillende måte.(Mangler span-mode - som er et must om en ska bruke to skjermer) riktig, men du sa det ikke støttet 2 skjermer, noe som blir galt.. Og vær så snill å legg tanken om driverproblemer bak deg, faktisk så har nVidia flere problemer med driverne for tiden Lenke til kommentar
djorgen Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 Akkurat dette som er poenget. ATi-korta kan ikke kjøre samme funksjoner som NVidia-kort, bla.a. å spille over to skjermer.. På en tilfredstillende måte.(Mangler span-mode - som er et must om en ska bruke to skjermer) riktig, men du sa det ikke støttet 2 skjermer, noe som blir galt.. Og vær så snill å legg tanken om driverproblemer bak deg, faktisk så har nVidia flere problemer med driverne for tiden Hah. Dummaste jeg har hørt. Jeg har *aldri* hatt problemer med drivere... (Har NVidia-kort), mens mange jeg kjenner har hatt masse problemer med sine ATI-kort. Bla.a. i Galaxies.. Lenke til kommentar
FJERNET111 Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 Hah. Dummaste jeg har hørt. Jeg har *aldri* hatt problemer med drivere... (Har NVidia-kort), mens mange jeg kjenner har hatt masse problemer med sine ATI-kort. Bla.a. i Galaxies.. Jeg har heller aldri hatt problemer med ATi-drivere, men det betyr vel ikke at de ikke finnes vel? Uansett så har diverse "optimiseringer" i nVidias nyeste drivere skapt problemer for bl.a. Far Cry Lenke til kommentar
Tåkefyrste Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 Hah. Dummaste jeg har hørt. Jeg har *aldri* hatt problemer med drivere... (Har NVidia-kort), mens mange jeg kjenner har hatt masse problemer med sine ATI-kort. Bla.a. i Galaxies.. ja det er vel det dummeste du har hørt, for du har sikkert testet alle spill og applikasjoner på markedet. For å si det slik, ingen av driversettene er perfekte, men det var langt flere bugfixes i releasenotene til en av de seneste Forceware settene, enn Catalyst (det sier ikke alt, men gir en liten pekepinn) Uansett, jeg gidder ikke starte en ATi vs nVidia diskusjon her, men hvis du fortsatt velger å tro at ATi har driverproblemer, slik som i de gode gamle ATI Rage tidene, så er du ganske så naiv. Lenke til kommentar
TDK Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 Hvis 6800gt koster like mye som x800pro, og det yter for det meste bedre vil vel ATI sette ned prisene på x800pro? Når nVidia har en bredre modell til samme pris må de vel det? Lenke til kommentar
kilik Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 (endret) Vel, når man tenker hvilke fordeler ATI har med mindre varmeutvikling, lavere strømforbruk og mindre kort, så rettferdiggjør det prisforskjellen for mange (særlig de som ikke har 500+ W PSU) Endret 6. mai 2004 av kilik Lenke til kommentar
TDK Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 Men etter hva jeg har sett i tester har ikke 6800gt mer en 30watt mer strømforbruk + kun en 1 slots kjøler. Lenke til kommentar
ATWindsor Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 300 mener du? eller? Den bruker vel ikke mer enn ca 100 Watt, og det er bare 10-15 Watt mer en den genrasjonen som den tar over for, så den bruker neppe 300 watt mer. AtW Lenke til kommentar
Civilix Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 NvNews har også laget en fin tabell over hvem som har vinni tester rundt omkring på nettet:(først og fremst spilltester) (hvis bilde ikke fungerer er det på denne siden: http://www.nvnews.net/vbulletin/showthread.php?t=28275 ) Blir morro å se om 6800 får like stor boost som 5950U fikk når du setter det på et nForce3 hk. Lenke til kommentar
Vo0do0 Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 Dette sies å være bechmarks av HL2 og Stalker gjort med 6800 og x800 Lenke til kommentar
Robin B Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 Benchmark av leaked HL2 sier ingenting. http://www.extremetech.com/article2/0,1558,1584386,00.asp While independent tests suggest that ATI's new chip was at least on par with Nvidia's fastest offerings, the developer of one of the most eagerly awaited 3D games confirmed that the X800 is the fastest chip on the market, at least in running its own code. "In terms of performance, it's pretty fast," said Gabe Newell, president of Valve Software, the developer of Half-Life II. "When I say 'pretty fast' I mean that its 40 percent faster in internal testing, faster than any next-generation parts that are coming out. That's a huge advantage in developing a game." Lenke til kommentar
FJERNET111 Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 (endret) Dette sies å være bechmarks av HL2 og Stalker gjort med 6800 og x800 Som forventet egentlig... nVidia har mest rå kraft, mens ATi kommer i støtet når billedkvalitet skal opp med AF/AA og når mye shaders er brukt. edit: Likte xbit-labs sine resultater for Painkiller og Far Cry på 1600*1200 og 4XAA/16XAF hehe. Jeg ville i alle fall kjøpt meg et X800 Xt hvis jeg skulle hatt et nytt kort nå. Rå kraft tar deg bare så så langt... Endret 6. mai 2004 av SBS Lenke til kommentar
Vo0do0 Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 Benchmark av leaked HL2 sier ingenting. http://www.extremetech.com/article2/0,1558,1584386,00.asp While independent tests suggest that ATI's new chip was at least on par with Nvidia's fastest offerings, the developer of one of the most eagerly awaited 3D games confirmed that the X800 is the fastest chip on the market, at least in running its own code. "In terms of performance, it's pretty fast," said Gabe Newell, president of Valve Software, the developer of Half-Life II. "When I say 'pretty fast' I mean that its 40 percent faster in internal testing, faster than any next-generation parts that are coming out. That's a huge advantage in developing a game." Tror du VIRKELIG de brukte leaked hl2 versjon? Lenke til kommentar
Vo0do0 Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 Dette sies å være bechmarks av HL2 og Stalker gjort med 6800 og x800 Som forventet egentlig... nVidia har mest rå kraft, mens ATi kommer i støtet når billedkvalitet skal opp med AF/AA og når mye shaders er brukt. edit: Likte xbit-labs sine resultater for Painkiller og Far Cry på 1600*1200 og 4XAA/16XAF hehe. Jeg ville i alle fall kjøpt meg et X800 Xt hvis jeg skulle hatt et nytt kort nå. Rå kraft tar deg bare så så langt... Enig. Ser ut til at det blir et X800XT på meg... Men jeg vil vente til jeg ser nye tester med nye drivere fra begge produsenter... Og jeg venter også til etter minst 3 av de spilla i nVidias TWIMTBP serie med SM 3.0 serie kommer ut, da jeg vil se om SM 3 faktisk kan gi den boosten det er snakk om. Lenke til kommentar
Robin B Skrevet 6. mai 2004 Del Skrevet 6. mai 2004 Tror du VIRKELIG de brukte leaked hl2 versjon? Jepp rimelig sikker på det, minnes at det har vært tatt opp på beyond3d tidligere. Og Gabe har ikke gitt ut noen demo enda. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå