Gå til innhold

G80 og R600, hva vet vi?


Anbefalte innlegg

selv om Ati er treige så gjør de ikke samme feil 2 ganger, så vi får se hva de kommer med.

Theo343: enig med deg i den og

 

Og slutt og hakk på folk som sier meninga si. Ser at det skjer hele tida.

 

Om det er meg du sikter til er det ikke mening i det han skriver, det er hele poenget. Med de krevendet spillene vi har i dag er det verken mer eller mindre en knall rått og ha et 8800 kort i dag.

Endret av simalarion
Lenke til kommentar
Videoannonse
Annonse
Synes denne tråden kunne nå gått over til å hete: Hva vet vi om R600? Og begynt å kun diskutere rundt det, men der er det jo ikke mye info enda da :no:

 

Jeg mener vi vet jo alt om G80 nå, og synes vi kan hoppe over til den tråden simalarion har startet. Det er der vi bør fortsette og diskutere G80 nå synes jeg da.

 

Denne tråden begynner jo å skli totalt ut av emne sitt!

7258723[/snapback]

Jeg er absolutt enig. Man kan jo trekke en analogi med f.eks "AMD K8 og Intel Conroe, hva vet vi?". Dette hadde utvilsomt sklidd ut i en av de så forbudte Intel vs. AMD-kranglene, slik som denne tråden begynner å gli mot ATI vs. nVidia-krangel.

 

Kanskje det er bedre å splitte tråden, eller utelate G80 nå som kortet er lansert.

Det kommer garantert "Den store 8800 GTX/GTS-tråden" uansett, som substituterer denne tråden :)

 

Edit: Ser nå at det allerede har kommet en 8800-tråd her.

Endret av skag1
Lenke til kommentar

Posted by Hilbert Hagedoorn on November 10, 2006 - 11:11 PM

 

The Inq reports that ATI has already produced some R600 silicon (upcoming flagship Radeon DX10 graphics card). The R600 is still scheduled for Q1 2007, however. ATI is almost five months late with its original plans. The first R600 silicon is clocked slower then the final card and is out there just to fiddle with and shows the projected performance to help game developers to debug their games and get it ready for the new marchitecture. This will leave NVIDIA at the very least 3 months on top of sales. Source: Inq

 

Ja ja det blir en stund og vente.

Lenke til kommentar
kan dere ikke slutte med dette "de er ferdig og de venter" vissvasset da, la oss snakke om korta. Jeg hadde uanset ikke kjøpt i første bunsjen, blir for dyrt for meg.

7258689[/snapback]

 

Jeg ser et 8800 kort "klar" til kjøp, men ikke et R600 ^^

7258714[/snapback]

Kunne du ikke tatt deg to ekstra sekunder og skjønt at jeg ikke mente det du oppfattet? Jeg synes det er lite interresant å høre "det er ferdig men ikke det". Merkelig nok klarte du akkurat å svare med det jeg mente var uinterresant å se i tråden :)

Lenke til kommentar
ATI venter til vi får bruk for de nye kortene. Til direct x 10 spillene kommer.

Bare betale 5000kr for 8800 kortene som dere først får nytte av når vi kan kjøpe de nye Direct X 10 ATI kortene til halve prisen med samme ytelse.

 

Den som ler sist ler best er det visst noe som heter.....

 

Hva er det du prater om egentlig, sier høy fps på full pupp med oppløsning over 1600 deg noe?. For meg så blir dette bare syting fordi du ikke har kortet selv eller så er du fanboi.

7258613[/snapback]

Poenget mitt er hvorfor kjøpe et kort til 5000 kroner nå for å kjøre dagens krevende spill (eks. oblivion,DMOMAM, gothic3,CoH) med 40+ fps med max settings når du kan gjøre det med et kort til halve prisen?

Selvfølgelig handler dette om indivduelle tanker og meninger.

Og det koker nok ned til: Hvem tar seg råd, og hvem tar seg det ikke, for skal du ha et balansert system må du også ut med 5000kr til CPU. og da snakker vi nesten 3 xbox360'er (bare et eks.) allerede.

Snakker vi om å kjøre spillene over 1600x1200, så kan nok et kjøp rettferdiggjøres, men brorparten av oss sitter på 1280x1024 native i følge statistikkene.

Men er ikke dette litt av sjarmen med gaming. Småkrangle å sutre litt når noen kjøper noe bedre enn det du har. Og selv begynne å telle regningene og lønnslippene ;)

Endret av andefobe
Lenke til kommentar
Poenget mitt er hvorfor kjøpe et kort til 5000 kroner nå for å kjøre dagens krevende spill (eks. oblivion,DMOMAM, gothic3,CoH) med 40+ fps med max settings når du kan gjøre det med et kort til halve prisen?

Selvfølgelig handler dette om indivduelle tanker og meninger.

Og det koker nok ned til: Hvem tar seg råd, og hvem tar seg det ikke, for skal du ha et balansert system må du også ut med 5000kr til CPU. og da snakker vi nesten 3 xbox360'er (bare et eks.) allerede.

Snakker vi om å kjøre spillene over 1600x1200, så kan nok et kjøp rettferdiggjøres, men brorparten av oss sitter på 1280x1024 native i følge statistikkene.

Men er ikke dette litt av sjarmen med gaming. Småkrangle å sutre litt når noen kjøper noe bedre enn det du har. Og selv begynne å telle regningene og lønnslippene  ;)

7259484[/snapback]

 

Lykke til med å kjøre Oblivion med maks innstillinger i 1280x1024 (med over 40 fps) med et kort til 2500,- :tease: . Ser poenget ditt, men for mange av oss er det faktisk verdt nesten såpass mye penger for å kunne skru alt til maks, med 8xAA +andre finesser skrudd på, uten at FPS dropper til under 30-40. Jeg for min del sitter med en LCD skjerm med nativ oppløsning på 1280x1024, og skal definitivt skaffe meg et GeForce 8 kort.

Lenke til kommentar

Ja du må helt klart over til 8800 om du skal kjøre alt på fult på oppløsninger 16000+(spesielt på nye spill av de du nevner selv.). OM man leser litt rundt på reviews er det nettop dette de tar opp. Det er også her det store hakeslippet ligger.

 

Hvor mange penger man ønsker å legge inn i dette for være opp til den enkelte. Dette blir jo bare spam men.

Endret av simalarion
Lenke til kommentar
Kunne du ikke tatt deg to ekstra sekunder og skjønt at jeg ikke mente det du oppfattet? Jeg synes det er lite interresant å høre "det er ferdig men ikke det". Merkelig nok klarte du akkurat å svare med det jeg mente var uinterresant å se i

 

7259390[/snapback]

 

 

Har ingenting med tråden å gjør? Hehe, den var da ikke helt gjennomtenkt?

 

Handler ikke denne tråden om g80 og r600? Sorry, hvis den ikke gjør det så beklager jeg Uansett, hvis denne tråden skulle ha handlet om disse 2 grafikkløsningene så skrev jeg det jeg skrev bare for svare han om skrev at g80 kortet var et kort vi ikke hadde bruk for nå :) pluss gi litt ære til Nvidia, for det de klarer å prestere i marketed fortiden sammenlignet med ATi.

 

Uansett om vi ikke for bruk for DX10 delen av kortet så ser vi hvor godt det er!

 

Hva vet vi om g80? Joa, nvidia har nok en gang levert det de skal levere, de har klart å fått ut dette kortet, raskere enn ATi, slik at de kan dominere markedet i en god stund, kanskje dette vil gjøre at de får monopol men, de har trokket det lengste strået å nå samler de inn gevinsten. Men igjen, siden r600 er fremskyvet så mye så går det ikke ann å sammenligne disse kortene lengre, annet at de støtter DX10 og det er deres flaggship.

Endret av Bahamut
Lenke til kommentar
Jeg savner et skikkelig navn istedenfor alle tallene. Hadde vært kult om de hadde gitt kortet et helt nytt navn.

 

ja der har de mye å lære fra f.eks Gillette sine barberhøvler

 

Mach 3 Turbo Boost

Mach 3 Turbo Nitro

Mach 3 Super Nitro Turbo M3

 

osv osv.. :p

Endret av Simkin
Lenke til kommentar

ATi har nok samples av kortene allerede, det bør de ha iallefall hvis de satser på en lansering i februar.

 

nVidia fikk første fungerende samples av G80 i månedskifte juni/juli. Det ble gjort optimaliseringer, og revisjon 2 kom i begynnelsen av august. Masseproduksjon begynte i slutten av august, begynnelsen av september.

 

Tror noe av problemene til ATi med R600 er nok kanskje 80nm prosessen (hvis ryktene om at den bruker 80nm stemmer). ATi har allerede hatt mye problemer med 80nm. Husk at både RV560 og RV570 var ganske forsinket.

 

Sett fra nVidia sitt synspunkt så er faktisk G80 veldig forsinket, over et år forsinket. Planen var en lansring høsten 2005. Desember 2004 ble det klart for nVidia at høst 2005 var umulig. Da var kodenavnet på G80 brikken NV50. nVidia endret da kodenavnet fra NV50 til G80.

 

Det var også en refresh av NV40 under utvikling som hadde kodenavn NV48. Denne byttet navn til G70 (primert siden det begynte å gå tomt for navn på NV4x serie, og fordi arkitekturen fikk lenger levetid enn hva nVidia regnet med grunnet G80 forsinkelsen)

 

Sånn, nå har dere fått litt nVidia historie.

Mange av nVidia sine interne white-paper, kaller G80 fremdeles NV50... :yes:

 

edit: Leif

Endret av [GDI]Raptor
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...