Gå til innhold

G80 og R600, hva vet vi?


Anbefalte innlegg

Videoannonse
Annonse
  • 2 uker senere...

har vi ikke sett et mønster på skjermkort release?

 

mye frem og tilbake med rykter og diskusjoner. men når det nermer seg release er det somregel heeelt stille :hmm:

 

har en magefølelse at R600 blir helt rå. kan ikke drømme om at de slipper et svakere kort enn G80, så en 10-15% over er nok realistisk og håpe på

Lenke til kommentar

tror det rett og slett ikke er økonomisk for hverken ati eller nvidia og slippe kort som er for bra. meget mulig at ati sitter på teknologi som kunne dobble et G80, men et slikt kort vil ikke bli sluppet før tiden er moden, da de ville tapt mye på det. så vi blir nok og se en naturlig økning med 10-15% slik vi alltid har gjort.

 

var jo endel mere med G80 men har vel med og gjøre at det innebar ny arkitektur

Lenke til kommentar
Hm, ikke noe snakk om R600 på over ei uke, har det dabbet helt av med ryktene?

7590403[/snapback]

At vi ikke har fått noen flere bilder og mer detaljert spec. tyder vel på at det fremdeles er litt tid frem. Begynnelsen av februar som de siste ryktene sier høres realistisk ut for meg...

 

har en magefølelse at R600 blir helt rå. kan ikke drømme om at de slipper et svakere kort enn G80, så en 10-15% over er nok realistisk og håpe på

7591495[/snapback]

Alt annet enn 15% raksere enn G80 er vel litt nedtur? I og med at R600 er et kvartal etter G80...

 

Ender R600 opp med å kun matche G80, eller være tregere så mener jeg at det er en fiasko.

 

Ja vi får nok ikke se store hoppet i ytelse fra 8800 til 8900,  mer andre forbedringer av kortet.

7595013[/snapback]

Nja... Poenget med G80 var ¨få den nye arkitekturen ut. 90nm prosessen ble presset maksimalt (antall transistorer vs. hastighet)... En eventuell 8900-serie vil komme på en annen prosess (det samme vil mainstram og low-end G8x kort)

Lenke til kommentar

Tja, er ikke helt enig i at om neste generasjon skjermkort fra Ati kun matcher ytelsen til Nvidia så er det en nedtur, som sagt det finnes fler ting enn ytelse.

 

*Bildekvalitet.

*Unified shader arkitektur og hvor bra denne fungerer.

*Muligheten til å bruke gpu'en til å kunne brukes på flere måter som for eksempel en fpu eller andre bruksomårder som for eksempel Folding @ home.

*Andre diverse nyttefunksjoner.

 

 

Så, personlig til Ati kortet er ute og vi kan danne oss et godt bilde av hva det presterer, ikke kun ytelsemessig men på alle andre punkter så kan vi også finne ut hvilket som egner seg best til vårt bruk.

Lenke til kommentar
*Bildekvalitet.

*Unified shader arkitektur og hvor bra denne fungerer.

*Muligheten til å bruke gpu'en til å kunne brukes på flere måter som for eksempel en fpu eller andre bruksomårder som for eksempel Folding @ home.

*Andre diverse nyttefunksjoner.

7595343[/snapback]

- Bildekvalitet har nVidia ligger litt etter på, G80 var et skritt i riktig retning. Nå har nVidia HQ AF som default...

 

- Begge brikkene er unified. Hvordan selve arkitekturen fungerer kommer vi nok bare til å merke med hvor god ytelsen blir, så det gjenstår å se.

 

- Der har nVidia gjort et bra fremstøt med CUDA, og fleksibiliteten til å integrere det i eksisterende C-kode. Driver selv å med SDK'et til CUDA, så vet ikke hva/hvilket API AMD har

 

R600 skal visst gruse G80 i DX10 ytelse. blir et bra salgsargument for ATI.

Og det har du lest i "Se & Hør"?

Lenke til kommentar

Tror også at alt annet en 15% bedre ytelse gjavnt over er fiasko på highend kampen.

 

1. Nvidia har fått solgt unna en god del og det virker som de ikke har noe problem med å skru ned prisen nå (det vill gjøre 1950xtx etc nesten verdiløs)

 

2. De trenger da heller ikke å svare med 8900

 

3. De som sitter på 88000gtx kommer ikke til å gidde å bytte da det kommer til å koste ca 2500 til 3000kr i mellomlegg.

 

Da snakker jeg seff om fiasko i highend salget, det er jo ikke her det største salget ligger. Noe fiasko gjevnt over behøver det jo ikke bli for DAMIT

Lenke til kommentar

En annen ting med ATI er at de har logiske unified shadere eller hva de kaller det, som tilsvarer opptil 265 unified shaders. Akkurat dette punktet blir spennende å se hvordan fungerer i praksis. Om de fysisk 64 kan gi ytelse nærmere 256 stk. G80 har 128?

 

Lavt transistor antall skulle i tillegg tyde på lavere strømbruk enn G80?

Endret av Theo343
Lenke til kommentar
- Bildekvalitet har nVidia ligger litt etter på, G80 var et skritt i riktig retning. Nå har nVidia HQ AF som default...

"Kvalitet" var ihvertfall default hos meg med 97.44 driveren. Med HQ er teksture filteringen til G80 veldig god, jeg bare håper nVidia ikke lar det skli ut når R600 kommer.

Lenke til kommentar
Tror også at alt annet en 15% bedre ytelse gjavnt over er fiasko på highend kampen.

 

1. Nvidia har fått solgt unna en god del og det virker som de ikke har noe problem med å skru ned prisen nå (det vill gjøre 1950xtx etc nesten verdiløs)

 

2. De trenger da heller ikke å svare med 8900

 

3. De som sitter på 88000gtx kommer ikke til å gidde å bytte da det kommer til å koste ca 2500 til 3000kr i mellomlegg.

 

Da snakker jeg seff om fiasko i highend salget, det er jo ikke her det største salget ligger. Noe fiasko gjevnt over behøver det jo ikke bli for DAMIT

7595752[/snapback]

 

 

Kan si meg enig her, ATi ligger på etterskudd nå og trenger at, eller R600 må slå ann. Nå er det snart 2 månder siden G80 kom ut og Nvidia har nok tjent mye på dette flagshipet og vil forsette å tjene på det til R600 kommer ut, å hvis R600 truer kan de skru ned prisen på det slik at den kan bli tilgjengelig for olanordman og vil forsette å tjene peng på G80. Såklart vil noen kjøpe R600, fordi noen må bare ha det beste av det beste men jeg tror ikke R600 kommer til å nærme seg salgstallet som G80 har dratt inn.

 

Nå vet jeg ikke når R600 faktisk kommer ut men jeg tror det er snakk om noen månder til, å det er egentlig noen månder forseint? Alle som snakker om at ATi kommer til å gruse G80, så må jeg nesten si, såklart vil den det, fordi de har hatt lendre tid på seg. Det mange glemmer er at mens ATi nå stresser med å få R600 å bruker mye resurser på det, har nå sikkert Nvidia mye fokuset på et svar R600 igjen.

Endret av Bahamut
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...