Gå til innhold

G80 og R600, hva vet vi?


Anbefalte innlegg

Videoannonse
Annonse

AMD fra sin side har jo uttalt at de vil holde alt så åpent som mulig, men jeg vet ikke om det holder seg. Det kan jo hende at Intel og/eller nVIDIA slår seg vrange også. Hvem vet?

 

Det hadde vært veldig synd om dette innsnevrer antall valgmuligheter vi kommer til å få i tiden fremover.

Lenke til kommentar

Med en lønnsøkning på 50% gleder jeg meg mer en en unge gjør til julaften.

 

Ser alleredet et skinnendet vidunder av en pc klar til jule helgen :w00t:

 

Halleluja.

 

Ekstra spennendet blir det nå om hva jeg velger av ATI - NVIDIA da jeg kun kjøper det som yter best å driter i alt annet

Lenke til kommentar
Et annet spørsmål er, hva med skjer med SLi støtte på AMD plattformen, vil AMD kun bruke sine egne (ATi) chipset i fremtiden? Er Intel og AMD/ATi virkelig villig i å skade dette markedet for hverandre?

6553050[/snapback]

Ja, det hadde vært veldig surt...

 

For øyeblikket er iallefall HyperTransport 3.0 som er neste bus på AMD åpen iallefall. Og HTX interfacet er vel også åpent.

 

På den andre siden så har vi Intel sin Quad-pumpet FSB, den er properitær og lukket. Og man må ha en lisens for å produsere til den. Av de som lager chipset for sluttbrukere så er det nVidia, SiS og VIA som har lisens. ATi sin lisens ble som nevnt trukket tilbake for noen dager siden.

 

Kan vel kanskje tenkes at VIA eller SiS kan lage Intel-chipset med Crossfire støtte?

Lenke til kommentar
  • 2 uker senere...

x1950 får gddr4, men som det nevnes i x1950 tråder så har vel ikke det så mye å si for ytelsen, men det vet vi ikke før vi ser tester. Det var noen forbehold osv rundt dette.

 

Når det gjelder ati/amd og intel/nvidia så _kan_ det bli veldig "stygt" og begrensende for oss forbrukere, og om det skulle bli slik håper jeg sis/uli/via fortsatt beholder sine lisenser og får lov å lage crossfire kompatible løsninger for intel plattformen. Men hvem vet hva Intel ønsker å bruke markedskraften sin til.

 

At en eksluderende Intel/Nvidia allianse vil kunne skade ATi er helt klart, men jeg tror også at en ATI/AMD allianse vil kunne styrke de mot motparten, det vil også åpne for en del OEM markeder som AMD ikke har vært inne i før og kunne ta flere anndeler fra Intel.

 

Så jeg tror dette kan utjevne styrkeforholdet på lang sikt, det er meget risikabelt stykke strategi, men et skritt AMD etter mitt synspunkt var nødt til å ta for å overleve.

 

PS - veldig OT

Personlig tror jeg Intel kunne spist opp AMD for lenge siden om de ønsket, de kunne ført en priskrig som hadde tatt knekken på AMD for all tid, men jeg tror det gagner begge parter att de har en "motpart". Og det er helt klart bedre for oss at vi har 2 "store" en 1 stor og 14 små døgnfluer.

 

Intel kunne overlevd ett latterlig lavt prisnivå i flere år, men det er ikke ønskelig fra deres side, ergo nyter de godt av konkurransen og holder prisene på et bra nivå for seg selv.

Endret av Theo343
Lenke til kommentar
Vi fikk høre om den ved oppgraderingen av x1600!

 

det blir en slags "bro" som nvidia har, og du trenger ikke et master kort!

6606778[/snapback]

Etter hva jeg har forstått få integreres de ekstra brikkene som er på master kortet inn i GPU, også flyttes de kontaktene de har utvendig inn i maskinen isteden.

 

G80 kommer til å bruke en oppdatert versjon av SLI

Lenke til kommentar

Er jo helt ekstremt med 175-200 watt pr grafikkprosessor.

SLI/CF = 350-400 watt + CPU, HDD, DVD, etc = ~500-600 watt totalt, dog kun under maksimal last. Men det er vilt når man nærmer seg kilowatt på PSU'er.

 

Om det viser seg at strømforbruk øker med antall transistorer og regnekraft i en prosessor, burde man kanskje skal begynne å investere i forskning på ny teknologi for intergrerte kretser? :)

Endret av skag1
Lenke til kommentar
Er jo helt ekstremt med 175-200 watt pr grafikkprosessor.

SLI/CF = 350-400 watt + CPU, HDD, DVD, etc = ~500-600 watt totalt, dog kun under maksimal last. Men det er vilt når man nærmer seg kilowatt på PSU'er.

 

Om det viser seg at strømforbruk øker med antall transistorer og regnekraft i en prosessor, burde man kanskje skal begynne å investere i forskning på ny teknologi for intergrerte kretser? :)

6609521[/snapback]

Helt enig, lurer på hva man får på bærbare når G80 og R600 kommer i noen versjon der. Det må jo ta noe utrolig med mye batteri hvis det ikke blir voldsomt mindre forbruk av effekt.

Lenke til kommentar

Når forventes det å være DX10 kort på markedet, og når vil man få middelklasse DX10 kort under 3000,- som er like gode i generell ytelse som toppklassen 7900/x1900 er i dag?

 

Lurer på om jeg skal vente på DX10 kort, men ikke hvis det er snakk om ca. 6mnd. Jeg har allerede skjøvet Conroe litt fremover pga. hovedkort og cpu tilgjengelighet.

Endret av Theo343
Lenke til kommentar
Når forventes det å være DX10 kort på markedet, og når vil man få middelklasse DX10 kort under 3000,- som er like gode i generell ytelse som toppklassen 7900/x1900 er i dag?

 

er jo nvidia som har vist seg og være flinkest i det siste og komme med middel-klasse kort. tenker da på GT kortene, de har normalt kommet ca en måned etter topp kortet. og siden det snakkes om at g80 kommer i oktober vil da i teorien middel kortet være her i november en gang. hvor vidt de yter som topp-kortene gjør i dag er litt vanskeli og si men rundt der høres logisk ut

 

mye spekulering her :innocent:

Endret av leifeinar
Lenke til kommentar
Litt interessant, kanskje litt offtopic, men det kan hjelpe salget av r600, er den nye crossfire løsningen!

 

Vi fikk høre om den ved oppgraderingen av x1600!

 

det blir en slags "bro" som nvidia har, og du trenger ikke et master kort!

 

heia ati :D

6606778[/snapback]

 

Jeg skjønner ikke hvorfor ATI i det hele tatt skulle ha et master-kort system. De må jo ha tapt litt markedsandel på dette versus nVidias litt mer vennlige løsning? Blir uansett spennende å se åssen G80 og R600 blir. Pris mot ytelse blir en avgjørende faktor for meg, da skjermkort eldes såpass raskt nå at det er lite poeng å gå for det dyreste topp kortet. FEAR klarer vel å knele samtlige av dagens kort hvis en har på alt av eyecandy i 1600x1200?

Lenke til kommentar

Mastekort løsningen er ikke nødvendigvis en dårlig ting? Det er mye mer fleksibelt på den måten at du kan kjøre forskjellige kort i crossfire, så lenge det er innen samme generasjon ie. 580, 520, 600 osv. ATI har også kommet med et initativ for physx hvor man eks. kan kjøre et X1600 kort som physxkort.

 

SLi krever identiske kort.

Endret av Theo343
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...