GCardinal Skrevet 22. august 2008 Del Skrevet 22. august 2008 Skulle jeg tippe er det snakk om et universell sammenslått CUDA platform. Som skal kjøpe på x86 CPU samt på GPU fra nVidia og ATI. Lenke til kommentar
Sam_Oslo Skrevet 22. august 2008 Del Skrevet 22. august 2008 Skulle jeg tippe er det snakk om et universell sammenslått CUDA platform. Som skal kjøpe på x86 CPU samt på GPU fra nVidia og ATI. Jeg tror også dette dreier om CUDA og Big bamg II. Jeg tviler at det er snakk om å lansere en CPU, men nyheten/rykten er altfor uklart og vi må nok bare vente og se hva de prøver å pønske ut. Lenke til kommentar
KaareAbdullah Skrevet 22. august 2008 Del Skrevet 22. august 2008 Amd/Ati fanboy? Jeez ... Neida, bytter mellom Amd og nVidia annethvert skjermkort jeg, kjøper det som gir mest for pengene. NVidia har bare bomma totalt denne runden, og er faktisk i fare for , skal vi se; en skikkelig BSOD? G84+G86 laptop + desktop.. GT 200 ble E N O R M chip(96 pr 300 mm wafer) som ga 40% yield. ATi tvinger dem til å redusere prisen med 35 % på GTX280, noe som gjør at dem ikke tjener penger. Chipsettene er så dårlige(790 feks) at enkelte HK produsenter ikke vil bruke dem, og med "Nehalem" familien kommer ikke SLi til å være et alternativ hvis ikke nVidia tenker opp en ny ide kjapt. I tillegg er mange potensielle kunder drita sure fordi nVidia bevisst har lurt dem med dårlige drivere og for høy pris i lang tid.. Så jeg er ikke fanboi, vil bare at nVidia skal gjøre det de gjorde så bra i så mange år, nemlig konsentrere seg om å lage bra skjermkort. Glem alt annet og gi oss tillit.Hvis nVidia ruller inn årene er det ikke bra for noen av oss. Lenke til kommentar
Nedward Skrevet 22. august 2008 Del Skrevet 22. august 2008 nVidia med x86 CPU? heheheheheh Lurer på hva slags yield dem får da? Selv på 65nm GT 200 har den 40% total yield og 12% på GT280......Alle som har kjøpt en GTX260(2000 bob) har en GPU full av feil og i tillegg tregere enn 4870 (1500 bob). hahaha Hvem ville være så stokk dum? Så på 45 får dem?? 5%? hahahahahahahah Sjelden jeg faktisk ler høyt så folka rundt meg kikker på meg, men dette? Hvis nVidia fortsetter å fucke opp i samme tempo kommer jeg til å bli 150 år gammel.. Lykke til nVidia, håper dere klarer å gjøre noe bra snart Har du kilder på de yield tallene dine?. Lenke til kommentar
FullColor Skrevet 22. august 2008 Del Skrevet 22. august 2008 (endret) Men gudene forby om de da drar en "GeForce fungerer bare med nVIDIA plattformen" Da skyter de seg vel bare i foten, skal jeg ihvertfall gledlig kjøpe ati. Mister de ihvertfall mine penger. og med "Nehalem" familien kommer ikke SLi til å være et alternativ Sli blir ett alternativ også på nehalem jo ettersom nehalem kommer til og få sli støtte i form av nvidia sin onboard brikke på hk. (husker ikke hva den brikken heter for øyeblikket, nforce-200 eller no.) Endret 22. august 2008 av AllColor Lenke til kommentar
KaareAbdullah Skrevet 22. august 2008 Del Skrevet 22. august 2008 (endret) Har du kilder på de yield tallene dine?. Vel, en god del faktisk: http://www.tgdaily.com/content/view/37554/135/ På en 300mm wafer får du ca 95 kjerner på 24x24 mm. Artikkelen slår fast ca 100-110$ pr kjerne. Dvs 5000$pr wafer/110$=45kjerner som tilsvarer 47%yield http://www.icknowledge.com/misc_technology..._calculator.xls Gt200 er 24x24mm sånn ca eksakt.. Intel klarer feilrate på ca 0,25, AMD litt mer og TMSC enda litt verre. Putt inn og se på yield som kommer ut under de forskjellige produksjonsprosessene.Masse,masse matnyttig på http://www.icknowledge.com/misc_technology...technology.html http://www.theinquirer.net/gb/inquirer/new...-sucessor-tapes Les denne med en klype salt og glem at journalisten er m e g e t subjektiv, men fakta stemmer.. http://www.nordichardware.com/news,7897.html Nok en bekreftelse på pris pr kjerne, som gir et innblikk i yield. Lagde egentlig en god del lengre artikkel med forskjellige linker, men så klarte jeg å lukke den før den ble posta.. Alle forklaringene mine og all teori forsvant desverre.. Men hvis ikke dette er hodt godt nok så si ifra så skal jeg ta meg en time og skrive litt mer. Edit: Skrivefeil nederst Endret 22. august 2008 av KaareAbdullah Lenke til kommentar
KaareAbdullah Skrevet 22. august 2008 Del Skrevet 22. august 2008 og med "Nehalem" familien kommer ikke SLi til å være et alternativ Sli blir ett alternativ også på nehalem jo ettersom nehalem kommer til og få sli støtte i form av nvidia sin onboard brikke på hk. (husker ikke hva den brikken heter for øyeblikket, nforce-200 eller no.) Jups, men til en pris: Selve brikken koster 30$ inn til HK produsentene.. Så skal de ha sin del.Og i tillegg skal de designet et nytt HK som trenger flere PCB-lag.. Ikke billig tenker jeg..blir nok mest fanboys som er interessert, ATi har jo tross alt de beste skjermkortene uansett for tia. "But even they give permit, it doesn’t means you can see lots of SLI enable X58 everywhere after Q4. First of all, The chip BR04 is as expansive as $30 USD, and secondly a reference X58 can not add BR-04 by not changing the PCB layout, that means if a mobo maker want to make SLI and non-SLI X58, they need two different PCB layout. All these just keep the mobo production cost rising, so we can expect second tier mobo maker may not going for SLI enabled X58." http://en.expreview.com/2008/07/11/nv-rece...-selling-chips/ "8-layer PCB with "Platinum Circuit Layout" for what Asus refers to as "Best Layout Design for Extreme OC Record" (we'll wait to see the end result for that one)" http://www.bit-tech.net/hardware/2008/08/2...n-x58-motherb/2 Og det er før de prøver å presse SLi inn på kortet, ta en kikk på bilder av et kort og se hvor det skal på...hvis du klarer å finne plass. http://www.fpslabs.com/features/technology...x58-that-simple Lang artikkel med liten skrift, men utrolig opplysende og bra. "Yes you will be able to run SLI on the X58 chipset. But at what cost? Not only will you end up paying more for the ability to do this, but inevitable performance deficits will also be present." Lenke til kommentar
Sam_Oslo Skrevet 22. august 2008 Del Skrevet 22. august 2008 (endret) Jeg personlige er villige til å betale $50 ekstra for å kunne bruke ATI og Nvidia GPU på samme HK. Jeg synes muligheten for valg av SLI eller Xfire på samme HK, er an av de beste som har skjedd på lenge. Det kunne godt koste mer uten at jeg ville klage på det. Særlig i disse dager som ytelses tronen går på jo-jo og man må bytte GPU før man aner. Endret 22. august 2008 av Sam_Oslo Lenke til kommentar
KaareAbdullah Skrevet 22. august 2008 Del Skrevet 22. august 2008 Jeg personlige er villige til å betale $50 ekstra for å kunne bruke ATI og Nvidia GPU på samme HK. Jeg synes muligheten for valg av SLI eller Xfire på samme HK, er an av de beste som har skjedd på lenge. Jøss, kan man bruke CF på et SLi HK? Lenke til kommentar
SVD Skrevet 22. august 2008 Del Skrevet 22. august 2008 Jeg personlige er villige til å betale $50 ekstra for å kunne bruke ATI og Nvidia GPU på samme HK. Jeg synes muligheten for valg av SLI eller Xfire på samme HK, er an av de beste som har skjedd på lenge. Jøss, kan man bruke CF på et SLi HK? nei men man kan bruke SLI på et CF hk med nforce-200 brikken. Lenke til kommentar
Cortinarius rubellus Skrevet 22. august 2008 Del Skrevet 22. august 2008 (endret) Nei, omvendt..Sli på et crossfire hovedkort...Crossfire blir det på alle, men de som "vil" kan legge til Sli=) SVD var sekunder før meg:P Endret 22. august 2008 av Fluesopp Lenke til kommentar
Harkonnen Skrevet 23. august 2008 Del Skrevet 23. august 2008 Det hadde vært strålende med enda en x86-cpuprodusent. Kanskje det endelig hadde dukket opp noen friske ideer. Lenke til kommentar
Atesha Skrevet 24. august 2008 Del Skrevet 24. august 2008 nVidia burde holde seg til grafikken og heller komme med noe skikkelig heftig på den fronten om disse ryktene stemmer. De sliter med grafikken og kommer med prosessor? Det er faktisk omvendt av AMD. Nei nå nyes jeg virkelig at de skal komme med 280GTXx2 på 55nm og gjøre dem tri-sli kompatible Haha, tenkt å lage atomkraftverk for å kjøre det og da kanskje? Noe slikt Lenke til kommentar
Sam_Oslo Skrevet 26. august 2008 Del Skrevet 26. august 2008 Jeg tror også dette dreier om CUDA og Big bamg II. Jeg tviler at det er snakk om å lansere en CPU, men nyheten/rykten er altfor uklart og vi må nok bare vente og se hva de prøver å pønske ut. Nå er saken klart og tidlig, avkreftet. "We've just confirmed that Nvidia won’t do an X86 CPU" Nvidia won't do a CPU Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå