Gå til innhold

Nvidia slutter med brikkesettutvikling


Anbefalte innlegg

Videoannonse
Annonse
Forøvrig er det vel på tide at nvidia skaffer seg en CPU hvis de skal ha noe forhåpning om å få solgt GPU også. Det er ikke lenge til 90% av GPU markedet vil være integrert GPU.

Nå er vel ikke de 90 prosentene fokusområdet til Nvidia. "Alle" kan lage GPU som fungerer godt i 2D og kan spille akselerert HD video, og enkel 3D. Nvidias kundegruppe er de som vil ha noe ekstra.

Så lenge Moores lov fortsetter så vil også integrering fortsette, og det er jo allerede helt klart at GPU vil opphøre å eksistere i sin nåværende form om kun få år. Antagelig blir den redusert til en postprosesseringsenhet med tilsvarende oppgaver som skjermkortet hadde før GPU kom på banen. Den tunge regningen vil bli overført til en hær av mer generelle prosesseringsenheter som det vil være missvisende å kalle GPU når de blir benyttet til mye annet enn grafikk. Plasseringen av disse prosesseringsenhetene vil naturlig nok være på samme chip som CPU kjernene i det lange løp. Alle andre plasseringer vil gi for høy forsinkelse, tenk ekstern matte co-prosessor...

Lenke til kommentar

Ikke akkurat første gangen Intel stikker kjepper i hjulene for andre selskaper.

Hadde det vært opp til Intel så hadde det nok ikke vært andre CPU produsenter i dag og vi hadde hatt skyhøye priser og mye tregere teknologiutvikling.

Intel har bra produkter for tida, men jeg støtter ikke dem med ei krone før enten AMD er konkurs eller Intel's markedandelen går ned til 50%.

 

Jeg har hatt Nvidia brikkesett fra Nforce 2 til Nforce 4 å må si jeg er veldig fornøyd med begge deler, men senere brikkesett har nok ikke vært så bra som tidligere, men tar dem opp igjen brikksettproduksjonen å leverer ett konkuransedyktig brikkesett så kan det nok bli flere Nforce kort på meg etterhvert

Lenke til kommentar
Så lenge Moores lov fortsetter så vil også integrering fortsette, og det er jo allerede helt klart at GPU vil opphøre å eksistere i sin nåværende form om kun få år. Antagelig blir den redusert til en postprosesseringsenhet med tilsvarende oppgaver som skjermkortet hadde før GPU kom på banen. Den tunge regningen vil bli overført til en hær av mer generelle prosesseringsenheter som det vil være missvisende å kalle GPU når de blir benyttet til mye annet enn grafikk. Plasseringen av disse prosesseringsenhetene vil naturlig nok være på samme chip som CPU kjernene i det lange løp. Alle andre plasseringer vil gi for høy forsinkelse, tenk ekstern matte co-prosessor...

Enig i det, men jeg tror ikke GPU vil opphøre i sin nåværende form allerede om få (2-4) år. Jeg tror midt og high end GPU, slik som Nvidia produserer, fortsatt vil eksistere i tilnærmet dagens form om 3-4 år.

 

Minnebåndbredde er et problem som må løses. Det tror jeg ikke er forenelig med utbyttbart modul-minne og prosessorsokkel. Jeg tror at DRAM må innenfor CPU-sokkelen en plass. Antagelig i form av MCM. NUMA må brukes aktivt for at programvaren/OS skal kunne utnytte intern og ekstern DRAM på en brukbar måte. Men slike løsninger tror jeg ikke kommer før om minimum 4-5 år.

Lenke til kommentar

En skal være forsiktig med å ikke undervurdere viktigheten av volumer i CMOS industrien. Når skjermkort selges til 3000-5000 NOK så er ikke det fordi det koster ca 2000-3000 å lage de. Antagelig ligger de variable kostnader langt under tusenlappen, men en må betale for utviklingen og da må prisen opp. Videre vet vi at CMOS brikke utviklingen blir ca dobbelt så dyr for hver generasjon. Så om volumene holdes ca konstante på tross av redusert markedsandel, hvilket er fullstendig drømmetenkning, så vil dekningsgraden måtte dobles for hver generasjon. Jeg tror ikke det er mange spillere som har lommebok til den utviklingen.

 

Alt som skal til er at Intel klarer å lage to gode integrerte grafikk løsninger etter hverandre og nvidia er enten konkurs eller har en ny businessmodell.

Endret av Anders Jensen
Lenke til kommentar

Jeg husker når Nvidia`s Nforce2 chipset kom, det var lysår bedre enn konkurrentene og overklokket som bare juling.

 

Så kom Nforce4 med den berømte brannmuren som ikke virka (og noen andre små kompabilitetsproblemer)

 

Og nå er det bare tull og problemer med alt av chipset de lager.

Jeg tror at de kan hvis de VIL, det har vi jo sett, så spørs om de legger mindre og mindre tid og penger i å lage kvalitets-brikkesett.

Lenke til kommentar
Forholdet mellom Nvidia som brikkesettleverandør og de to store innen prosessorer har ikke bare vært knirkefritt
Som flere andre spør jeg, hvilke problemer har de hatt ift. AMD?

 

Uansett er mye av brikkesett funksjonalitet blitt integrert i CPU siste 7-9 år og det som er igjen av dette nå er noe man liksågodt kan overlate til noen få som er ansvarlig for plattformen. Det åpne spørsmålet blir SLI biten og jeg er spent på hva som vil skje videre ift. dette nå. Ant vil Nvidia her går mer i retning NF200 og selge dyre brikker her for å gjøre kort kompatible med SLI. Ser ingen grunn til at de skal gi ved dørene til Intel her fremover som de gjorde ift. X58.

 

Når det gjelder ekstremlaveffekts minibærbare og CULV alternativer leveres det mye skrot fra Intel og her hadde jeg håpet at Nvidia fortsatt ønsket å operere med gode GPU kombinerte chipsett, samt sørge for nyutvikling i riktig retning. Siden dette fokuset brytes fra Nivida nå håper jeg AMD snart kan komme på banen og feie de dårlige intel løsningene.

 

ION var et skritt i riktig retning fra Nvidia, og med mer fokus og viderutvikling her kunne de virkelig gitt oss gode totalløsninger på laveffektsplattformer. Husk at Intel også saboterte i lang tid at ION skulle leveres på Intel Atom plattformer.

Endret av Theo343
Lenke til kommentar
nVidia har vel ikke laget ett skikkelig GODT (med store bokstaver) brikkesett siden nForce2? Iallefall ikke noe siden nForce4 som skulle få meg til å velge nVidia over Intels egne chipsets iallefall.

Hva er det for noe galt med ION? Mye bedre enn Intel sitt nåværende alternativ?

Lenke til kommentar

Mange her sier mye ubegrunnet om Nvidias brikkesettproduksjon som helhet. Jeg vet ikke om det er av uvitenhet men samtlige nevner Intel brikkesett i sine eksempler om dårlige brikkesett og "ikke noe bra siden bla bla" med et AMD brikkesett som eksempel.

 

Bli enig med dere selv, Nvidia har levert meget bra AMD brikkesett hele veien og frem til i dag! Det har vært enkelte problemer på enkelte brikkesett(samt nevnte NF2 som alle skryter uhemmet av) for AMD også, men det har jaggu Intel på egne brikkesett for egen plattform også.

Endret av Theo343
Lenke til kommentar

Takk og pris! Dere kan si hva dere vil, men nVidia har hatt ekstreme mengder merkelige designfeil på kortene oppigjennom tiden. Intel har nok hat sin fair share feil de også, men langt i fra like fremtredende. Synes det er bra at nVidia fokuserer mer på de tingene de faktisk kan. Gleder meg til å se nye grafikkløsninger i fremtiden!

Lenke til kommentar
Cisco skall teste Fermi GPU innenfor Netverk. Jeg har veldig tro på det.

Det høres ut som en kraftig kombinasjon ja. Nettverk er jo typisk veldig parallell workload.

 

Man kan jo lure på om det er generasjonen etter Fermi eller den etter der igjen som vil kunne boote eget OS...

Endret av Anders Jensen
Lenke til kommentar
Enig, makan til ustabile drittkort skal man lete lenge etter.

Nå slipper vi 654 poster pr dag med folk som får BSOD når de oppgraderer til 4gb ram på nvidiabrikkesett.

 

Jeg eller mine næreste datavenner har faktisk ikke hatt noen problemer (med selve hovedkortet) etter at vi felles kvittet oss med nvidia og gikk over til intel/gigabyte.

 

Akkurat det med ustabile drittkort ser jeg meg ikke helt enig i. Det kommer helt ann på, nvidia har noen dårlig kort, slik som alle produsenter. Det med at folk får BSOD når de oppgraderer til 4gb ram er bullshit, de får BSOD når de oppgraderer til 4 BRIKKER. Dette er et problem som kan oppstå på ALLE hovedkort for Intel 775. Jeg kjører selv et Asus hovedkort med P43 chipset på en av mine maskiner atm, og har fått samme problemet som mange har hatt med nvidia sine hovedkort. Dette skyldes minnekontrolleren som sitter på hovedkortet istedet for i CPUen slik AMD har gjort lenge og Intel ikke har fått fingern ut av endetarmen og gjort før med i7/i5

Lenke til kommentar
Enig, makan til ustabile drittkort skal man lete lenge etter.

Nå slipper vi 654 poster pr dag med folk som får BSOD når de oppgraderer til 4gb ram på nvidiabrikkesett.

 

Jeg eller mine næreste datavenner har faktisk ikke hatt noen problemer (med selve hovedkortet) etter at vi felles kvittet oss med nvidia og gikk over til intel/gigabyte.

 

Akkurat det med ustabile drittkort ser jeg meg ikke helt enig i. Det kommer helt ann på, nvidia har noen dårlig kort, slik som alle produsenter. Det med at folk får BSOD når de oppgraderer til 4gb ram er bullshit, de får BSOD når de oppgraderer til 4 BRIKKER. Dette er et problem som kan oppstå på ALLE hovedkort for Intel 775. Jeg kjører selv et Asus hovedkort med P43 chipset på en av mine maskiner atm, og har fått samme problemet som mange har hatt med nvidia sine hovedkort. Dette skyldes minnekontrolleren som sitter på hovedkortet istedet for i CPUen slik AMD har gjort lenge og Intel ikke har fått fingern ut av endetarmen og gjort før med i7/i5

Hvis du kan forklare meg hvorfor ekstern minnekontroller er årsaken til at 4 minnemoduler gir BSOD mens integrering av minnekontroller er årsaken til at dette problemet løses, så skal jeg personlig anskaffe deg en Macbook eller HP Envy alt etter ønske.

 

Spesielt interessant kan de bli å forklare de millioner av Intel maskiner med 8 til 16 minnemoduler på ekstern minnekontroller som daglig kjører uten krasj...

 

Spragleknas: Hva er det som er avkreftet?

Endret av Anders Jensen
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...