Gå til innhold

Vil kjøre DirectX på CPU-en


Anbefalte innlegg

Videoannonse
Annonse

Dette er flott synes jeg. Servere og andre maskiner uten dedikert grafikk men sterke CPUer blir mye mer allsidige. Gitt ytelsestallene vi ser nå så vil jeg tro at en high-end quadcore vil kunne gi het grei ytelse på eldre 3Dspill som er en del år gamle. Det finnes tross alt mange gode gamle klassikere som ikke er særlig grafikkintensive med dagens standard. Tenker meg at noe sånt som Halflife1 kjører veldig glatt i software rendering.

 

Lurer på om det er teknisk mulig å kunne lage noe slags hybrid hardware-software rendering. Dvs. når det kommer 6,8 og enda flere kjerner på CPUene og spillprosessene i seg selv ikke utnytter mer enn kanskje 2, så kunne kanskje de resterende ledige CPU ressursene være med på å rendre noe av 3D'en? Det hadde sikkert vært komplekst å få laget på en slik måte at det gav god ytelse, men det hadde jo vært skikkeig kult. Du hadde da aldri kunne bli GPU-limited i et spill lenger, kun CPU limited.

 

-Stigma

Lenke til kommentar

Jeg ser for meg at dette kan ha nytteverdi i servere og minibærbare. Siden GPU-kravene er omtrent fraværende så vil det kun gi en virkning: lavere strømforbruk, spart plass, spart kompleksitet og sparte penger på unødvendige komponenter.

 

De som drømmer om at dette skal ha noen positiv virkning for spillere lever foreløbig i en drøm. Drømmen kan bli langvarig ..

Lenke til kommentar
er ikke det heller en CPU-GPU hybrid? det er jo fremdeles hardware.

 

-Stigma

 

Altså, Larrabee består av mange x86 kjerner, så her vil det oppstå full forvirring med hva som egentlig er software/hardware rendering :)

 

Det heter vel CGPU :)

Endret av krigun
Lenke til kommentar

Sikkert kjekt for en del eksisterende maskiner. Dette vil jo kanskje bety at noen maskiner som ikke var Vista-ready før kan bli det nå.

Men sånn fremtidsrettet har jeg større tro på AMDs prosjekt med å få til applikasjons-aksellerasjon via dedikerte enheter. Multiprosessorers store fordel er jo seriell bruk, GPU har en fordel på paralell bruk, en del high-end lydkort har også egen prosessor, high end raidkort har også dedikert prosessor, og ioDrive har egen prosessor som gjør den i stand til å få de ekstreme spesifikasjonene den har.

Med tanke på ioDrive kan egentlig også SSDer sees på som en måte å aksellerere systemer, og jeg bruker det akkurat nå til å få et OS og programmer som reagerer ca 10 ganger raskere enn det gjorde på velociraptoren min :D

 

Med tanke på fremtiden kan jo dette sikkert være kjekt for netbooks også, hvis det gjør de i stand til å kjøre mer grafisk krevende applikasjoner.

Lenke til kommentar
Sikkert kjekt for en del eksisterende maskiner. Dette vil jo kanskje bety at noen maskiner som ikke var Vista-ready før kan bli det nå.

Kan aldri tenke meg at dette blir bra for gamle maskiner, men det kan bli bra når en får hybrid prosessorer med et par tre fat cores og et titalls eller hundretalls tynne kjerner.

 

Men sånn fremtidsrettet har jeg større tro på AMDs prosjekt med å få til applikasjons-aksellerasjon via dedikerte enheter.

Nå vet jeg ikke nøyaktig hva dette innebærer, men alt som er mer komplisert enn to typer kjerner og to typer minnehierarki ser jeg på som en fullstendig bommert som totalt ignorerer 50 års kunnskap om design av generelle systemer. Volum teller. Alt annet taper og det finnes bare to typer prosesseringsytelse så hvorfor designe flere løsninger?

 

Når det gjelder raid kontrollere og nettverk så har det en del andre aspekter som gjelder så her er ekstra kontrollere å foretrekke i en del situasjoner.

Endret av Anders Jensen
Lenke til kommentar
På lang sikt høres dette ut som en god ide, men det blir ikke noe suksess på kort sikt. ... *snip

Fundamentalt uenig. Sw Rendring har en stor og fundamental bakdel, og det er at det tar lang tid før ny funksjonalitet blir støttet i SwRendring. DX7,8 og 9 har da Sw Rendring meg bekjent, men den støtter fint lite shadere. Den støtter heller ikke funksjonalitet som har eksistert fryktelig lenge i skjermkort. + Det er tungt og tregt, og det er en grunn alene for at man ikke legger til støtte for nyere ting. Unreal1 var vel siste spill med tiptop SwRendring, men det ble skrinlagt og man la inn opengl(eller var det dx??) fordi det var langt mye bedre.

 

Dette er flott synes jeg. Servere og andre maskiner uten dedikert grafikk men sterke CPUer blir mye mer allsidige. ... *snipp

 

Lurer på om det er teknisk mulig å kunne lage noe slags hybrid hardware-software rendering. Dvs. når det kommer 6,8 og enda flere kjerner på CPUene og spillprosessene i seg selv ikke utnytter mer enn kanskje 2, så kunne kanskje de resterende ledige CPU ressursene være med .... *snipp

Med en gang du nevner server så skurrer det fryktelig i mitt hode. En server vil og skal overhode ikke kjøre noe 3D. Mulig du vil gjøre dette på et gutterom, men en server er ikke for å kjøre grafikk. Har du cpu til overs i en server - så installerer du wmware, og flere servere på samme fysiske maskin for bedre utnyttelse - ikke kjøre spill og fancy 3D.

En server config, windows eller whatever, SKAL settes opp til å bruke minst mulig ressurser på ting serveren ikke skal gjøre - ergo så er svaret rungende nei.

 

 

Jeg ser for meg at dette kan ha nytteverdi i servere og minibærbare. Siden GPU-kravene er omtrent fraværende så vil det kun gi en virkning: lavere strømforbruk, spart plass, spart kompleksitet og sparte penger på unødvendige komponenter.

 

De som drømmer om at dette skal ha noen positiv virkning for spillere lever foreløbig i en drøm. Drømmen kan bli langvarig ..

Igjen - nei du gjør ikke slik med en server.(er enig med det med spill)

 

Du er klar over at bærbare har cpu'er som skalerer etter arbeidsmengde? Ergo - mer å gjøre så går steppingen i taket = mer strøm slukes, og omvendt. Cpu er ikke laget for grafikk, noe en grafikkprosessor er. Jeg vil tro at en grafikkprosessor sluker mindre strøm enn SwRendring på cpu i en bærbar. På toppen av det hele - om pc ikke er koblet strømuttak, så låses steppingen til 50%, slik at maskinen kan faktisk bli ganske treg.

 

Vil du spare strøm, så ikke kjør 3D.

Prove me wrong pls.

 

Ellers nevnte noen at dette antagelig ville gjøre det mulig for de som ikke kan kjøre aero på "vista ready" maskiner til å faktisk kunne kjøre aero. Jeg har større tiltro til dette argumentet. For da kan man redusere HW kravet bittelitt for W7 for å nå et større marked. Og Aero er ikke så tungt, bare at det krever nyere shaderfunksjonalitet som billigløsninger skamløst har utelatt.

 

Det med spill. DX er bakoverkompatibelt. Ergo, er et spill laget for DX7, så funke det under DX11. Funker ikke spillet, så skal det i grunn ikke være DX sin feil. Vista og W7 har vel en opengl->DX converter, slik at eldre spill ville funket uansett. Uansett så er ikke SwRendring tiltenkt gammle spill på ny hardware med dårlig skjermkort - Det er tiltenkt nyere spill som bruker grafikkfunksjoner som ikke finnes i HW, og som da skal støttes i SW.

 

Og noen drømmer om at 5,6,10,20 core cpu kommer til å ha nok kraft til at grafikk kan kjøres på cpu - historien så langt har vist at spill aldri kan få nok cpu. Fysikk er per dags dato fortsatt noe som kommer til å bli enda mer krevende. Lyd- og musikkmixing kommer antagelig til å nå nye høyder. AI er fortsatt på spedbarnstadiet. Etc etc etc. Det blir aldri nok cpu.

 

Igjen - salgsargument. SwRendring er prøvd og har miserabelt feilet før. Ser ingen grunn til at det blir annerledes.

Lenke til kommentar
Gjest Slettet-Pqy3rC
... Med en gang du nevner server så skurrer det fryktelig i mitt hode. En server vil og skal overhode ikke kjøre noe 3D. ...

 

Det kan du jo bl.a fortelle markedsavdelingen til Microsoft som stadig gjør floffy ting med desktop'en.

Lenke til kommentar
Hmmm... Kan dette være litt greit for Intel? De holder jo på å utvikle Larrabee og det er jo en hybrid mellom CPU og GPU såvidt jeg har forstått...

Kan se ut som om MS sikter seg inn mot Larrabee og avarter av den ja. Med 3D stacking på 32nm-22nm vil det jo ikke være noe problem å levere en chip med f.eks 4 fete x64 kjerner, 32 tynne kjerner med vektor utvidelser samt 1-2GB DRAM stacket på toppen. Altså integrert RAM til den massivt parallelle prosesseringsdelen og gjerne ekstern RAM slik vi har på dagens CPU brikker for å fore de fete kjernene etter kapasitetsbehov. Det burde kunne slå dagens high end CPU + GPU oppsett på alle tenkelige måter. Kanskje ikke tilfeldig at alle de nevnte teknikkene har vært i fokus i flere år nå.

 

Noe DarkSlayer over her bør tenke over.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...