Gå til innhold

Flere spillaktører blir med på AMDs egen «DirectX»


Anbefalte innlegg

Hvis AMD og Nvidia går sammen får vi et nytt OpenGL eller DirectX, null poeng med noe slikt.

Mantle vil kun fungere på GCN-baserte GPUer i PCer, Nvidia vil ikke støtte det.

Det er sannsynligvis mulig for Nvidia å lage en wrapper for Mantle, men da ender Nvidia opp med samme ytelse som i OpenGL og DirectX mens AMD har en massiv fordel.

 

Mantle er mest sannsynlig dømt tiil å bli en nisje.

Nvidia har et par triks planlagt som kommer etterhvert med Maxwell for å gjøre noe ganske interessant med overhead på API som DirectX og OpenGL... ;)

  • Liker 2
Lenke til kommentar
Videoannonse
Annonse

Til redaksjonen:

  1. Mantle kan erstatte Direct3D og Directcompute, ikke DirectX.
  2. Hvorfor skrive AMDs egen «DirectX» når det hadde vært langt mer klart om dere skrev AMDs Mantle?

 

Mine tanker om saken:

Interessant at flere tar i bruk Mantle, men synd at det er så få brukere som får nytte av dette.

 

Vel det eneste logiske må vel være at leserne skal få assosiasjoner til hva nyheten innebærer på en kort men effektiv måte. DirectX er noe folk har et forhold til, og det er kanskje ikke fullt så mange som har et forhold til Direct3D-navnet og kanskje enda mindre Directcompute-navnet?

Lenke til kommentar

Bruk et multiplattform API(OpenGL/OpenCL) og slutt med alt det andre pisset. DirectX er satans verk. Siste vi trenger nå er Mantle, hva faen!? :(

 

Det hadde gjerne vært bedre om en arbeidsgruppe utviklet noe sånt, og på opensource vis. Hva med spillprodusentene, kan ikke de dele litt av sin utviklerstab og utvikle disse API'ene selv så de sparer penger et stykke på veien senere, og kanskje faktisk betydelige besparelser?

Lenke til kommentar

Hvis AMD og Nvidia går sammen får vi et nytt OpenGL eller DirectX, null poeng med noe slikt.

Mantle vil kun fungere på GCN-baserte GPUer i PCer, Nvidia vil ikke støtte det.

Det er sannsynligvis mulig for Nvidia å lage en wrapper for Mantle, men da ender Nvidia opp med samme ytelse som i OpenGL og DirectX mens AMD har en massiv fordel.

 

Mantle er mest sannsynlig dømt tiil å bli en nisje.

 

Hvorfor det, dersom det f.eks. skulle blitt en nytt og bedre produkt enn f.eks. OpenGL?

Lenke til kommentar

 

Vel det eneste logiske må vel være at leserne skal få assosiasjoner til hva nyheten innebærer på en kort men effektiv måte. DirectX er noe folk har et forhold til, og det er kanskje ikke fullt så mange som har et forhold til Direct3D-navnet og kanskje enda mindre Directcompute-navnet?

Det logiske er vel heller at Hardware.no blir mer og mer tabloid, og er mer interessert i å generere pagehits enn å skrive skikkelige artikler.

Hvis leserne ikke vet hva f. eks. Direct3D er, kan de alltids bare google det. Jeg antar at det å google et begrep man er usikker på hva betyr ikke er fremmed, selv om de fleste mennesker jeg har møtt aldri tenker på å gjøre det.

 

 

Hvorfor det, dersom det f.eks. skulle blitt en nytt og bedre produkt enn f.eks. OpenGL?

Fordi OpenGL og Direct3D er høy-nivå-APIer designet for å kunne passe flere forskjellige grafikk-arkitekturer, hva i alle dager er poenget med å utvikle enda en høy-nivå-API for grafikk? Det blir som å be BMW lage en ny type motor som drives av bensin, men som ikke er en forbrenningsmotor, 100% meningsløst.

Lenke til kommentar

At dette kan effektivt bekjempe Microsofts monopol og tvangsforing av Dx gjennom nye windows-versjoner er jo alrede en stor fordel.

 

Men som andre her sier - her burde AMD og Geforce begrave stridsøksen(e) og heller lansere en 100% åpen standard. Skal bare mangle at OS produsent skal bestemme hva min hardware kan og ikke kan brukes til.

Lenke til kommentar

Fordi OpenGL og Direct3D er høy-nivå-APIer designet for å kunne passe flere forskjellige grafikk-arkitekturer, hva i alle dager er poenget med å utvikle enda en høy-nivå-API for grafikk? Det blir som å be BMW lage en ny type motor som drives av bensin, men som ikke er en forbrenningsmotor, 100% meningsløst.

 

Joda, men det er ikke tvil om at måten API'en fungerer på per dags dato er 100% ineffektivt ( ordspill ) når direkte optimalisering har såpass stort utbytte for en Gpu produsent-

Det er jo ganske hårreisende at feks Amd må trå til for å øke ytelsen opp mot det kortet kan levere isteden for at Microsoft via optimaliseringer hadde fått langt bedre ytelser, men for å være ærlig så har jo MS fokusert på Xbox de siste årene så det er ikke rart at Pc markedet har fullstendig stagnert med de elendige løsningene som har vært på plass.

Lenke til kommentar

Til redaksjonen:

  • Mantle kan erstatte Direct3D og Directcompute, ikke DirectX.
  • Hvorfor skrive AMDs egen «DirectX» når det hadde vært langt mer klart om dere skrev AMDs Mantle?

Mine tanker om saken:

Interessant at flere tar i bruk Mantle, men synd at det er så få brukere som får nytte av dette.

DirectX er kansje enkelt å ta i bruk, men hvis man putter alle eggene i en kurv så sliter man om ett eller annet går galt selv om programmet kan kjøre videre..

 

eksempel hvis grafikk å lyd kjører vær for seg, da kan lyden kresje i programfeil.. men spillet vil fungere videre... eksempel League of legends man er i ett viktig spill og DirectX lyden hadde en programmerings feil og det fikk spillet til å kresje selv om det var en tullefeil, i tilleg kan dette ha uheldige situasjoner der det overskreiv en minnedel.. siden DirectX deler hele suppa så kan det plutselig bli en situasjon der man som programmerer er usikker på hva som kresja.. og litt mer å leite gjennom en å bare få opp med en gang lyd modul kresjet (som bare har tilgang til segselv og ikke grafikk så den kan ikke gjøre en større feil)..så man kan fortsette kampen kansje uten lyd eller kansje den can recover siden det er bare å restart lyd delen... eventuelt future Tech.

Grafikken kresja men man har 2 Grafikk moduler så den switcha til neste med lav oppløsning (nød modus).. spillet kjørte videre uansett siden grafikk \ grafikk 2 er separat , samme som cpu \ gpu \ lyd, kansje osv..

..

..

eller scenario 2, DirektX får konkurent, ting blir oppgradert oftere og bedre for å henge med konkurenten, bedre multi gpu støtte, bedre lyd støtte, kansje vi ikke trenger flere instillinger lengere en Master volum, Sound, Music, microphone.

DirectX finner jo ut at du har 3d lyd og bruker den automatisk, og stiller resten inn selv.

Samme med 3D, Min Maxing i dag er tullete, mange vet ikke hva som gjør hva og noen ting gjør ikke forskjell om man slå av og på.. eksempel, AA... javel? tenker mange burde slå den til 0 eller billioner \ trilioner color for å spare resurser... men i dag bygges 3d kort med kjærner som kun gjør den jobben, å slå dem helt av har ingen effekt, uansett vet alle at 2X er godt nok, mer er unødvendig selv om det ikke krever mer av systemet.

så har vi FXAA, shadows, HDR, igjen tullete gimmiks bortsett fra shadows lol :p

Vell shadow er litt spesiel, men somregel er medium grei nok, helt nøyaktige shadows er ikke vits og uansett blir forbedret av andre ting som uansett går over, som HDR, FXAA og "Blurring" (unødvendig) mange begrep her så prøver å holde det enkelt :p

HDR synes jeg må ungås som en pest \ plage, den bruker litt mer resurser en annet og den lager mest blurry effekter når den er brukt dårlig, og selv når den er bra brukt... koster den somregel mer en den smaker.. heller bedre å sette textures (alle typer) til high å få alt litt skarpere, enn at en effekt "blurrer" det ned til medium\low..

Motionblur er rett og slett kvalmende i resurs bruk å den gjør opplevelsen dårligere... den ble brukt til dårlig effekt i Crysis for eksempel.. du snur deg og bildet dreger på etter (bruk Cheat engine og slå på saktemodus, da kan du see hvor mye resurser det tar i tilleg)... når effekten er i gang så kan faktisk et spill lagge med Titan GPU, når ellers alt kjører godt over 100 fps på hd oppløsning,, svaret er ganske enkelt at det er en effekt som fordobler bildet mange ganger eller drar på bilde.. usikker på om crysis bare ikke hadde den optimalisert, men i cheat engine på veldig sakte modus så er det bare å snu seg 360 ganske raskt så ser man fpsn begynner å dale under 100... okai.. for en effekt, i ganske tomt landskap... disable at all cost + at denne gjør deg mindre effektiv i quake combat der det skjer mye samtidig.

Selv liker jeg ikke effekten i rolige spill der jeg vet hvor fienden kommer fra og sikter bare en vei..

 

Errr kan bare skrive bottom line her å lage recap med alle viktige ting.

Kjør HD = 1920x1080, høyere er ikke vitst, men lavere kan lønne seg om man ikke klarer å lese teksten.

High på texturer = SKRU TIL HIGH++!

HDR = ALTID AV

Motion Blur = ALTID AV (om du ikke spiller ett skrekk spill)

AA = 2x

Effects = ja takk (men denne må justeres etter kraft siden effekter kan kreve mye av systemet)

Shadow = Samme som Effects ( denne kunne gått under effects siden å spille uten shadows er dumt i mange fps spill der skygge gir deg hint om fienden).

Postprossessing = Av og til ja takk

Vsync = ALTID JA!, unødvendig å ha gpuen varmere en nødvendig.

FPS = 60-100 (hvis spillet du spiller begynner å gå ned til 30, vurder effekts - 1.

MULTI GPU = HVORFOR ER DETTE ETT SPØRSMÅL, JA! (om man har det), vell kan være greit hvis man har screen tearing.. men da burde i steden DirektX \ Spillet finne finne ut at begge gpuene ikke er i sync å slå av eller gjøre nødvendige justeringer... brukeren burde ikke ha noe med denne å gjøre.. div Ola Normann uten pc kunskaper kjøper seg den kraftigste maskinen på markede med tri sli... men han vet ikke hva MultiGPU er å lar den stå av :p synes pcen e treig å skifter om ett år.

Lenke til kommentar

***Masse annet vas***

 

Errr kan bare skrive bottom line her å lage recap med alle viktige ting.

Kjør HD = 1920x1080, høyere er ikke vitst, men lavere kan lønne seg om man ikke klarer å lese teksten.

HDR = ALTID AV

Motion Blur = ALTID AV (om du ikke spiller ett skrekk spill)

AA = 2x

Vsync = ALTID JA!, unødvendig å ha gpuen varmere en nødvendig.

MULTI GPU = HVORFOR ER DETTE ETT SPØRSMÅL, JA! (om man har det), vell kan være greit hvis man har screen tearing.. men da burde i steden DirektX \ Spillet finne finne ut at begge gpuene ikke er i sync å slå av eller gjøre nødvendige justeringer... brukeren burde ikke ha noe med denne å gjøre.. div Ola Normann uten pc kunskaper kjøper seg den kraftigste maskinen på markede med tri sli... men han vet ikke hva MultiGPU er å lar den stå av :p synes pcen e treig å skifter om ett år.

Hvorfor har du sitert min post her egentlig? Først raver av gårde rundt DirectX der du ikke virker helt enig med deg selv, og mesteparten av det du skriver får jeg heller ikke helt til å stemme (jeg kan utvide senere i dag om du ønsker.) Uansett svarer du ikke på noe av det jeg skriver.

 

Mye av det du skriver her til slutt er jo også rart/feil:

  • Oppløsning bør alltid være identisk til native oppløsning på skjermen, dette gir minst mulig korrupsjon/tap av detaljer.
  • HDR kan bidra mye til et spill, og det kan også skjule en del (mangel på) detaljer, dette kommer an på implementeringen fra utvikleren.
  • Motion blur kommer også an på implementering, Crysis-serien har jo stort sett alltid hatt en fantastisk implementering av dette, og effekten kan også skjule temporal aliasing til en viss grad. I enkelte spill som prøver å fremstå som "autentiske" burde det ikke engang være et alternativ for å skru av engang.
  • Multisampling AA har definitivt noe for seg på nivåer over 2x, Half-Life 2 er et kroneksempel der du virkelig ser stor forskjell på 2x, 4x, 8x MSAA, 4x, 8x, 16x, 32x CSAA, og forskjellige andre varianter fra AMD/Nvidia, og det er også lett å se forskjell i spill som BF4 om du har noenlunde normale øyne.
  • Vsync burde ikke alltid være på, dette kommer an på dine krav som spiller ettersom det kan føre til hakkete animasjoner ved å vise en frame på to oppdateringer, mye tapt ytelse fordi du må sørge for å ha nok til konstant 60/120/144 fps, økt inputlag ettersom spillmotoren ikke kjører så fort som maskinen makter (mot at du får konstant inputlag,) økt inputlag som følge av Triple Buffering som nesten alltid blir aktivert i dagens spill.
  • Multi-GPU har jo alltid problemer om du ønsker optimal opplevelse, mye av problemet kommer av at DirectX i seg selv ikke er klar over at det er flere GPUer til stede, men du er også garantert en (to med 3-SLI/CFX) ekstra frames med inputlag som følge av AFR.
Endret av arni90
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...