Gå til innhold

AMD har lansert kraftkaren «Fury X» og nye Radeon-kort


Anbefalte innlegg

 

Jeg har lagt inn bestilling på 1 stk Fury X bare for og støtte AMD... for og få bedre konkurranse.. men Nvidia har dessverre alt for mange utviklere ombord i forhold til unike Nvidia funksjoner.

Du kan virkelig ingenting om markedsøkonomi. Når kunder handler varer av andre årsaker enn at produktet er det beste valget så virker det kontraproduktivt på markedssituasjonen. Hvis en stor nok kundemasse kjøper en produsents produkter basert på irrasjonalitet så har ikke denne produsenten lenger så sterke insentiver for å øke konkurransen. Kort sagt; er du smart så kjøper du ikke Synnøves ost fordi Tine er "for store", du kjøper det beste produktet for deg.

 

 

Rider du på din høye hest igjen? Nok en gang kritiserer du andre for manglende forståelse for emner du selv ikke kan mye om heller. Om du kunne noe som helst, ville du ha visst at "irrasjonalitet" er en stor del av "markedet". Det generelle målet med reklame, som det emnet du diskuterer er en del av, er å undergrave markeder ved å skape uinformerte forbrukere som gjør irrasjonelle valg; forbrukere som kjøper varer de egentlig ikke ville ha gjort.

 

Det er bare en av mange ting i dagens marked som virker fullstendig kontraproduktivt mot det påståtte frie markedet i lærebøker, som du selv så rått sluker. Det inkluderer konkurransefiendtlige tiltak fra blant annet AMD og nVidia (for det mest sistnevnte).

Endret av La Menthe
  • Liker 4
Lenke til kommentar
Videoannonse
Annonse

 

 

Mantle ble laget fordi AMD ikke ville vente på Direct3D 12. Direct3D 12 har vært planlagt lenge, ja lenge før Mantle ble påtenkt, og har vært i bakhodet da både arkitekturer som GCN og Maxwell ble designet. Mantle er intet mer enn et PR-stunt og en fotnote i historien. AMD var klar over at det aldri ville ta av, men Mantle har hatt den ene formen for suksess som det skulle, nemlig lage blest om AMDs produkter.

Hovedargumentet for Mantle var lavere API-overhead, noe som viste seg å være ganske ubetydelig for normalt kraftige CPUer. For mange spill er det snakk om usle prosenter, og det er faktisk de dårligst designede spillene som får størst gevinst. Det ironiske er at Mantles "vellykkethet" er avhengig av å kjøre dårlig kode på en dårlig CPU... :laugh:

Dette er dine påstander , og jeg er tvertimot ikke enig med deg i det hele tatt. Slik det så ut for noen år siden så hadde ikke Microsoft noe hastverk med å komme med DX 12 , det var først når Amd kom på banen hele 1 og 1/2 år før MS at de i det hele tatt begynte å reagere.

 

1 Folk har dessverre korttidshukommelse. Greit nok at ikke alle fikk med seg at det var snakk om Direct3D 12 like etter lansering av Direct3D 11, og jeg husker snakk om lavere overhead allerede da lenge før Mantle var påtenkt. Men alle skal huske at AMD snakket om at de ville gå sine egne veier i påvente av Direct3D 12.

 

Faktum er at Microsoft hadde startet planleggingen av Direct3D 12 allerede på dette tidspunktet, det fantes naturligvis en skisse på hva slags funksjonalitet de så for seg, men naturligvis ikke en ferdig spesifikasjon. Dette gjøres så tidlig som mulig slik at AMD, Nvidia og Intel har mulighet til å planlegge støtten i brikkene sine, som gjerne gjøres opptil tre år før de havner i butikkhyllene. Dette burde være ingen overraskelse for noen som har brukt mer enn fem minutt på tenke over det, og du kan være rimelig sikker på at løse skisser av "Direct3D 13" er på tegnebrettet innen et års tid fra nå. Mantle er nettopp basert på idéene til Direct3D 12, men er selvsagt en frittstående implementasjon av samme type funksjonalitet. Direct3D 12 har som sagt vært planlagt lenge og ingenting ser ut til å ha fremskyndet det.

 

Amd kom dermed med programvare som viste at det var fortsatt BETYDELIG mye mer å hente fra skjermkortene enn det som ble gjort og det så dermed ut som MS endelig fikk fingeren ut rompa etter å ha prioritert Xbox i størstedelen av de siste årene.

2 Hvor har du dette fra? Jeg har til gode å se at Mantle har økt GPU-effektivitet. Det Mantle har gjort er å redusere API-overhead slik at GPUen idler mindre i situasjoner hvor CPUen er en flaskehals, noe som skjer med svake CPUer i kombinasjon med ineffektiv bruk av APIet.

 

Lav-overhead-funksjoner har faktisk kommet gradvis for OpenGL siden versjon 4, og selv med Mantle, Direct3D 12 og Vulkan er det fremdeles mer slik funksjonalitet i OpenGL så langt. Blant utviklere har det vært kjent i en årrekke at OpenGL er suverent bedre på dette. Så om vi skal spore det egentlige opphavet til API-overhead-fokuset så kommer det fra OpenGL.

 

Og her gjør du nettopp det som passer deg, du drar opp en ankedote og vinkler det slik at driverne til Amd under gitte omstendigheter ( OpenGL ) skal være såpass problematiske og dårlige. Nå er jeg ganske så usikker på hvor mange spill og programvare som jeg bruker som benytter seg av OpenGL , men hadde det vært sånn at driverne er ubrukelige så burde jeg vel ha opplevd store problemer i løpet av de årene jeg har hatt Amd som skjermkort , noe jeg personlig kan (selv om det er en anekdote ) si at jeg ikke har.

3 Dette er absolutt ingen anekdote, her la meg vise deg noe statistikk.

Oversikt over når de ulike driverne har støttet OpenGL-versjoner:

attachicon.gifversions.png

Og her er status for driverstøtten i januar 2015:

attachicon.gifstatus-2015-01.png

Og her i januar 2013:

attachicon.gifstatus-2013-01.png

Jeg var også borti i ~2010/2011 to Catalyst-drivere på rad som ikke ville kompilere nesten noen GLSL-shadere. QA-avdelingen til AMD kunne umulig brukt 5 minutt på teste de releasene.

 

Ingenting av dette er uttrykk for mine personlige meninger, dette er rene fakta.

 

Siden vi begge to ser ut til at vi drar fram personlige erfaringer så kan du jo få lov til å trekke det første kortet og komme med litt fakta som underbygger påstanden din om at Amd har svært ustabile og dårlige drivere som forårsaker blåskjermer og andre store problemer.

4 Du kan spare oss for usannheter, jeg har ikke påstått noe som helst om blåskjermer. Hvis du er interessert i data på det så får du snakke med War, som faktisk har litt datagrunnlag på det.

 

Jeg kan derimot uttale meg om AMD- og Nvidia-skjermkort under Linux til arbeidsstasjonsbruk, for der har jeg ganske greit datagrunnlag. Der er det en enorm klasseforskjell mellom Nvidia og AMD, og så vidt jeg kan se er Linux-driveren til Nvidia mer stabil enn Windows-driveren, mens tilfellet er motsatt for AMD. Det er ikke rent lite jeg har måttet hjelpe kolleger med dette i flere bedrifter jeg har jobbet.

 

Det var faktisk det jeg argumenterte for at ikke lenger er et problem og kunne påpeke at Nvidia faktisk sliter selv med drivere som ofte har diverse problem både i vanlig bruk og i spill som for eksempel :

 

Kepler og Witcher 3

Gta V

Det er godt kjent at enten AMD eller Nvidia typisk kommer med en patch etter et storspill kommer ut, men vet du den faktiske årsaken som ligger bak? Det er en konsekvens av at AMD og Nvidia har hver sine måter å tolke spesifikasjonene på. Nvidia bruker å følge spesifikasjonene mer slavisk. Mange stortitler sponses/assisteres av den ene eller andre produsenten, og da oppstår det gjerne noen småproblemer pga. avvik i de respektive driverimplementasjonene. Dette bruker både AMD og Nvidia å løse gjennom patcher som jobber rundt problemene. Slike ting skulle aldri vært et problem dersom både drivere og spill følgte spesifikasjonene korrekt. Dette problemet har vi også med OpenGL og OpenCL, for sistnevnte har faktisk AMD implementert et subsett av standarden med noen avvik, som gjør at det er en utfordring å få koden til å fungere ordentlig på begge produsenters skjermkort.

 

 

 

1 Å huske tilbake til 2006/ 12 / 13 kan vel neppe kalles for korttidshukommelse. Men sånn i farta ble nåværende Dx 11.X lansert med vista og oppdateringer sluppet frem til 11.2 (Windows 8.1) , med andre ord vi snakker om hele 9 år uten at det skjedde noe så veldig mye og situasjonen var såpass kritisk at Microsoft selv sa at  'DirectX is no longer evolving as a technology. Roy taylor hos Amd kom jo selv med den berømte uttalelsen at "To our knowledge there are no plans for DirectX 12. If that does not agree, and someone wants to correct me - wonderful"

 

Så spørs det om dette fikk Microsoft til å reagere eller om de rett og slett måtte skjerpe seg og kommunisere bedre med Nvidia og Amd , men du kan ikke nekte for at DX utviklingen stoppet opp og det var først de to siste årene etter at Amd fokuserte på dette og Mantle at det ble fart i Microsoft og nå endelig i løpet av 2015 , nesten 9 år siden man lanserte DX11 ( .2 kom forresten med Windows 8.1 ) så dukker den siste versjonen opp av DX som kan muligens utnytte bedre moderne skjermkort og Apu'er / Cpu'er.

 

2 Flere tester viser at skjermkortene til Amd yter bedre ved bruk av Mantle enn DX11 , i noen gitte situasjoner er det såpass mye som 33% mer ytelse man får i form av fps kontra bruk av DX11. Når man ser på listen over ser man også at "Sterkere" cpu'er er med som har i utgangspunktet en langt bedre IPC enn det FX 8350 har , allikevel så ender man opp omtrent med samme fps.

 

Det er godt mulig at OpenGl har  utviklet og brukt lav api overhead lenge , da er det kanskje litt rart at Microsoft var såpass trege med utviklingen av DX12 og at det fram til ca 2013/14 og mye styr plutselig våkner fra dvalen og annonserer DX12. Jeg tolker det uansett personlig som at de ikke anså OpenGl som en utfordrer og at det var først når et av de 2 store selskapene som utvikler skjermkort fikk litt fokus at de våknet opp.

 

3 Flott at du kommer med litt statistikk på Linux driverstøtten til Opengl på Nvidia og Amd skjermkort , kan være greit å minne deg på at Linux sin markedsandel er på omtrent 1.57% og at de fleste gamerne faktisk sitter på en Windows versjon av oset , og som jeg påpekte i mitt tidligere innlegg har jeg ikke opplevd nevneverdige problemer med OpenGl og Windows som forårsaket at spillet stoppet opp å fungere , BSOD osv...

 

Merk , jeg nekter faktisk ikke på dårlig driverstøtte for Linux og OpenGL , men sannheten er faktisk at størsteparten av brukerne vil ikke oppleve de problemene du har til daglig i forhold til hvordan arbeidsmaskinene dine oppfører seg (forhåpentligvis har du skiftet til Nvidia for mange år siden og det er lenge siden du har hatt med Amd å gjøre ).

 

Men uansett så vil jeg fortsatt påstå at som forbruker og eier av et Amd system så har jeg stort sett ikke opplevd problemer med spill og programvare i DX  Mantle eller OpenGl og det er det som er viktig for sluttbrukeren. En annen ting er at det blir svært overdrevet at Windows driveren til Amd skal være så utrolig dårlig , den er slik jeg har erfart det og trolig mange andre også helt grei , stabil og gjør jobben sin i de spillene jeg har tilgjengelig.

Er den perfekt? Nei , sikkert mye som kan fikses , men det er en enorm forskjell mellom det og all den sytingen og klagingen en del personer kommer med og ofte så er det helt elleville påstander som på ingen måte stemmer i forhold til dagens situasjon i Windows i det minste.

Når det gjelder Linux som er arbeidsplatformen din så tviler jeg ikke på at problemene dine stemmer , har selv eksperimentert flere ganger med forskjellige Linux distroer og har aldri vært helt fornøyd med ytelsen man har fått med Amd der kontra Windows , men igjen så har i det minste Oset fungert greit for meg og kan ikke helt si at jeg har brukt det til å spille med så kan på ingen måte si at OpenGl har fungert som det skal for meg.

  • Liker 2
Lenke til kommentar

Hvilken MiniPC snakker dere om ift. Nano kortet? Er interessert i dette da jeg ønsker å bygge en mindre PC. Man får jo også MiniITX utgaver av 970 osv. Hva gjør Nano annerledes?

 

 

Samt en annen ting:

 

"R9 Nano er nemlig kun 15 centimeter langt og skal yte litt svakere enn R9 Fury X, men bedre enn R9 290X. Ifølge AMD bruker kortet også halvparten så mye strøm som R9 290X, men gir altså dobbelt så god ytelse per watt."

 

I følge denne teksten skal Nano kortet yte likt som R9 290X, ikke bedre.

Endret av Theo343
Lenke til kommentar

Hvilken MiniPC snakker dere om ift. Nano kortet? Er interessert i dette da jeg ønsker å bygge en mindre PC. Man får jo også MiniITX utgaver av 970 osv. Hva gjør Nano annerledes?Samt en annen ting:"R9 Nano er nemlig kun 15 centimeter langt og skal yte litt svakere enn R9 Fury X, men bedre enn R9 290X. Ifølge AMD bruker kortet også halvparten så mye strøm som R9 290X, men gir altså dobbelt så god ytelse per watt."I følge denne teksten skal Nano kortet yte likt som R9 290X, ikke bedre.

Det står da vitterlig "bedre enn" i teksten, ikke "likt" :-)

Endret av Karamell
  • Liker 1
Lenke til kommentar

 

Hvilken MiniPC snakker dere om ift. Nano kortet? Er interessert i dette da jeg ønsker å bygge en mindre PC. Man får jo også MiniITX utgaver av 970 osv. Hva gjør Nano annerledes?Samt en annen ting:"R9 Nano er nemlig kun 15 centimeter langt og skal yte litt svakere enn R9 Fury X, men bedre enn R9 290X. Ifølge AMD bruker kortet også halvparten så mye strøm som R9 290X, men gir altså dobbelt så god ytelse per watt."I følge denne teksten skal Nano kortet yte likt som R9 290X, ikke bedre.

Det står da vitterlig "bedre enn" i teksten, ikke "likt" :-)

 

Korrekt observert. Men... så i neste linje står det.

"Ifølge AMD bruker kortet også halvparten så mye strøm som R9 290X, men gir altså dobbelt så god ytelse per watt."

Hvordan får du det til å bli noe annet enn eksakt samme ytelse?

 

Det kan dog være at jeg hang meg opp i akkurat dette og at Nano kortet yter bedre fordi det ikke bruker halvparten av strømmen likevel men litt mer?

Endret av Theo343
Lenke til kommentar

Karamell, korrekt observert. Men så i neste linje står det."Ifølge AMD bruker kortet også halvparten så mye strøm som R9 290X, men gir altså dobbelt så god ytelse per watt."Hvordan får du det til å bli noe annet enn eksakt samme ytelse?

Det er nok bare en tilnærming. Jeg tror heller ikke tallene kan deles nøyaktig på to, det ville være for teit. La oss si det ene bruker 150 watt og det andre 85, da kan man kanskje strekke omtalen av dette til å være halvparten.

,

Lenke til kommentar

 

 

Hvilken MiniPC snakker dere om ift. Nano kortet? Er interessert i dette da jeg ønsker å bygge en mindre PC. Man får jo også MiniITX utgaver av 970 osv. Hva gjør Nano annerledes?Samt en annen ting:"R9 Nano er nemlig kun 15 centimeter langt og skal yte litt svakere enn R9 Fury X, men bedre enn R9 290X. Ifølge AMD bruker kortet også halvparten så mye strøm som R9 290X, men gir altså dobbelt så god ytelse per watt."I følge denne teksten skal Nano kortet yte likt som R9 290X, ikke bedre.

Det står da vitterlig "bedre enn" i teksten, ikke "likt" :-)
Korrekt observert. Men... så i neste linje står det."Ifølge AMD bruker kortet også halvparten så mye strøm som R9 290X, men gir altså dobbelt så god ytelse per watt."Hvordan får du det til å bli noe annet enn eksakt samme ytelse?Det kan dog være at jeg hang meg opp i akkurat dette og at Nano kortet yter bedre fordi det ikke bruker halvparten av strømmen likevel men litt mer?

Uansett blir det ikke kjøpt en drit uten pålitelige tester. ;-)

  • Liker 2
Lenke til kommentar

Ergo er posten min korrekt men muligens artikkelen skrevet feil :) Uansett, det blir fint å få avklart hva Nano faktisk yter, varmeutvikling osv.

Det blir meget kjapt, lille Nano:P

 

 

 

In fact, AMD confirmed to us that the Radeon R9 Nano is about 85-90% of Radeon R9 Fury X (in terms of performance).
  • Liker 1
Lenke til kommentar

Men jeg er litt spent om AMD kan måle seg mot nvidia, selv etter 7 mnd! Tror prisen kan bli avgjørenede denne gangen. Kun Fury som er intresant her, og resten av 300 serien kan vi kanskje glemme! Men så er det prisen som skremmer 99% av oss bort i fra Fury kortene! Venter heller til slaget om 2016!

 

Hvorfor skremmer prisen dere bort?? Nvidia gjør jo dette hele tiden men når AMD lanserer dyre kort blir alle helt forfjamset? Syns det er på tide at de satset på noe ordentlig kraftig kort som kanskje ikke alle har rå til.
Lenke til kommentar

Hvorfor er spørsmålet om Mantles effektivitet i det hele tatt et problem her? Det er rimelig opplagt at det har gitt store ytelsesforbedringer. 100% (dobbelt) økt FPS er ikke uvanlig. Det gjelder "svake" CPUer såvel som "sterke": http://www.techpowerup.com/forums/threads/an-amd-mantle-users-testing-bf4.198941/

Det er testet med multiplayer map, i tillegg er det en forum bruker som tester. Jeg tror mye mer på techspot sin grundige test. Den viser det effikan sier. Jeg ser ikke helt hvorfor dere bruker det som bevis mot det han sier. Du har minimal forbedring når du bruker gode CPUer ved 1080p og oppover. Der du får forbedring er lav oppløsning, dårlig kodede spill og svake CPUer. Altså som en AMD APU som spiller ved 720p. Ikke akkurat revolusjonerende for de fleste som spiller?

 

Et i3 + GTX 960 system ved 1080p vil jo merke minimal forskjell. Dermed blir effekten med Mantle ikke veldig stor.

 

Ellers er rebrand-testene ute: http://www.techspot.com/review/1019-radeon-r9-390x-390-380/

R9 390X ser ut som et ganske dårlig kjøp. Ellers ser det ikke ut til å være veldig revolusjonerende akkurat.

Endret av TKongen
  • Liker 1
Lenke til kommentar

Så hva er det du sier? At hvis man har en eldre CPU, som en i7 860 eller en AMD Phenom II x6 1090T, så er man plutselig irrelevant i diskusjonen? At Mantles betydning, som nettopp er det å fjerne flaskehalsen på disse CPUene, ikke er viktig å inkludere når de enorme forbedringene faktisk er av stor vesentlighet?

 

Jeg vet det er vanskelig å tro, men de fleste PC-brukere der ute kaster ikke bort pengene sine på en 5000-kroners Intel-CPU hvert eneste år.

 

 

 

Du har minimal forbedring når du bruker gode CPUer ved 1080p og oppover. Der du får forbedring er lav oppløsning, dårlig kodede spill og svake CPUer. 

 

Tullprat. Hadde du brukt tiden til å lese kilden min, hadde du sett av en av brukerne bruker en Sandy Bridge prosessor, og fikk 70% økt FPS. På Battlefield 4 i 1080P og på Multiplayer. Jeg stoler mer på en Multiplayer-test, der CPUen faktisk får en del å jobbe med, enn Techspots singleplayer-benchmarks. Føger vi bare singleplayer-benchmarks er jo det tross alt i bare de ytterste få tilfeller/spill at en Intel-prosessor har relevant foorsprang over en FX-8350; multiplayer er det som er viktig.

 

Videre viser Anandtechs tidlige tester av Mantle på Battlefield 4 i singleplayer ca. 10% økt ytelse for de beste CPUene. Du og effiaken liker kanskje å kalle det "minimal forbedring". Men la meg minne dere på at selv 10% økt ytelse er mer økt ytelse enn det jeg for eks. har fått fra Intel-CPUer de siste 4-5 årene. 10% økt ytelse er også mer enn det majoriteten PC-entusiaster (som jeg at antar du er) klarer få gjennom å overklokke sine GPUer.

 

I denne testen fra WCCFTech der man tar i bruk en 4770K med forskjellige high-end GPUer på Thief, får man 10-20% økt ytelse i 1080P.

 

 

 

Et i3 + GTX 960 system ved 1080p vil jo merke minimal forskjell. Dermed blir effekten med Mantle ikke veldig stor.

 

Vrøvl. Intet mer, intet mindre. Som Anandtech-testen ovenfor viste, så får en i3-4340 ca. 25% økt ytelse i Battlefield 4 i singleplayer (sansynligvis enda mer i multiplayer). Det er like mye som en ny generasjon grafikkort.

Endret av La Menthe
  • Liker 1
Lenke til kommentar

 

Ellers er rebrand-testene ute: http://www.techspot.com/review/1019-radeon-r9-390x-390-380/

R9 390X ser ut som et ganske dårlig kjøp. Ellers ser det ikke ut til å være veldig revolusjonerende akkurat.

 

 

Vel, svaret fra AMD her er jo alt for lite og alt for sent. Men det finnes tilfeller der dette på ingen måte er dårlig. Hvis vi setter pris inn i bildet og legger til ting som FreeSync monitor og Mantle. Så er jo dette gode tilbud for folk på budsjett som ønsker å kaste pengene sine på AMD. Folk som for eksempel sitter på en svak CPU men som ønsker å oppgradere skjermkortet først kan jo få økt ytelse i Mantle spill. FreeSync skjermene er gjerne en tusenlapp billigere enn sine G-Sync søsken. Så om skjermkortene i tillegg er samme pris eller billigere enn Nvidia konkurentene så syns jeg dette er hårfint bedre kjøp for øyeblikket. Men nå har jo Nvidia i praksis vært alene på skjermkortmarkedet i 9 måneder, og har tjent i bøtter å spann på sin 900 serie. De kan sannsynligvis enkelt skru ned prisen på sine GPU'er nå, og gjøre det tøft for AMD å tjene penger.

 

Et par ting virker uansett opplagt: Hverken 980 eller 390X er egnet til 4K spilling i enkel GPU oppsett. Det gjør potensielt de 4GB'ene med VRAM ekstra på 390X helt eller delvis bortkastet. Altså unødvendig fordyrende, og strømkrevende. Men i Dual GPU oppsett kan de jo gjøre 390/X til et bedre alternativ enn GTX970/980. Det blir interessant å se 390/X CF mot GTX970/980 SLI benchmarks. Dette kan jo for øyeblikket bli eneste muligheten for enkelte til å få brukendes fps i 4K.

Lenke til kommentar

Jeg sier ikke at de som sitter på ganske gamle CPUer, eller svake APUer er uviktige. Mantle har gjort en veldig god jobb her, det betviler jeg ikke. Jeg har heller ikke påstått noe annet. Likevel skal liksom Mantle være en stor forbedring for alle, det er ikke tilfelle. Det er bare i svake konfigurasjoner du ser et betydelig utslag.

 

Du overdriver utrolig mye med å si at ikke alle kjøper ny Intel CPU til 5000 kr hvert år! Selv brukte jeg en CPU til 1000 kr som eksempel. Tester viser klart at når CPUen er såpass kraftig som en i3 så er forskjellen til i7 ikke eksisterende. Det samme gjelder den svakere FX-8350, men denne koster ekstra på grunn av dens ekstra funksjon som varmeovn.

 

Multiplayer tester bruker mer CPU, men det er et viktig problem her. Kombinasjonen forumbruker og multiplayer gjør at en ikke kan stole på resultatene! Jeg kunne gått på det forumet, og skrevet at jeg fikk -30% ytelse ved bruk av Mantle på min i7-5960X. Det er en grunn til at techspot ikke tester multiplayer. De er en av de nettsidene som setter testmetodikk høyest, og tester nøyest. Multiplayer egner seg ikke, det er for mange usikre parametere. Kom med skikkelige tester, ikke bare siter noen tall noen andre har fått ved høyst usikre tester!

 

Igjen er techspot sin test langt grundigere enn de andre testene her. Hvis du tar mitt eksempel, der 960 er byttet ut med 280X. I Battlefield får du 5% høyere ytelse ved 1200p, og i Thief får du 7%. Det er jo absolutt respektabelt, og en god økning, men langt ifra revolusjonerende. Du må altså ned til lave oppløsninger og svake CPUer før du virkelig ser en stor forskjell. du sier at det er 25% økning for i3, men "glemmer" at du bruker offisielle tall fra AMD. Noe av det minst troverdige du kan oppdrive.

 

Ellers så kan du jo lett se her: http://www.techspot.com/review/1006-the-witcher-3-benchmarks/page6.html

NVIDIA sine kort som er bygd rettet mot deres Gameworks, blant annet Hairworks gir jo betydelige fordeler for NVIDIA Maxwell. Dette er større fordeler enn Mantle gir. Mantle er jo kun støttet av veldig få spill. Det er ikke mange spill med NVIDIA Gameworks heller. Så når du tenker på sluttbruker og ytelse så er det like godt intensiv for å gå for NVIDIA som gir bedre ytelse i spill som bruker gameworks aktivt, som AMD Mantle.

 

I tillegg er det jo som effikan sier. Mantle var bare AMD som lanserte noe som skulle komme i DirectX tidlig. Jeg har sett uttalelser, men jeg har ikke sett forklaring på hvordan Maxwell ble bygd med støtte for noe som åpenbart ikke fantes. Mantle blir i den grad like ille som NVIDIA Gameworks. For sluttbruker blir resultatet det samme også, gjerne bortsett fra at NVIDIA ser betydelig mindre tap i ytelse ved hairworks enn AMD. På den andre siden gir Mantle 5-10% bedre ytelse. Etter lanseringen av DX12 så står fortsatt NVIDIA igjen med gameworks, men AMD har ingenting. Ser ikke helt hvordan Mantle er så bra, med mindre du har en veldig svak CPU? Ser ikke helt hvordan dette er en så utrolig av AMD? Burde ikke AMD bruke pengene sine på å lage faktiske produkter eller annen markedsføring, istedenfor å lansere enn DX12 funksjon, før DX12 kommer ut? De som tjener mest på Mantle er dessuten de AMD tjener minst på.

Lenke til kommentar

 

Du kan virkelig ingenting om markedsøkonomi. Når kunder handler varer av andre årsaker enn at produktet er det beste valget så virker det kontraproduktivt på markedssituasjonen. Hvis en stor nok kundemasse kjøper en produsents produkter basert på irrasjonalitet så har ikke denne produsenten lenger så sterke insentiver for å øke konkurransen. Kort sagt; er du smart så kjøper du ikke Synnøves ost fordi Tine er "for store", du kjøper det beste produktet for deg.

<klipp>

Det er bare en av mange ting i dagens marked som virker fullstendig kontraproduktivt mot det påståtte frie markedet i lærebøker, som du selv så rått sluker. Det inkluderer konkurransefiendtlige tiltak fra blant annet AMD og nVidia (for det mest sistnevnte).

 

Du klarer virkelig ikke å fatte poenget.

 

Når vi har en situasjon som i CPU-markedet hvor AMD dessverre er totalt underlegne i dag, så er det kontraproduktivt at AMD har en fanskare som bevisst handler dårligere alternativer. Det betyr at AMD kan lene seg tilbake og kutte i risikable investeringer og holde seg til å selge underlegne produkter til sine fans, noe de nylig faktisk har gjort. Når vi har et de facto monopol som i CPU-market i dag, så burde alle slutte med å kjøpe underlegne produkter. Det vil tvinge de som er underlegne til å ta seg sammen eller bukke under. For det er ikke noen konkurranse når situasjonen er som i dag, og da gagner det selvsagt heller ingenting for oss som konsumenter. Den som tror det er konkurranse på CPU-fronten i dag lever i en fantasiverden.

 

Så spørs det om dette fikk Microsoft til å reagere eller om de rett og slett måtte skjerpe seg og kommunisere bedre med Nvidia og Amd, men du kan ikke nekte for at DX utviklingen stoppet opp og det var først de to siste årene etter at Amd fokuserte på dette og Mantle at det ble fart i Microsoft og nå endelig i løpet av 2015, ...

Det der er en total forvrengning av virkeligheten. Som både jeg og HKS har påpekt så har egenskapene til Direct3D 12 vært planlagt i lang tid, også før Mantle. Microsoft liker å knytte DirectX opptil Windows-lanseringer, men hvis det hadde vært et fnugg av sannhet i det du sier så hadde vi sett Direct3D 12 lansert innen både AMD og Nvidia hadde slik maskinvare på banen, dvs. senest i fjor høst.

 

Hvis du studerer ytelsen til Battlefield 4 så ser du at fordelene er forsvinnende små for greie CPUer, og fordelene kommer til å bli ennå mindre i fremtidige mer moderne spill. Selv om lavere overhead selvsagt er fint, så blir viktigheten av dette alene mindre for hver dag som går hvor spill implementeres med smartere bruk av GPUen.

 

Du lurer kanskje på hvorfor overheaden blir mindre med optimaliseringer? Utviklere snakker ofte om "draw calls" som er én type API-kall, men for hvert objekt som tegnes gjøres det en rekke API-kall; som å binde teksturer og meshes, aktivere shadere og til slutt det faktiske tegnekallet. Hvert API-kall medfører en viss overhead, spesielt pga. intern validering av tilstander i driveren. Men alle som har kjennskap til grafikkprogrammering vet at løsningen på dette er å tegne ting i batches som lar GPUen jobbe mye mer effektivt og faktisk eliminerer API-kall, fremfor å fokusere på reduksjon i overhead for hvert enkelt kall. Så for de som maksimerer antall API-kall vil Direct3D 12, Mantle, Vulkan og et subsett av OpenGL være kjærkomment, men bare fordi at de skriver dårlig kode.

 

Flott at du kommer med litt statistikk på Linux driverstøtten til Opengl på Nvidia og Amd skjermkort, kan være greit å minne deg på at Linux sin markedsandel er på omtrent 1.57% og at de fleste gamerne faktisk sitter på en Windows versjon av oset...

Hensikten min var ikke å fokusere på Linux, men å vise ett aspekt av kvaliteten på OpenGL-støtten. OpenGL brukes ikke bare på andre plattformer enn Windows, men i en programmer som Chrome og litt i Firefox, i blant annet Photoshop, åpenbart CAD og modellering, og selvsagt i en del spill. De siste årene har Valve hatt en storsatsing på OpenGL som vi vil se med nylanserte Source 2. OpenGL brukes også i en stor andel av spill fra uavhengige utviklere, så de fleste av oss bruker OpenGL mye uten å vite det.

 

Så hva er det du sier? At hvis man har en eldre CPU, som en i7 860 eller en AMD Phenom II x6 1090T, så er man plutselig irrelevant i diskusjonen? At Mantles betydning, som nettopp er det å fjerne flaskehalsen på disse CPUene, ikke er viktig å inkludere når de enorme forbedringene faktisk er av stor vesentlighet?

Nei tvert imot. Hvis du leser det jeg skrev over til Malvado så kan CPUen som flaskehals håndteres med å utnytte GPUen på en mer effektiv måte. API-overhead blir først problematisk når utvikleren prøver å maksimere antall drawcalls, og dette er noe som er ganske typisk for konsollutviklere som er vant med lav overhead. Men gevinsten vi oppnår med å optimalisere for programmeringsteknikker som er utgått på dato er minimal, vi oppnår ekstremt mye mer med å optimalisere spillmotorene i stedet. Dette er én av grunnene til at jeg sterkt misliker konsollenes sterke innvirkning på mange spillselskaper.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...