Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

AMD Radeon R200-tråden - Diskusjon og spekulasjon


Aerow

Anbefalte innlegg

R9 290 ble vist frem, og ettersom det har 2x 6-pins er det rimelig å anta at det har en TDP tilsvarende 7950.

 

For de som lurer på klokkefrekvenser for disse nye kortene: 2816 ALUer som yter 5000 GFLOPS betyr at de har en klokkefrekvens på ca 890 MHz, det er ikke utrolig om AMD klarer å kjøre en Hawaii XT klokket på 900MHz med en 250W Powertune. Jeg håper bare at AMD skjønner de må åpne opp for mer enn +20% effekt i Powertune for overklokkerne da.

Ah, ser det nå. Men hvis 290X har en TDP på 300W må de ha kuttet ut mye på 290 hvis de skal klare 200W.
Endret av Aerow
Lenke til kommentar
Videoannonse
Annonse

Hvis Mantle skal være et alternativ til DirectX må det ha: Graphics API, Sound-API, Input-API og Network-API, AMD presenterte Mantle som en Graphics-API og det er derfor ikke et alternativ til DirectX. Det virker heller som om Mantle er en utvidelse til Direct3D11 for optimalisering av rendering.

 

Spesifikt hva er det du mener er galt med DirectX? Direct3D11 støtter jo flertrådet rendering det også, og hvor er det DirectX genererer så voldsomt mye overhead?

 

 

Vel du har den ene siden, som er spillutvikleres klagemål mot at de ikke får tilgang til maskinvaren på at "the very low level", som AMD og spillutviklere staterte flere år tilbake tid. Og så har du problemet med overhead, som selv din egen kilde nedenfor viser til.

 

Når det gjelder støtte til flere kjerner: det er forskjell mellom halvhjertet flertrådet rendering og ordentlig støtte til 8 kjerner, slik det ble snakket om angående Mantle og BF4. BF3 kunne også ta i bruk 8 kjerner på min FX-8350, men det er noe helt annet enn det vi kommer til å se med BF4, der selve spillet faktisk sikter seg inn på å bruke alle 8 mulige kjerner.

 

I BF3 merket man for eks. knapt noen ytelsesforskjell mellom en 3570K,3770K, 3930K og FX-8350 (skillen var naturligvis større mellom FX-8350 og Intels prosessorer). Det var fordi BF3 verken trengte eller utnyttet, mer enn 4 kjerner. Med BF4 vil dette forandre seg.

Endret av La Menthe
Lenke til kommentar

 

Vel du har den ene siden, som er spillutvikleres klagemål mot at de ikke får tilgang til maskinvaren på at "the very low level", som AMD og spillutviklere staterte flere år tilbake tid. Og så har du problemet med overhead, som selv din egen kilde nedenfor viser til.

 

Når det gjelder støtte til flere kjerner: det er forskjell mellom halvhjertet flertrådet rendering og ordentlig støtte til 8 kjerner, slik det ble snakket om angående Mantle og BF4. BF3 kunne også ta i bruk 8 kjerner på min FX-8350, men det er noe helt annet enn det vi kommer til å se med BF4, der selve spillet faktisk sikter seg inn på å bruke alle 8 mulige kjerner.

 

På BF3 merket man for eks. knapt noen ytelsesforskjell mellom en 3570K,3770K, 3930K og FX-8350 (skillen var naturligvis større mellom FX-8350 og Intels prosessorer). Det var fordi BF3 verken trengte eller utnyttet, mer enn 4 kjerner. Med BF4 vil dette forandre seg.

På klokkefrekvens, så skalerer bf3 meget bra med meshquality på max. Synn at det hjelper lite med 6 vs 4 kjerner cpu :(

 

Hjelper det minst 15% i bf4 ,blir jeg glad :D

Endret av Nizzen
Lenke til kommentar

 

Vel du har den ene siden, som er spillutvikleres klagemål mot at de ikke får tilgang til maskinvaren på at "the very low level", som AMD og spillutviklere staterte flere år tilbake tid. Og så har du problemet med overhead, som selv din egen kilde nedenfor viser til.

 

Når det gjelder støtte til flere kjerner: det er forskjell mellom halvhjertet flertrådet rendering og ordentlig støtte til 8 kjerner, slik det ble snakket om angående Mantle og BF4. BF3 kunne også ta i bruk 8 kjerner på min FX-8350, men det er noe helt annet enn det vi kommer til å se med BF4, der selve spillet faktisk sikter seg inn på å bruke alle 8 mulige kjerner.

 

På BF3 merket man for eks. knapt noen ytelsesforskjell mellom en 3570K,3770K, 3930K og FX-8350 (skillen var naturligvis større mellom FX-8350 og Intels prosessorer). Det var fordi BF3 verken trengte eller utnyttet, mer enn 4 kjerner. Med BF4 vil dette forandre seg.

Jeg er klar over at Direct3D har overhead, spørsmålet mitt var om du visste hvor man finner overhead i Direct3D.

 

Nå har vi kun markedsføringsslidesene til AMD for at BF4 er flertrådet, det har ikke kommet noen detaljer om hvordan spillet har blitt flertrådet elelr hvor mye bedre det har blitt på å fordele arbeid ut over flere kjerner sammenlignet med BF3.

I BF3 merker man forskjell på en firekjerner og en firekjerner med HTT aktivert, men primært er det enkelttrådet ytelse som regjerer i BF3, med tanke på hvor kort tid det er siden BF3 kom ut er det liten grunn til å tro at Frostbite 3 vil ha gått over fra simultant arbeid på enkelte prosesser til å dele opp hver prosess i pakker så spillmotoren er virkelig flertrådet.

Lenke til kommentar

 

 

Nå har vi kun markedsføringsslidesene til AMD for at BF4 er flertrådet, det har ikke kommet noen detaljer om hvordan spillet har blitt flertrådet elelr hvor mye bedre det har blitt på å fordele arbeid ut over flere kjerner sammenlignet med BF3.

I BF3 merker man forskjell på en firekjerner og en firekjerner med HTT aktivert, men primært er det enkelttrådet ytelse som regjerer i BF3, med tanke på hvor kort tid det er siden BF3 kom ut er det liten grunn til å tro at Frostbite 3 vil ha gått over fra simultant arbeid på enkelte prosesser til å dele opp hver prosess i pakker så spillmotoren er virkelig flertrådet.

 

Fulgte du ikke med i livestreamen? Det var DICE sin egen teknikersjef, Johan Andersson, som i sin 15 minutter lange presentasjon sa at BF4, sammen med Mantle, ville "utilize all 8 cores". Det er noe helt annet enn 4 kjerner, som var mer enn nok i BF3. Det gir dessuten mening, da BF4 markerer begynnelsen på spill optimalisert for Next-Gen hardware, som jo inkluderer 8-kjerners prossessorer.

 

Hvorvidt man merker forskjell med/uten hyperthreading med 4 kjerner i BF3 (den forskjellen er dessuten ganske liten), er irrelevant i forhold til om man merker forskjell mellom 4 og 8 kjerner i BF4. BF4 har, uansett hvor kort tid du føler det er, (2 år, hvor blant annet Next-Gen konsoller har gjort sitt intro, er mer enn nok tid) ordentlig støtte for flere enn 4 kjerner.

Endret av La Menthe
Lenke til kommentar

Hvis dette viser seg å være sant kommer Nvidia til å slite noe voldsomt.

 

På hvilken måte da?

Synes det er en uting at spillutviklere velger å spesialtilpasse spill til en spesiell produsent, dette hemmer konkurranse.

Direkte latterlig og flaut under den seansen der han presenterte; Crytek chose AMD, ditt og datt chose AMD.

I grunn så er slike hendelser som dette utelukkende for å skape blest rundt seg selv, og veldig unødvendig. Hvor mye oppstyr trenger man egentlig for å lansere 4 rebrandede skjermkort og skryte uhemmet av det, som om det var en helt ny teknologi? Folk går sikkert på limpinnen denne gangen også. Riktignok ble det lansert en ny kjerne da, og det er veldig bra og viktig, og det eneste som egentlig var interessant.

Lenke til kommentar
Direkte latterlig og flaut under den seansen der han presenterte; Crytek chose AMD, ditt og datt chose AMD.

Skal innrømme jeg var lite imponert over dette, men nå skal ikke akkurat nVidia påstå at de er noe bedre heller.

 

 

Synes det er en uting at spillutviklere velger å spesialtilpasse spill til en spesiell produsent, dette hemmer konkurranse.

 

At vi får en low-level API for skjermkort er fantastisk egentlig. Men som vanlig er det enormt kjedelig hvis hardwaren ikke støtter funksjonaliteten.

 

Og igjen er det ikke akkurat noe som nVidia kan skryte at de ikke gjør. CUDA og PhysX er rimelig klinkeklare eksempler på noe som egentlig er verre, siden deriblant den siste er aktivt tvunget ut av hendene til AMD brukere som ønsker å bruke et physX kort ved siden.

 

Det er helt opp til nVidia å ta nytte av Mantle, og det bør de hvis devs syns det er et så godt verktøy som de prøver å gjøre det til atm.

Endret av Drunkenvalley
Lenke til kommentar

Jeg er utrolig spent på hvilken faktiske ytelse 290X vil gi i forhold til 780/Titan. Jeg er litt skeptisk ettersom AMD hyper 290X noe veldig.. Kanskje det skuffer, kanskje ikke..

 

Hvis pris blir rundt 5k, så tipper jeg ytelse rundt 780, men slår titan med en liten del i bf4. I alle fall før nvidia får optimaliserte drivere til bf4.

Lenke til kommentar

 

Hvis pris blir rundt 5k, så tipper jeg ytelse rundt 780, men slår titan med en liten del i bf4. I alle fall før nvidia får optimaliserte drivere til bf4.

 

Det er sant. Men dersom det er så å si likt 780, som er et meget godt kort, blir jeg allikevel ikke imponert. Det er klart at det er to år siden AMD kjørte på med 7xxx serien og at nVidia har gitt ut 7xx serien i år, så det er derfor også klart at det vil være gode konkurrenter. Jeg hadde bare trodd at AMD virkelig skulle trå til. Men til tross for dette så vet vi ikke noe om den faktiske ytelsen. Det jeg skriver her blir vel bare muremel og noe krunglete..Beklager på forhånd for noe dårlig formuleringer. :p

Lenke til kommentar

Hvis pris blir rundt 5k, så tipper jeg ytelse rundt 780, men slår titan med en liten del i bf4. I alle fall før nvidia får optimaliserte drivere til bf4.

AMD priser ofte skjermkortene sine litt lavere enn Nvidia. For en stund siden fikk man 7970 GHz til 2999,- pluss tre spill, imotsetning til GTX 680 som både er svakere og kostet 3999kr.

Lenke til kommentar

Vel, AMD kommer i det minste med 4GB RAM, og hvis ytelsen blir tilnærmet lik et 780 ellers med det og en aggressiv pris vil jeg påstå de gjør det rimelig bra.

 

Forhåpentligvis ligger den mer opp mot Titan, selv om jeg ikke er optimistisk nok til å tro de overgår det kortet for å være ærlig.

Endret av Drunkenvalley
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...