Gå til innhold

AMD Radeon R300-serien/fiji diskusjon og spekulasjon


Anbefalte innlegg

Slår det, eller står likt med 980TI/TX, i de mest relevante oppløsningene og spillene, så er det helt håpløst av AMD å prise det for lavt, særlig siden de har vesentlig bedre ref. kjøler enn ref. TI/X, og null coilwhine, og at det synes å være ekstrem interesse for kortet. Gi bort millioner ved å prise seg for lavt, når det blir revet ut av hyllene for et par lapper høyere pris, er ikke fornuftig business akkurat... Markedsandeler er ikke tapt eller vunnet via slike kort, krige for dette gjøres med billigere kort..

Hvis kortet bare så vidt slår 980TI/Titan X så er det etter min mening en fiasko for AMD.

 

Her går de i likhet med GM200 helt opp i maksgrensen på hva som er mulig med 28nm (det samme gjelder GM200), og de har ifølge AMD en revolusjonerende minnearkitektur som både skal spare strøm og gjøre ting veldig mye bedre. De kommer nå tre måneder etter Nvidia, jeg mener at det bør være minst 20% raskere, og helst gjøre det med mindre strøm enn hva Titan X bruker for at det skal kalles en suksess.

 

Det er helt riktig det du sier. Markedsandeler blir ikke vunnet med slike kort, de er et tapsprosjekt. Noe kan hentes inn med å selge profesjonelle kort med meget høy fortjeneste, men det er ikke så lett med maks 4GB.

Lenke til kommentar
Videoannonse
Annonse

Strømforbruket har veldig lite å si på hvermanns i gata som vil ha et bra kort!

 

De fleste kjøper for ytelsen sin skyld!

Jeg tror folk blir mer og mer obs på det.

Strømforbruk sier også noe om potensiale for å overklokke videre. En annen utfordring AMD har hatt med tidligere kort som jeg håper de har fikset nå er et veldig høyt idle-forbruk hvis du bruker flere skjermer.

 

For Fury X så vil eVGA GeForce 980Ti Hybrid bli en interessant sammenligning. Der har du lignende AIO kjøler, prisen er litt over 7000 kroner.

Endret av HKS
Lenke til kommentar

Er det en magisk grense på strømforbruket til skjermkorta?

 

Ser jo aldri 3x8pins strøm til skjermkorta feks

Egentlig ikke sånn formelt.

 

Men for å få sertifisering av PCI-SIG så skal du ikke gå over 300 W.

For en consumer-GPU spiller ikke dette noen rolle, men hvis du skal inn i servere og arbeidsstasjoner, etc. så er det viktig.

 

En vanlig PCI Express enhet skal ikke trekke mer en 25W fra PCIe slot, unntaket er GPUer som kan trekke 75W.

 

En 6-pin kontakt er standardisert til å levere 75W ekstra.

En 8-pin kontakt kan levere 150W.

Lenke til kommentar

 

Ser jo aldri 3x8pins strøm til skjermkorta feks

 

Neivel?

 

Galskap! :D

Kan levere over 500W kun til GPU. Det er uansett en "limited edition" som kun er laget til å sette klokkerekord med flytende nitrogen. Man ser heldvisvis ikke dette på referansekort.

 

fury blir vel første single-GPU kort med 2 x 8-pin PCIe på referansekortet?

  • Liker 1
Lenke til kommentar

 

Strømforbruket har veldig lite å si på hvermanns i gata som vil ha et bra kort!

 

De fleste kjøper for ytelsen sin skyld!

Jeg tror folk blir mer og mer obs på det.

Strømforbruk sier også noe om potensiale for å overklokke videre. En annen utfordring AMD har hatt med tidligere kort som jeg håper de har fikset nå er et veldig høyt idle-forbruk hvis du bruker flere skjermer.

 

For Fury X så vil eVGA GeForce 980Ti Hybrid bli en interessant sammenligning. Der har du lignende AIO kjøler, prisen er litt over 7000 kroner.

 

EVGA kortet är väl $100 mer än priset på fury x ryktas att säljas för. ($649)

Då bör det ju vara tillsvarande bättre ytelse på kortet, annars är ju Hybridkortet ett fiasko.

Lenke til kommentar

Fra pci-sig

 

A 300W add-in card can receive power by the following methods:

1) 75W from x16 PCIe® connector plus 150W from a 2x4 connector plus 75W from a 2x3 connector.

2) 75W from x16 PCIe connector plus 75W from a first 2x3 connector, plus 75W from a second 2x3 connector, plus 75W from a third 2x3 connector.

– Note that this is not the preferred approach.

 

Grensen for PCIe connector ble økt fra 75 til 150 watt med pcie revisjon 1.0 til 2.1 Og blir brukt med grafikk kort hvor man kun har bus powering.

 

PCI Express cards are allowed a maximum power consumption of 25W (×1: 10W for power-up).

Low profile cards are limited to 10W (×16 to 25W). PCI Express Graphics 1.0 (PEG) cards may increase power (from slot) to 75W after configuration (3.3V/3A + 12V/5.5A).

PCI Express 2.1 increased the power output from an x16 slot to 150W so that some high-performance graphics cards can be run from the slot power alone.

Optional connectors add 75W (6-pin) or 150W (8-pin) power for up to 300W total.

 

 

Så jo butikk grafikk kort med 2 x 8pin PCI-e for 5 år siden så det er ikke noe nytt.

Lenke til kommentar

 

Slår det, eller står likt med 980TI/TX, i de mest relevante oppløsningene og spillene, så er det helt håpløst av AMD å prise det for lavt, særlig siden de har vesentlig bedre ref. kjøler enn ref. TI/X, og null coilwhine, og at det synes å være ekstrem interesse for kortet. Gi bort millioner ved å prise seg for lavt, når det blir revet ut av hyllene for et par lapper høyere pris, er ikke fornuftig business akkurat... Markedsandeler er ikke tapt eller vunnet via slike kort, krige for dette gjøres med billigere kort..

Hvis kortet bare så vidt slår 980TI/Titan X så er det etter min mening en fiasko for AMD.

 

Her går de i likhet med GM200 helt opp i maksgrensen på hva som er mulig med 28nm (det samme gjelder GM200), og de har ifølge AMD en revolusjonerende minnearkitektur som både skal spare strøm og gjøre ting veldig mye bedre. De kommer nå tre måneder etter Nvidia, jeg mener at det bør være minst 20% raskere, og helst gjøre det med mindre strøm enn hva Titan X bruker for at det skal kalles en suksess.

 

Det er helt riktig det du sier. Markedsandeler blir ikke vunnet med slike kort, de er et tapsprosjekt. Noe kan hentes inn med å selge profesjonelle kort med meget høy fortjeneste, men det er ikke så lett med maks 4GB.

20% faktisk. Det tar tid å implementere ny teknologi som HBM. Nvidia valgte den trykke og billige måten og AMD den tidkrevende og nye veien. Det bør AMD få skryt for.

 

"Huang said that for now HBM is too expensive and in limited availability"

 

http://www.zdnet.com/article/computex-2015-nvidia-talks-geforce-gtx-980-ti-android-gaming-and-self-driving-cars/

  • Liker 2
Lenke til kommentar

20% faktisk. Det tar tid å implementere ny teknologi som HBM. Nvidia valgte den trykke og billige måten og AMD den tidkrevende og nye veien. Det bør AMD få skryt for.

 

"Huang said that for now HBM is too expensive and in limited availability"

Vel... HBM gjør minnekontrolleren på GPU veldig mye enkelere, så båndbredden blir veldig mye større. Du trenger heller ikke klokke minnet like høyt, dette er også noe som reduserer kompleksiteten kraftig.

 

Jeg var på en Q&A med en av Nvidia sine arkitektekter for et par månder siden, og Nvidia hadde to ankerpunkter mot HBM (Gen1). Første var at etter de i Maxwell implementerte bedre kompringering av data til minnet så klarte de klarte ikke å få nok ALU'er inn på en 28nm brikke (selv etter at mesteparten av FP64-ALUer ble fjernet) til at en 384-bit GDDR5 bus ble en flaskehals.

Det andre store ankerpunktet var som kjent at Gen1 HBM er begrenset til 4GB, noe som gjør kortet uselgbart i pro-markedet (Quadro) og GPGPU-markedet (Tesla).

 

Så hvis AMD ikke klarer å ved hjelp av HBM slå GM200 med en god margin så forjener de ikke skryt, da tyder det på feil vurdering av når ny teknologi bør integreres.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...