Gjest Slettet+513 Skrevet 22. september 2011 Del Skrevet 22. september 2011 Hadde vært noe om stream prossesorene var CUDA kjerner. De er mye bedre. Lenke til kommentar
Locklear Skrevet 23. september 2011 Del Skrevet 23. september 2011 Anders Jensen skrev (På 22.9.2011 den 18.05): Høres ut som om du har slukt propagandaen fra DRAM kartellene, krok og line. Høres ut som ikke du har fulgt helt med på hva som faktisk skjedd i begge leire her. Se. "Argumentasjonen" din fungerte like fint andre veien også Lenke til kommentar
ovrebekk Skrevet 23. september 2011 Del Skrevet 23. september 2011 Tony*R*White skrev (På 22.9.2011 den 22.59): Hadde vært noe om stream prossesorene var CUDA kjerner. De er mye bedre. Helt enig. AMD burde kopiere kortene til NVidia og selge de samme, konkurranse på sitt beste Om du er så glad i Cuda får du holde deg til NVidia Lenke til kommentar
Revox Skrevet 23. september 2011 Del Skrevet 23. september 2011 Skeptisk til bruk av Rambus... Har temmelig dårlige minner fra forrige gang de var på farta med Intel. Ekstreme priser, dårlig ytelse, masse varme. Eneste som var bra med rambus var tallene på papiret (så man bort ifra busbredden og latency) Dessuten krevde de en haug med lisenspenger fra Intel for å bruke det noe som gjorde hovedkortene dyrere også. Lenke til kommentar
Simen1 Skrevet 23. september 2011 Del Skrevet 23. september 2011 Tony*R*White skrev (På 22.9.2011 den 22.59): Hadde vært noe om stream prossesorene var CUDA kjerner. De er mye bedre. CUDA har hatt stor suksess på grunn av sine GPGPU-egenskaper og jeg regner med det er de du er ute etter. AMD jobber akkurat nå med å bygge mer GPGPU-vennlige shadere enn den gamle VLIW4-arkitekturen. De kaller de nye shaderne for AMD Graphics Core Next, forkortet GCN. Disse kommer med Radeon HD 7950 og 7970 i 1. kvartal. Du kan lese mer om GCN i denne kildeartikkelen. Lenke til kommentar
mad_arab Skrevet 23. september 2011 Del Skrevet 23. september 2011 Revox skrev (På 23.9.2011 den 7.42): Skeptisk til bruk av Rambus... Har temmelig dårlige minner fra forrige gang de var på farta med Intel. Ekstreme priser, dårlig ytelse, masse varme. Eneste som var bra med rambus var tallene på papiret (så man bort ifra busbredden og latency) Dessuten krevde de en haug med lisenspenger fra Intel for å bruke det noe som gjorde hovedkortene dyrere også. Nå er det nesten umulig å grave opp de gamle kildene igjen, men lisenskostnadene for RDRAM var lavere enn for DDR. Rambus henter inn lises på ørten patenter brukt i chipset og lagring som ingen har noen problemer med og frivillig benytter (i motsetning til de vanlige misforståelsene som kun tror det bare dreier seg om RDRAM og et krav på DDR). Prisen på RDRAM oppsett var forårsaket av to ting 1) Prisdumping av DDR fra produsentene som boikottet Rambus (og ble dømt for prisamarbeid) 2) Intel satset for på RDRAM for tidlig og fikk ikke ned produksjonskostnadene på chipset i tide. I ettertid er jeg faktisk overrasket over hvor tung og uvanlig denne satsingen var med tanke på Intels vanligvis mer forsiktige strategi. Om det var lurt eller ikke skal ikke jeg spekulere i, RDRAM leverte ytelse på den tiden og hadde nok fortsatt med det, men Intel kunne neppe ha forutsett prisdumpingen av DDR. Lenke til kommentar
Locklear Skrevet 23. september 2011 Del Skrevet 23. september 2011 (endret) RDRAM hadde vel også en enormt høy latency i Intel implementasjonen som gjorde den mildt sagt lunket mottatt. Er ikke mye positivt å lese om teknologien på Wikipedia Endret 23. september 2011 av Locklear Lenke til kommentar
HKS Skrevet 23. september 2011 Del Skrevet 23. september 2011 Simen1 skrev (På 23.9.2011 den 7.45): Tony*R*White skrev (På 22.9.2011 den 22.59): Hadde vært noe om stream prossesorene var CUDA kjerner. De er mye bedre. CUDA har hatt stor suksess på grunn av sine GPGPU-egenskaper og jeg regner med det er de du er ute etter. AMD jobber akkurat nå med å bygge mer GPGPU-vennlige shadere enn den gamle VLIW4-arkitekturen. De kaller de nye shaderne for AMD Graphics Core Next, forkortet GCN. Disse kommer med Radeon HD 7950 og 7970 i 1. kvartal. Du kan lese mer om GCN i denne kildeartikkelen. Jepp, med GCN så ligner arkitekturen til AMD mye mer på Nvidia sin arkitektur.... Jeg kan komme med en mer teknisk analyse senere. AMD har vel enda ikke bekreftet at GCN kommer allerede i 7000-serien. AMD representantene jeg snakket med på Fusion-sumit når de lanserte GCN indikerte slutten av 2012, og at de regnet med å ha alle produktene (low-end til high-end) over på den nye arkitekturen iløpet av 2013. Lenke til kommentar
Revox Skrevet 23. september 2011 Del Skrevet 23. september 2011 Locklear skrev (På 23.9.2011 den 11.16): RDRAM hadde vel også en enormt høy latency i Intel implementasjonen som gjorde den mildt sagt lunket mottatt. Er ikke mye positivt å lese om teknologien på Wikipedia Og med en 16bit busbredde sammenlignet med 64bit for ddrsdram. Hadde ikke RDram mer enn nøyaktig den samme båndbredden som DDR PC1600. Men med en langt langt høyere latency og pris. Ikke rart det gikk skeis. Og takk og lov for det Lenke til kommentar
Blazer Skrevet 23. september 2011 Del Skrevet 23. september 2011 MistaPi skrev (På 22.9.2011 den 18.55): Blazer skrev (På 22.9.2011 den 17.49): forsåvidt enig, men så spørs det om man faktisk har behov for så mye mer minnebåndbredde. mitt gtx470 har mindre minnebåndbredde en mitt gammle gtx280, men alikevel så yter 470 dobbelt så bra, på grunn av gpu kraft selfølgelig. men det viser at det ikke er minnebåndbredden som holder igjen. Rå minnebåndbredde er en ting, en annen ting er hvor effektvt denne båndbredden blir utnyttet og det har skjedd store forbedringer her. Det er også mer å hente i GDDR5 (oppe i 7GHz nå) og XDR2 er veldig dyrt fra det jeg har hørt, så for ~15% høyere båndbredde er det nok ikke verdt det. så det du mener er at 470 kortet mitt f.eks bruker minnebåndbredden mer effektivt en gtx 280, så derfor blir ikke minnebåndbredden flaskehals selv om den er lik, ? Lenke til kommentar
MistaPi Skrevet 23. september 2011 Del Skrevet 23. september 2011 Blazer skrev (På 23.9.2011 den 13.08): så det du mener er at 470 kortet mitt f.eks bruker minnebåndbredden mer effektivt en gtx 280, så derfor blir ikke minnebåndbredden flaskehals selv om den er lik, ? Ja det er nok tilfellet. Lenke til kommentar
MistaPi Skrevet 23. september 2011 Del Skrevet 23. september 2011 Sitat Raptor' timestamp='1316777496' post='18349167']AMD har vel enda ikke bekreftet at GCN kommer allerede i 7000-serien. AMD representantene jeg snakket med på Fusion-sumit når de lanserte GCN indikerte slutten av 2012, og at de regnet med å ha alle produktene (low-end til high-end) over på den nye arkitekturen iløpet av 2013. Fra Rage3D: "AMD's Graphics Core Next Gen architecture is scheduled to appear in products due in Q4, 2011, as both Eric Demers and Rick Bergman confirmed for us." - http://www.rage3d.com/interviews/amdchats/eric_demers_july_2011/index.php?p=4 Lenke til kommentar
Theo343 Skrevet 23. september 2011 Del Skrevet 23. september 2011 (endret) Simen1 skrev (På 23.9.2011 den 7.45): Tony*R*White skrev (På 22.9.2011 den 22.59): Hadde vært noe om stream prossesorene var CUDA kjerner. De er mye bedre. CUDA har hatt stor suksess på grunn av sine GPGPU-egenskaper og jeg regner med det er de du er ute etter. AMD jobber akkurat nå med å bygge mer GPGPU-vennlige shadere enn den gamle VLIW4-arkitekturen. De kaller de nye shaderne for AMD Graphics Core Next, forkortet GCN. Disse kommer med Radeon HD 7950 og 7970 i 1. kvartal. Du kan lese mer om GCN i denne kildeartikkelen. Host, det jeg lurte på stod i linken.. Endret 23. september 2011 av Theo343 Lenke til kommentar
Simen1 Skrevet 23. september 2011 Del Skrevet 23. september 2011 Foreløbige og ryktebaserte specs: 150 og 190 Watt. Lenke til kommentar
Theo343 Skrevet 23. september 2011 Del Skrevet 23. september 2011 (endret) Høres lovende ut, skal lese linkene nå mens jeg venter på fisken. EDIT: Ser at de gjør det samme nå som sist gang. Lanserer kort litt under toppsjiktet med den gamle shaderarkitekturen (68xx/VLIW5/Bart) først og deretter med den nye arkitekturen i toppsjiktet (69xx/VLIW4/Cayman). Nå får de derimot en krymping fra 40nm til 28nm med i tillegg som det ikke ble noe av fra 58xx til 68/69xx sist. 7xxx kort som vil bruke "forrige topgen" VLIW4 og GDDR5: Radeon HD 7870 (Thames XT) Radeon HD 7850 (Thames Pro) Radeon HD 7670 (Lombok XT) Radeon HD 7570 (Lombok Pro) Dermed er det meget interesant at de har klart å gå fra 6950@200W til tilsvarende 7850@90W med antatt ellers samme spec og ytelse. Dette må komme av mye mer enn bare krympingen fra 40nm til 28nm. Ikke minst at de går fra 6970@250W til 7870@120W, dette virker nesten for godt til å være sant. 7xxx kort med nye GCN og XDR2: Radeon HD 7970 (Tahiti XT) Radeon HD 7950 (Tahiti Pro) Radeon HD 7990 (New Zeeland, dual-gpu) EDIT: XDR2 og andre specs er ennå ikke bekreftet såvidt man vet. Endret 26. september 2011 av Theo343 Lenke til kommentar
Gjest Slettet+513 Skrevet 23. september 2011 Del Skrevet 23. september 2011 jeg har hørt nok... venter heller på nvidia da. Lenke til kommentar
Theo343 Skrevet 24. september 2011 Del Skrevet 24. september 2011 Og hvorfor det? AMD gjør ikke noe Nvidia ikke ville gjort. Lenke til kommentar
bOMS Skrevet 24. september 2011 Del Skrevet 24. september 2011 Theo343 skrev (På 24.9.2011 den 12.26): Og hvorfor det? AMD gjør ikke noe Nvidia ikke ville gjort. Hva er det AMD gjør galt i det hele tatt her? Noe jeg har gått glipp av? Lenke til kommentar
Smirnoff Skrevet 24. september 2011 Del Skrevet 24. september 2011 Tja. Hvem vet. Ubegrunnet post er ubegrunnet. Personlig har jeg i det vide og det brede hatt positive inntrykk av både nVidia og ATI over årene som har gått (er vel en av de som aldri har behøvd å klage over driverproblemer), men jeg har ATI akkurat nå og vil absolutt ha det igjen. Tenker oppgradere GPU før TES5: Skyrim, og ser både på HD6970 evt. HD7870 (om sistnevte kommer før 11/11) Lenke til kommentar
Gjest Slettet+513 Skrevet 24. september 2011 Del Skrevet 24. september 2011 ATi har vært formidablt godt kort til feks Company of heroes. Men siden jeg er så facinert av fysikk har jeg alltid nvidia. Det skuffer meg gang på gang at ikke ATi og Nvidia kan dele teknologier slik at de kan bedre sine produkter for forbrukeren. Feks at det ikke blir noen egen boost ved bruk av Nvidia i ett spill og ati i et annet. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå