Mr. Dark Skrevet 10. november 2011 Del Skrevet 10. november 2011 Jeg tror noen misforstår artikkelen. ATI bringer ikke tilbake Pro og XT-betegnelsene. De er forbehold utviklingsnavnet Tahiti. Nummereringen kommer nok til å fortsette som på foregående modeller. Det har du rett i. LE, PRO og XT brukes i kodenavn for produsentens egen del. Lenke til kommentar
Jakobk Skrevet 10. november 2011 Del Skrevet 10. november 2011 http://www.tomshardware.com/news/amd-HD-7900-XDR2-Rambus-Memory,13408.html Kjekt å vite!!! Lenke til kommentar
Theo343 Skrevet 10. november 2011 Del Skrevet 10. november 2011 (endret) Spennende, men jeg tror ikke jeg kommer til å kjøpe nye skjermkort før neste generasjon konsoller har vært på markedet i minst 1 år. Eneste årsakene jeg kan se for meg til at jeg bytter i en eller annen generasjon før 2015 må være: - Jeg har byttet til OLED skjerm med TB grensesnitt. - Jeg ser at jeg kan få samme ytelse for langt under halve strømbruken og dette igjen til halve prisen. - DX12 er modent med flust av titler som ikke bare er halveis DX12. - 4Kx2K har blitt en filmstandard med nye krav til skjermkort. etc. Ellers ser jeg lenger ingen grunn til å holde på med skjermkortbytter da spillbransjen i lengre tid har fokus mot 5 år gammel konsollgenerasjon. Endret 10. november 2011 av Theo343 1 Lenke til kommentar
HKS Skrevet 10. november 2011 Del Skrevet 10. november 2011 Det finnes ingen konkret informasjon om de nye skjermkortene Vel, 28 nm er da ganske konkret. Det betyr en teoretisk dobling av transistortettheten på brikkene, noe som igjen kunne betydd en dobling av antall shadere. Fult så mye blir det ikke, det ryktes å bli 33% flere shadere, men til gjengjeld ryktes også en vesentlig endring av shaderne fra VLIW4 til Graphics CoreNext GPU (GNC). Det skal vistnok innebære langt mer GPGPU-vennlig programmering og ytelse, uten at det er offentlig detaljert noe mer ennå. (GDI Raptor vet sikkert mer, men er sikkert forhindret fra å røpe noe) Jupp, NDA er signert... 7000-serien kommer til å bli en blanding av både VLIW4 og Graphics CoreNext (GCN). Kort fortalt så beveger GCN seg mer mot SIMD-tankegangen som vi allerede har i moderne x86 prosessorer. Kan vel egentlig si at selve SIMD-enheten til AMD minner veldig mye om Intel sin SIMD-enhet fra Larabee. På Larabee hadde hver kjerne en 16-bred 32-bit SIMD ALU (Les: 512-bit). På GCN har hver eksekveringsenhet (Compute Unit) fire slike SIMD-enheter. GCN henter seg inn på flere områder innenfor GPGPU hvor AMD har ligget bak Nvidia siden Fermi kom, som for eksempel full støtte for C++, pakere, virtuelle funksjoner, rekursjon etc. 1 Lenke til kommentar
baguett Skrevet 10. november 2011 Del Skrevet 10. november 2011 (endret) Blir nok nvidia på meg neste gang. Min erfaring er at de fleste AMD korta bråker alt for mye, høye temps og sist men ikke minst så er nvidia mye mer feilfri når det gjelder gaming enn hva AMD er. Takk for følget AMD, men vi sees nok ikke igjen med det første. EDIT: for ikke å snakke om physiX i nvidia. Endret 10. november 2011 av baguett 1 Lenke til kommentar
ATWindsor Skrevet 10. november 2011 Del Skrevet 10. november 2011 Blir nok nvidia på meg neste gang. Min erfaring er at de fleste AMD korta bråker alt for mye, høye temps og sist men ikke minst så er nvidia mye mer feilfri når det gjelder gaming enn hva AMD er. Takk for følget AMD, men vi sees nok ikke igjen med det første. EDIT: for ikke å snakke om physiX i nvidia. Hmm, i det siste har jo AMD hatt kort som har brukt mindre effekt på samme ytelse, i forhold til nvidia. AtW 2 Lenke til kommentar
baguett Skrevet 10. november 2011 Del Skrevet 10. november 2011 Hmm, i det siste har jo AMD hatt kort som har brukt mindre effekt på samme ytelse, i forhold til nvidia. Kan godt hende, da jeg har AMD 5870 fra 2009 elns, men har ikke hørt noe særlig positiv kritikk om AMD verken fra 2010 eller 2011 fra gamere. Lenke til kommentar
Smirnoff Skrevet 10. november 2011 Del Skrevet 10. november 2011 Mitt Sapphire HD6950 er musestille. GPU topper på 50-55C under last. Det bruker ikke forsåvidt ikke referansekjøleren og det har to vifter. Link. Det bruker også mindre strøm enn HD5870 og er hakket raskere. Ville anbefalt det til hvem som helst. 2 Lenke til kommentar
SWAT dude... Skrevet 10. november 2011 Del Skrevet 10. november 2011 Dummeste jeg har hørt. Har hatt begge to om hverandre, har nå 2x 5870 og 1x GTX 580 i huset og det er ingen forskjeld mtp drivere, kompitablitet eller problemer mellom AMD og Nvidia. Det er vanvittig lenge siden det var noen grunn til å velge den ene over den andre på annet grunnlag enn pris, ytelse og effektbruk. 2 Lenke til kommentar
Malvado Skrevet 11. november 2011 Del Skrevet 11. november 2011 Det er vanvittig lenge siden det var noen grunn til å velge den ene over den andre på annet grunnlag enn pris, ytelse og effektbruk. Det finnes noen ankepunkter dog : *Flerskjermsfunksjonalitet. *Cuda / PhysQ *Enkelte spill som favoriserer Nvidia eller Amd. *OpenGL ytelse (I favør Nvidia). *Bildekvalitet (I favør Amd om jeg ikke husker helt feil i forhold til et par tester av Tomshardware blandt annet). Det er også en del forskjell på effektforbruket mellom Amd og Nvidia og ytelsefaktoren , det trenger derfor ikke å være det kortet som gir best ytelse som faktisk er det beste kjøpet uavhengig av om det er Amd eller Nvidia som har den tronen for tiden. 1 Lenke til kommentar
Albatraum Skrevet 11. november 2011 Del Skrevet 11. november 2011 (endret) Mitt 5870 kort bråker ikke i det hele tatt med arctic cooling accelero xtreme plus II til 4-500kr. Jeg må rett og slett stikke hodet mitt inn i kabinettet og holde øret bare noen centimeter unna viftene på skjermkortet for å høre at de 3x92mm viftene går rundt. Dette passer på AMD 3870/4870/5870/6970 og omtrent alle Nvidia kort fra 7800gtx til 580gtx som ikke har 2x dvi oppå hverandre. Det har vært en god investering for meg. Nå kan jeg velge og vrake ut i fra pris/ytelse uansett om det er Nvidia eller AMD. Jeg vil anbefale å gjøre det samme for de som velger kort etter støynivå. Endret 11. november 2011 av Albatraum Lenke til kommentar
ATWindsor Skrevet 11. november 2011 Del Skrevet 11. november 2011 Det er vanvittig lenge siden det var noen grunn til å velge den ene over den andre på annet grunnlag enn pris, ytelse og effektbruk. Det finnes noen ankepunkter dog : *Flerskjermsfunksjonalitet. *Cuda / PhysQ *Enkelte spill som favoriserer Nvidia eller Amd. *OpenGL ytelse (I favør Nvidia). *Bildekvalitet (I favør Amd om jeg ikke husker helt feil i forhold til et par tester av Tomshardware blandt annet). Det er også en del forskjell på effektforbruket mellom Amd og Nvidia og ytelsefaktoren , det trenger derfor ikke å være det kortet som gir best ytelse som faktisk er det beste kjøpet uavhengig av om det er Amd eller Nvidia som har den tronen for tiden. For min del er håndteringen av video, bitsreaming og den type ting den største hemskoen i dag, der er det litt trøbbel hos begge parter. AtW Lenke til kommentar
Sgt_Stilongs Skrevet 11. november 2011 Del Skrevet 11. november 2011 Kan ikke AMD heller komme med en skikkelig prosessor? Flaut å se at FX-8150 ikke har noe å stille opp med i forhold til en i7. Lenke til kommentar
Deluze Skrevet 11. november 2011 Del Skrevet 11. november 2011 Hvorfor skal AMD ikke kunne produsere begge deler? -Deluze 3 Lenke til kommentar
Lurifax85 Skrevet 11. november 2011 Del Skrevet 11. november 2011 Det som er noe drit med ATI er at hvis man har 120hz PC skjerm er at man ikke kan overklokke 1mhz en gang før det begynner å flimre på skjermen. Rart at de ikke har fikset denne feilen med driveren enda som er over 1 år gammel Da må vi som har 120hz bruke Nvidia kort som man kan overklokke uten at det flimrer. Tror ATI taper en del penger bare på det også. Jeg sitter med ett overklokka ati kort (asus 6950 directcu II) klokka til 950mhz core og 5400mhz minne og en samsung 2233rz (120hz) skjerm uten flimmer, så hvor du får din info fra lurer nå jeg litt på. Om du da ikke bare er en hardbarka nvidia fan... 1 Lenke til kommentar
Heatsink Skrevet 11. november 2011 Del Skrevet 11. november 2011 Det har kommet test av kortet allerede! 3 Lenke til kommentar
Mr. Dark Skrevet 11. november 2011 Del Skrevet 11. november 2011 - Jeg ser at jeg kan få samme ytelse for langt under halve strømbruken og dette igjen til halve prisen.- Prisen vil alltid starte der oppe med nye kort og presse eldre kort ned i pris. Men nå er det jo en link her som viser at f.eks HD6970 korta trekker 250watt mens 7970 har fått 190 watt oppgitt. Så det ser jo ut til at de er på rett vei Så ser du på de "dårligere" kortene vil nok de ha en tilsvarende ytelse som 6970, men enda lavere strømforbruk. Men det er jo vansklig å vite hvilke skjermkort du går ut i fra når du sier du vil ha samme ytelse og halve strømforbruket. Kanskje 7870/50 med strømforbruk på 120/90 watt er det du leter etter. Ikke at vi vet noe om hva de yter enda. Lenke til kommentar
Papirkurven Skrevet 11. november 2011 Del Skrevet 11. november 2011 Jeg som hadde tenkt og bestille 6970 idag.. Hmm. Spørs om jeg får vente til januar da. Vist ikke kommer jeg vell til å angre. Lenke til kommentar
lucky666 Skrevet 11. november 2011 Del Skrevet 11. november 2011 (endret) Lurer spent på hva NVIDIA har i baktankene. Tenker meg sikkert att det blir noenlunde det samme, bare mye mere eksklusivere. Eksklusivere? Folk skriver mye rart Endret 11. november 2011 av lucky666 Lenke til kommentar
eln Skrevet 14. november 2011 Del Skrevet 14. november 2011 (endret) Hvor fiktive er disse release datoene egentlig? I følge wikipedia ble feks. GTX 580 released 9 November 2010 Når fikk de første, vanlig dødelige i Norge tak i det kortet? Leste hardware.no's test av GTX 580, i de fleste tilfeller så yter forrige generasjon (gtx 470) i SLI bedre enn ett GTX 580. Vil det være en tilsvarende ytelse økning på Radeon 7900-series & GF 6xx eller vil det bli ett større hopp? Man får jo i dag 2 stk HD6950 / GF 570 til 4000-4400,- Bakdeler: "microstuttering" Varme Støy? effektforbruk ingen oppgraderingsmuligheter Fordeler: 0-17% høyere ytelse man får kortene i dag, ikke i mars? For mitt vedkommende så er "microstuttering" ankepunktet, men om de nye kortene fra radeon/nvidia yter slik hoppet var fra 400 til 500 serien så er det ikke sikkert kortene tilsvarende 6950/gf570 (i SLI/XFIRE) klarer 120fps som ett minimum i BF3 på high/ultra, å da vil man fortsatt oppleve microstuttering? Endret 14. november 2011 av eln Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå