int20h Skrevet 20. august 2008 Del Skrevet 20. august 2008 Så langt har det skortet på nye GX2-kort – Nvidia har flere utfordringer foran seg. Les mer Lenke til kommentar
Malvado Skrevet 20. august 2008 Del Skrevet 20. august 2008 Ser jo det ikke som usannsynlig at det kommer et Gtx280X2 da Nvidia bare er nødt til å ha ytelsetronen. Men det blir nok ikke mange tilgjengelig til salgs og blir nok mer et markedsgimmick enn noe annet. Lenke til kommentar
zaqqoZeq Skrevet 20. august 2008 Del Skrevet 20. august 2008 og det hadde kostet? 6000 kanskje? Lenke til kommentar
Sam_Oslo Skrevet 20. august 2008 Del Skrevet 20. august 2008 Det har allerede vært flere løse rykter om 280 GX2 på 55 nm for å synke varme/effektbrukk. Men slike rykter har aldri kommet fra Nvidia's topp folk før. Det er spennende å se hva de pønsker ut og når de slipper ut noe nytt. De må nok føler seg nødt til å overta ytelses tronen, ville jeg tro. Jeg personlige har veldig lyst til å kjøpe Hd4870X2, men kommer nok til å vente minst frem til 27.agu i håpe om at de vil annonsere noe mer håndfast på "nvidsion 08"- konferansen. Lenke til kommentar
FrodeA Skrevet 20. august 2008 Del Skrevet 20. august 2008 Problemet med kjøling og slikt blir jo som regel løst av tredjeparts vifteprodusenter.. Hvorfor ikke bruke for eksempel en kjøleløsning med 2x80mm som standard på de råeste grafikkortene? Noen av Asus sine 3870x2 kort hadde vel det.. Lenke til kommentar
WheelMan Skrevet 20. august 2008 Del Skrevet 20. august 2008 ..forde Nvidia har en sans for sandwicher Lenke til kommentar
Halvt horn ost skinka piffi varmt Skrevet 20. august 2008 Del Skrevet 20. august 2008 Håp? Er det noe jeg ikke er spesielt fan av så er det multi-gpu kort. Lenke til kommentar
WheelMan Skrevet 20. august 2008 Del Skrevet 20. august 2008 Håp? Er det noe jeg ikke er spesielt fan av så er det multi-gpu kort. Enig der - det som virkelig hadde fått potensen opp var dual-core GPUer Lenke til kommentar
Flimzes Skrevet 20. august 2008 Del Skrevet 20. august 2008 Om man regner shaders og stream prosessors så har vel skjermkort mange kjerner Lenke til kommentar
efikkan Skrevet 20. august 2008 Del Skrevet 20. august 2008 Det blir stadig satt nye rekorder i hvor mye effekt et skjermkort skal bruke. Resten av industrien ser ut til å gå i retning av energigjerrighet. Men så er det ikke mange som kjøper slike skjermkort. Multi-GPU blir alt for lite utnyttet av programvare. Her må nok både programvare og drivere bli bedre. Lenke til kommentar
HKS Skrevet 20. august 2008 Del Skrevet 20. august 2008 Det har allerede vært flere løse rykter om 280 GX2 på 55 nm for å synke varme/effektbrukk. Men slike rykter har aldri kommet fra Nvidia's topp folk før. Iløpet av året kommer alle nVIDIA sine brikker til å bruke 55nm. Jeg personlige har veldig lyst til å kjøpe Hd4870X2, men kommer nok til å vente minst frem til 27.agu i håpe om at de vil annonsere noe mer håndfast på "nvidsion 08"- konferansen. Er skeptisk til om de annonserer noe der... Mulig de viser frem samples til utvalgte, kanskje de annonserer, vi får se... Personlig håper jeg at de holder seg unna multi-GPU til arkitekturen er bedre. Det sa jeg også før 9800GX2 kom. Dette gjelder også AMD... Lenke til kommentar
Kjetil.. Skrevet 20. august 2008 Del Skrevet 20. august 2008 280gtx yter ca 20% bedre enn 4870, 4870x2 yter da 80% bedre på grunn av to kort men vi sier hundre for var det ikke noen spesiell crossfire løsning? Da vil fortsatt 280gx2 eller 280gtx x2 yte 20% bedre en det nåværende toppkortet noe som teknisk sett kan forsvare en pris forskjell på ca 700kr. Men vis dette blir det absolutte toppkortet atm og nvidia kan ha litt høy pris så kan man faktisk godta et 280x2 på 5000,- Dette er da basert på gjetninger og vil også være forskjellig i spill til spill, men jeg personlig kan ikke huske og sett noen tester som tilsir at 4870x2 er dobbelt så bra som 4870 i Crossfire + 20% hybrid crossfire. Da vil nvidia ytelsemessig kunne forklare ca 1400,- i prisforskjell + de andre faktorene som spiller inn. Men ett toppkort somslår det nåværende i ytelse med 20-40% er ganske kraftig økning. Tilslutt: Alt er basert på gjetninger så ikke skyt meg vis alt er feil, er mest spekulering fra min side. Lenke til kommentar
HKS Skrevet 20. august 2008 Del Skrevet 20. august 2008 280gtx yter ca 20% bedre enn 4870, 4870x2 yter da 80% bedre på grunn av to kort men vi sier hundre for var det ikke noen spesiell crossfire løsning? Dessverre kokte den "spesielle" Crossfire løsningen bort til ingenting... Hverken nVIDIA eller AMD har per nå noen elegante måter koble sammen flere GPU'er. Frem til de får det så vil fremdeles ytelsen i multi-GPU variere ut i fra flere parametere. Lenke til kommentar
PaTrond Skrevet 20. august 2008 Del Skrevet 20. august 2008 Synes de burde sette nye standarder, som f.eks. å gå ned til 32nm og skaffe seg teknologien, de trenger også et lavere effektforbruk.. Lag også spill og 3D modelleringskort i samme kort. De kan også kutte sånt som 500, 300, 200 og 700 og heller satse på 600 og 800 for å få prisen på disse to ned. Lenke til kommentar
Simen1 Skrevet 20. august 2008 Del Skrevet 20. august 2008 Håp? Er det noe jeg ikke er spesielt fan av så er det multi-gpu kort.Enig der - det som virkelig hadde fått potensen opp var dual-core GPUer Det er jo så 2001. I dag har GPU-er inntil 800 kjerner per GPU og inntil 1600 per skjermkort. Lenke til kommentar
CAT-scan Skrevet 20. august 2008 Del Skrevet 20. august 2008 Blir feil å kalle de kjerner. Da skulle man også ha kalt f.eks. hver FPU og integer-enhet i en CPU en kjerne. Jeg lurer på hvor mye det hadde kostet å planlegge for enkel og dobbel kjerne per arkitektur for f.eks. AMD. Er sikkert enklere å implementere gode samarbeidsløsninger mellom to kjerner i samme die enn to separate kjerner på samme PCB. Lenke til kommentar
Simen1 Skrevet 20. august 2008 Del Skrevet 20. august 2008 Tja, hva man kan kalle en kjerne er ganske diffust. For GPU er det ikke logisk å lage doble kjerner av det du kaller kjerner. Det er mye som er unødvendig å kopiere. Det eneste logiske jeg ser er å utvide den parallelle regnekapasiteten ved å legge til flere shadere og støtte det med mer minnebåndbredde. Lenke til kommentar
leifeinar Skrevet 20. august 2008 Del Skrevet 20. august 2008 Ser man bort ifra at et 280 gx2 er tilnermet galskap. så er det greit mulig med et sånnt kort. synest de lager rimelig pinglete kjølere om dagen, ser man på tower kjølere så er de glatt 16cm høye. det betyr igjenn at det er plass til store radialvifter på 12-14cm på et skjermkort uten at et kommer i konflikt med noe, mens det egentlig virker som om at det er obligatorisk med 7-8cm vifter på et skjermkort som må ha stor hastighet for og flytte luft. og klarer nvida for en gangs skyld og bygge kort hvor ALL luft slipper fritt ut bak kabinettet, sitter man der kun med et skjemkort som bruker for allt for mye strøm og gjerne 3 slots kort med skikkelige heatpipes for tilstrekkelig overflate. jeg har ihvertfall god plass til et slikt kort Lenke til kommentar
CAT-scan Skrevet 20. august 2008 Del Skrevet 20. august 2008 Tja, hva man kan kalle en kjerne er ganske diffust. For GPU er det ikke logisk å lage doble kjerner av det du kaller kjerner. Det er mye som er unødvendig å kopiere. Det eneste logiske jeg ser er å utvide den parallelle regnekapasiteten ved å legge til flere shadere og støtte det med mer minnebåndbredde. La meg gjøre det litt enklere. AMD og nVIDIA kniver om å ligge i toppen ytelsesmessig, men det er tydelig at det er lite hensiktsmessig å lage en helt egen arkitektur med en teoretisk shader-ytelse på størrelse med f.eks. dobbel RV770 eller GT200 siden denne ikke vil skalere realistisk i henhold til effektbruk (arkitekturen skal tross alt brukes fra topp til bunn). I tillegg ville den ha hatt en stor die som ikke kunne gjøres noe med. Dette er grunnen til at man ikke bare durer på og lager en mega-GPU med en gang. Spørsmålet er om det hadde vært hensiktsmessig å i fremtiden legge disse to kjernene på samme die istedenfor å ha to på samme PCB (som det gjøres i dag -- for å være best på absolutt high-end). I og med at det antageligvis åpner opp for muligheter for å gjøre et slikt «dobbeltkort» langt mer effektivt, og kanskje til og med åpner opp for en enda større dynamikk basert på samme arkitektur enn det som er mulig i dag (med en chip som potensielt kan være veldig billig ultra-low-end på en god produksjonsteknikk samtidig som en virkelig high-end om man kunne kjøre flere på samme die effektivt). Lenke til kommentar
saivert Skrevet 21. august 2008 Del Skrevet 21. august 2008 Spørsmålet er om det hadde vært hensiktsmessig å i fremtiden legge disse to kjernene på samme die istedenfor å ha to på samme PCB (som det gjøres i dag -- for å være best på absolutt high-end). I og med at det antageligvis åpner opp for muligheter for å gjøre et slikt «dobbeltkort» langt mer effektivt, og kanskje til og med åpner opp for en enda større dynamikk basert på samme arkitektur enn det som er mulig i dag (med en chip som potensielt kan være veldig billig ultra-low-end på en god produksjonsteknikk samtidig som en virkelig high-end om man kunne kjøre flere på samme die effektivt). Tror ikke det hjelper noe mer enn slik det er i dag. Det vil fremdeles være to adskilte GPU-er selv om dem er på samme DIE. Interconnecten kan gjøres mer "intim" om dere skjønner hva jeg mener, men noe utover det tror jeg ikke noe på. ATI har forbedret PCI-Express interconnect i sitt nye 4870 X2 (Ny chip fra PLX med PCI-e 2.0 støtte), og de har satt av en direkte interconnect mellom GPU-ene også, men denne er deaktivert foreløpig. Slik som Crossfire og SLI teknologien er i dag spiller det ingen rolle om det gjøres i software eller hardware. Det kan rett og slett ikke gjøres i hardware fordi man må kunne ha mulighet til å oppdatere software (legge til støtte for fler spill, profiler). Noen spill støtter multi-GPU direkte også (Call of Duty 4 f.eks). Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå