Betroz Skrevet 9. april 2016 Del Skrevet 9. april 2016 Litt nye rykter http://www.sweclockers.com/nyhet/21978-nvidia-geforce-gtx-980-och-gtx-980-ti-far-ersattare-i-maj-gtx-970-avloses-i-juni Hva skulle være nytt der? Gamle rykter som sannsynligvis ikke blir noe av (slik det står der). Lenke til kommentar
bshagen Skrevet 9. april 2016 Del Skrevet 9. april 2016 Dette tar for lang tiiiiid! Klør etter noe nytt snart Lenke til kommentar
Betroz Skrevet 9. april 2016 Del Skrevet 9. april 2016 Dette tar for lang tiiiiid! Klør etter noe nytt snart Vi får se positivt på det, at vi får lenger levetid på våre Ti og Titan X kort Lenke til kommentar
DJViking Skrevet 9. april 2016 Del Skrevet 9. april 2016 Litt nye rykter http://www.sweclockers.com/nyhet/21978-nvidia-geforce-gtx-980-och-gtx-980-ti-far-ersattare-i-maj-gtx-970-avloses-i-juni Interessant at de først kommer med erstatter for 980 og 980 Ti. Akkurat det jeg venter på. Lenke til kommentar
Taake89 Skrevet 9. april 2016 Del Skrevet 9. april 2016 Så nvidia vil produsere 3 brikker i stedet for 2 denne generasjonen? :oHvis du graver litt i riktig beta-driver så finner du 5 brikker denne generasjonen, pluss Tegra. Så får man jo se når disse kommer... 5 brikker som i grunnbrikker? Jøss, jeg synes det høres mye ut? Eller husker jeg bare feil om hvor mange det var denne generasjonen? Lenke til kommentar
blinc Skrevet 9. april 2016 Del Skrevet 9. april 2016 Så nvidia vil produsere 3 brikker i stedet for 2 denne generasjonen? :oHvis du graver litt i riktig beta-driver så finner du 5 brikker denne generasjonen, pluss Tegra. Så får man jo se når disse kommer... 5 brikker som i grunnbrikker? Jøss, jeg synes det høres mye ut? Eller husker jeg bare feil om hvor mange det var denne generasjonen? GM200 serien: GM200, GM 204, GM 206 Lenke til kommentar
MistaPi Skrevet 9. april 2016 Del Skrevet 9. april 2016 http://wccftech.com/nvidia-pascal-gp104-gpu-leaked/ Det ser ut som erstatningene til GeForce GTX 970 og 980 kan komme ganske fort nå. Mulig vi vil se refresh av kortene til høsten med GDDR5X. Lenke til kommentar
Malvado Skrevet 9. april 2016 Del Skrevet 9. april 2016 Jepp. Jeg lurer dog på DX12 ytelsen totalt sett , blir spennende å se om vi må vente en generasjon til før det blir ordentlig rått hos Nvidia eller om det nå skjer i 1xxx serien. 9xx og tidligere kort har gitt meg en lunken følelse i DX12 , ser også at en del kunder som har eldre kort sliter med problemer i spill og eller BSODS / ikke fungerende drivere etter 362.00 ( 6xx serien og 5xx serien ser det ut som ) , men igjen, sier seg selv at kort som går mot 4 - 5 års levetid ikke lenger blir prioritert. 1 Lenke til kommentar
Nizzen Skrevet 9. april 2016 Del Skrevet 9. april 2016 Jepp. Jeg lurer dog på DX12 ytelsen totalt sett , blir spennende å se om vi må vente en generasjon til før det blir ordentlig rått hos Nvidia eller om det nå skjer i 1xxx serien. 9xx og tidligere kort har gitt meg en lunken følelse i DX12 , ser også at en del kunder som har eldre kort sliter med problemer i spill og eller BSODS / ikke fungerende drivere etter 362.00 ( 6xx serien og 5xx serien ser det ut som ) , men igjen, sier seg selv at kort som går mot 4 - 5 års levetid ikke lenger blir prioritert.[/quote Enda finnes det ikkje et skikkelig dx12 spill. De få som har noe dx 12 i seg er bøgga som f. Må nok vente på bf5 for bra dx12 optimalisering Jeg sier neste år for dx 12. 1 Lenke til kommentar
Malvado Skrevet 9. april 2016 Del Skrevet 9. april 2016 Enda finnes det ikkje et skikkelig dx12 spill. De få som har noe dx 12 i seg er bøgga som f. Må nok vente på bf5 for bra dx12 optimalisering Jeg sier neste år for dx 12. Hjelper ikke med optimalisering om arkitekturen ikke greier å håndtere DX 12 på en effektiv måte før den går i blåskjerm eller sliter, håper virkelig at dette er pga drivere som ikke er helt 100% men er det arkitekturen og dette gjentar seg på neste generasjon så kan det fort bli mange irriterte spillere. Noen som faktisk vet om 1xxx generasjonen har en ordentlig arkitekturendring eller er det kun minimalisering , flere transistorer og optimalisering av ytelsen det er snakk om? 1 Lenke til kommentar
Nizzen Skrevet 9. april 2016 Del Skrevet 9. april 2016 (endret) Deep learning boxen: http://images.nvidia.com/content/technologies/deep-learning/pdf/61681-DB2-Launch-Datasheet-Deep-Learning-Letter-WEB.pdf SYSTEM SPECIFICATIONS GPUs 8x Tesla GP100 TFLOPS (GPU FP16 / CPU FP32) 170/3 GPU Memory 16 GB per GPU CPU Dual 16-core Intel Xeon E5- 2698 v3 2.3 GHz NVIDIA CUDA® Cores 28672 System Memory 512 GB 2133 MHz DDR4 LRDIMM Storage 4x 1.92 TB SSD RAID 0 WOOT ! Network Dual 10 GbE, 4 IB EDR Software Ubuntu Server Linux OS DGX-1 Recommended GPU Driver System Weight 134 lbs System Dimensions 866 D x 444 W x 131 H (mm) Packing Dimensions 1180 D x 730 W x 284 H (mm) Maximum Power Requirements 3200W Operating Temperature Range 10 - 35 °C ? WTF? Endret 9. april 2016 av Nizzen 1 Lenke til kommentar
Betroz Skrevet 9. april 2016 Del Skrevet 9. april 2016 (endret) Deep learning boxen: But will it run Crysis? Endret 9. april 2016 av Betroz 1 Lenke til kommentar
Ziff Skrevet 9. april 2016 Del Skrevet 9. april 2016 Så det første kortet får mindre areal enn 970/980. Det er åpenbart at de holder igjen. De skal jo tross alt dra ut 14/16nm til å vare i 4-5 år minst. Man kan spørre seg om hva man får igjen for å kjøpe det første kortet... som jeg ikke tviler på at vil koste 6000+ uansett. Denne gangen er jo heller ikke GPU produsentene først ute med en ny prosess.. 14/16nm har vært i bruk i til mobile enheter i 1 år allerede, så man vil kunne anta at prosessen er mer moden enn 28nm var når den kom. Så NV/AMD vil sikkert si at dette er det de klarer å levere nå, og at det er en naturlig utvikling til bedre ytelse etterhvert på 14/16, men det er ikke nødvendigvis like sant som det var tidligere... Ser for meg at ytelsesforbedringene blir skuffende i første. Lenke til kommentar
Nizzen Skrevet 9. april 2016 Del Skrevet 9. april 2016 Deep learning boxen: But will it run Crysis? Den lærer å spille/runde Crysis 1 Lenke til kommentar
Stonescar Skrevet 9. april 2016 Del Skrevet 9. april 2016 Operating TemperatureRange10 - 35 °C ? WTF? :p Tenkte du på overklokking Lenke til kommentar
Nizzen Skrevet 9. april 2016 Del Skrevet 9. april 2016 Operating Temperature Range 10 - 35 °C ? WTF? :p Tenkte du på overklokking Må være vannkjøling med chiller på den for å holde under 35 grader Stemmer dette HKS? Lenke til kommentar
Stonescar Skrevet 9. april 2016 Del Skrevet 9. april 2016 (endret) Sikkert bare en sikkerhetsmargin for hva som er anbefalt, med tanke på sikkerhet med kjøretøy osv... Endret 9. april 2016 av brunost187 Lenke til kommentar
Knutgrus Skrevet 9. april 2016 Del Skrevet 9. april 2016 Hjelper ikke med optimalisering om arkitekturen ikke greier å håndtere DX 12 på en effektiv måte Er det async compute du tenker på her? Lenke til kommentar
Knutgrus Skrevet 9. april 2016 Del Skrevet 9. april 2016 Operating Temperature Range 10 - 35 °C ? WTF? :p Tenkte du på overklokking Kan godt ha en sånn en jeg. Er sjelden under 10 grader og aldri over 35 inne hos meg. Operating Temp er nok omgivelsene den opererer i, ikke temperaturer den selv opererer med... Lenke til kommentar
Malvado Skrevet 9. april 2016 Del Skrevet 9. april 2016 Hjelper ikke med optimalisering om arkitekturen ikke greier å håndtere DX 12 på en effektiv måte Er det async compute du tenker på her? Nei , Hovedsakelig så støtter Nvidia delvis opp DX 12.1 , Maxwell greier Tier 1 og 2 og i en begrenset grad Tier 3 , Amd støtter DX 12.0 og T1, T2, T3 men har også sine begrensninger. Skrev om dette nylig i en annen tråd. Snodig nok så virker det som at Amd sin implementering av DX 12 funksjonalitet fungerer bedre enn det Nvidia har kommet med og da vil jeg anta at det kan ha hovedsakelig med måten dette er implementert i arkitekturen og drivere. Kan det løses om det kun er i driverne ? Selvfølgelig , men utifra hva jeg har lest så ser det ut som det ikke skjer før neste generasjon med kort eller den etter rent hardware messig , altså omtrent 2017/18. Uansett så vil jeg si at skal man kjøpe seg et skjermkort nå i dag så bør man se på hvilke spill man spiller og velge utifra det, da vil man garantert få en bra opplevelse (og der ligger toppkortene til Nvidia på førsteplass ). Akkurat nå mener jeg at både Nvidia og Amd er gode valg når det gjelder skjermkort , men at Nvidia definitivt har de beste kortene som er i omløp for tiden når det gjelder toppkort. 2 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå