Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

Den "negative" RTX20 serie tråden :P


Gabri3L

Anbefalte innlegg

Nvidia har et produkt som kalles Drive Pegasus, som skal begynne å sendes ut som testeksemplarer nå i tredje kvartal av 2018, da den ble annonsert ble det sagt at det skulle brukes to GPU-er med "neste generasjons arkitektur" (Turing) sammen med en SoC der alt er koblet sammen med NVLink.

Det stemmer. SoC på "Drive Pegasus" som også er kjent som Tegra Xavier er første Tegra SoC med NVLink.

 

Edit:

Så NVLink kommer til å bli brukt som en "coherent" bus mellom CPU og GPU minne, og PCIe Gen 4 vil bli brukt som I/O-bus.

Endret av HKS
Lenke til kommentar
Videoannonse
Annonse

Ordvalget gjør meg usikker på om jeg forstår helt hva du mener. Det vil jo på ingen måte være "absurd" å selge en kunde 2 skjermkort som de tjener $200 hver på, enn ett skjermkort som de tjener $300 på. Da ville de jo tjent $100 mer på kunden som må oppgraderer gradvis. Bare for å ta ett eksempel på hvorfor det kunne vært i selskapets egen interesse nettopp å designe hardware for "de som er nødt for å oppgradere gradvis".

 

Et annet eksempel er at det kan tenkes å være et stort nok marked til at man ikke vil la konkurrenten få det for seg selv, selv om man ikke en gang tjente like mye som når man selger bare ett skjermkort til kunden. Og man kan se på det som bedre å selge 2 skjermkort til en kunde som man tjener $100 hver på, og dermed $100 mindre enn om man solgte dem bare det ene bedre kortet. For når man risikerer at alternativet er at man ender opp med å selge 0 skjermkort til den kunden i stedet. Og at den kunden da heller går til konkurrenten og kjøper sine skjermkort gradvis der, og på den måten ikke bare gir tapte salg, men samtidig øker konkurrentens markeds andel. Ja, så blir det plutselig smartere å selge skjermkort man tjener mindre på også.

 

Hva som er smartest for kunden å gjøre vil jo være veldig avhengig av ytelsen til 2 kort i mGPU konfigurasjon, vs 1 kraftigere kort, og selvsagt prisen. Så om man har mulighet til å spare f.eks. maks 500 Kr i måneden, og har spart opp i 10 måneder slik at man nå har 5000 Kr å bruke på nytt skjermkort. Om alternativet nå ved lansering er ikke noe skjermkort før om enda 10 måneder til, eller kjøpe ett 5000 kroners kort i dag, og så et til om 10 måneder. Så er det 10 måneder der man i det minste har skjermkort, men hvor man spiller på "High" i stedet for "ultra".

Mulig du forstår logikken i dette, men jeg henger på ingen måte med i resonnementet ditt. Det er nettopp klokt å få kundene til å strekke seg til 2080 som funker...

 

GPU'er er noe folk (unntatt entusiaster) kjøper sjelden, og mest mulig inn ved første kjøp vil jeg tro er å foretrekke. Men nå jobber ikke jeg med salg av denne typen...

Lenke til kommentar
  • 2 uker senere...

Jeg får vel plukke opp denne tråden igjen. Nå som jeg har avbestilt 2080Ti har jeg vel fått totalforbud mot å uttale meg i det hele tatt i den andre. :p

 

Det tok meg faktisk en liten stund før jeg i det hele tatt skjønte beskyldningen om ha en "dårlig unnskyldning" for å ha avbestilt. For meg er jo det en helt typisk ting å gjøre, og ingen i familien min har løftet på så mye som et et øyenbryn når jeg har fortalt dem om denne "uforutsette" utgiften. :p Men de er jo nå godt vant med at jeg er mer enn "litt" distre. Men joda, jeg skjønner jo at det ikke er vanlig for andre å glemme at de har bestilt et kamera til 11.000,- Til mitt forsvar så var det nesten 2 måneder siden altså! Men ok. Folk får tro hva de vil. Det er jo en litt dårlig "unnskyldning" uansett. I den forstand at jeg har jo vurdert å avbestille 2080Ti nesten siden samme dag jeg bestilte. Prisen er i stiveste laget om det ikke en gang klarer 50% over 1080Ti. Og for hver dag som har gått har jeg mistet mer og mer troen på at det kommer til å skje med det første. Kanskje med modne drivere i nye titler om 6-12 måneder. Men da kan jeg jo strengt tatt like gjerne vente og se. Hva jeg ellers skal med 2080Ti den 20. sept. Når det ikke kommer til å være en eneste tittel ute da som støtter RTX, eller som jeg ikke fint kan spille med mitt 1080Ti skjønner jeg ikke helt.

 

Det at Komplett nå har vel over 500 stk. 2080Ti tilgjengelig for bestilling, som de regner med å kunne sende fra butikken den 20. sept. Gjør at jeg er ganske optimistisk på at vi faktisk kommer til å se kort til MSRP, og at vi kanskje ikke en gang trenger vente spesielt lenge. Så om det kommer noen greie kort rundt 10K om ikke så lenge, og man i tillegg klarer å time det inn med et DnB/Power salg. Så snakker vi plutselig om 8K i stedet for 12K+... Og vel, nå som jeg er "fattiglus" igjen, så sparer jeg gjerne de tusenlappene om mulig. :p

 

Ellers har jeg sittet på en link et par dager som jeg tydeligvis ikke er alene om å ikke ha turt å poste i den andre tråden... Siden den ikke er postet der. :p DICE er i gang med å "gå tilbake" på Ray tracing'a i BF5. Så grafikken vi så i keynote'en blir nok for bullshots å regne.

 

Det er ganske mye med denne lanseringen jeg ikke skjønner helt. Det virker som Nvidia plutselig fikk det jævlig travelt med å få ut "Turing". AIB partnere forteller at de aldri før har fått så dårlig tid på seg til en lansering. Og vi ser de hiver RT inn i spill helt på slutten av utviklings tiden, mer som en ettertanke, der det tilsynelatende var viktigere å få frem en imponerende tek demo i et par store AAA titler til keynote'en. Enn å vise frem titler der RT har ligget i bunnen gjennom hele utviklings prosessen. Folk har jo for lengst kopiert scener fra keynote'en som den fra Metro, og vist at de kan lage den akkurat like pen med tradisjonelle metoder. Og akkurat den var jo veldig cringe, med; "Se så stygt det ser ut uten RT!". De hadde jo aldri sluppet spillet uten RT seende slik ut...

 

Men, det gir kanskje mening om Nvidia aksjonærene var redde aksjekursen var på vei til å synke fordi de fryktet at salget på Pascal ville svikte når de nå ellers hadde måttet "konkurrere" mot et enormt bruktmarked med masse kort brukt på mining av krypto valuta. Men hvorfor de ikke heller plukket litt "lavthengende frukt" med mindre die size før de heller slapp "Turing" til neste år på 7nm med nok kraft til å faktisk kunne brukes til noe i de oppløsningene vi allerede er vant med i "High End"? Det er ikke godt å bli klok på. Kanskje de trodde at de måtte ha RTX for at folk skulle gidde å oppgradere, siden det strengt tatt ikke finnes så mange spill på markedet som krever så mye at det gjør noe lenger? Jeg mener, de finnes jo, men det finnes da 50 andre spill for hvert ene av de?

 

Personlig lurer jeg litt på om det kan være "Navi" som lusker i skyggene? Jeg la merke til at MS sine sider om RTX snakker om når produsentene kommer med kort som støtter RTX. Kanskje det er grunnen til at AMD "ga opp" Vega til fordel for Navi? De visste at Vega ville bli "avleggs" med en gang de får Navi ut på markedet, og like så godt heller bare puttet alt av resurser inn i Navi? Ikke at jeg skjønner hvordan det skulle gå til at "GCN 6.0" skal kunne støtte Ray tracing. Men det virker som Nvidia ville ha ut RTX ! Kanskje de var redd for å ikke komme ut først med RTX? Eller så de rett og slett at de kan rekke 2 generasjoner RTX før AMD kommer med sin første om de bare kjappet seg?... Hm... Det er vel kanskje det aller mest sannsynlige... :p

  • Liker 1
Lenke til kommentar

Hadde også en følelse at nVidia oversolgte en del. Dette er rimelig normalt, men det gir også rimelig høye forventninger som tredjeparter må rushe for å få ut. Dagens spillutvikling er enorme prosjekter og krever ekstremt mye koordinering, erfaring og arbeid, så det å implementere en helt ny teknologi i tillegg på kort varsel er temmelig mye å be om med mindre det er et enkelt rammeverk som krever lite ekstra jobb.

 

En kan håpe det er relativt enkelt å implementere. Jensen sa jo at de hadde jobbet med dette i 10 år, så det vil vel i alle fall si de har hatt betadrivere og betakort ute en stund til utviklere.

Lenke til kommentar

Conspiracy much, Gabriel? Det er *alltid* AMD :p

 

Nå er jeg ikke med? AMD er jo det eneste som er i nærheten av å kunne kalles en konkurrent. Så da må det jo nesten alltid være dem? Som jeg avsluttet med, så sa jeg jo at jeg egentlig heller tror Nvidia prøver å få inn 2 generasjoner med RTX før AMD kommer på markedet i det hele tatt. Men jeg prøver jo å ihvertfall ikke utelukke muligheten for at AMD kommer tilbake med noe mer. Realistisk sett tror jeg imidlertid det må være snakk om tradisjonelle mellomklasse kort AMD jobber med å få ut. Konkurrenter til det som blir Nvidias GTX20 serie...

 

Det gjør det ikke noe mindre interessant å forsøke å forstå denne hastverken til Nvidia. Det er AIB partnerne selv som har sagt at de aldri før har fått så lite tid på seg i forbindelse med nye kort. Vi ser for eksempel Asus's 2080Ti Strix kort neppe blir tilgjengelig ved launch. Utviklere i (innbiller meg det var) BF5 teamet sa at de hadde fått leke med RTX bare noen få måneder før keynote'en. Og nå lanseres altså de første RTX kortene verden har sett, uten et eneste RTX spill tilgjengelig... Om ikke det tyder på hastverk, så vet ikke jeg hva som ville gjort det...

 

Men det er klart, det kan være så enkelt som at AMD's kommende 7nm kort kun kommer til å tilby tradisjonell funksjonalitet, men at de igjen gjør som med RX480, og slipper et $199 kort som virkelig sparker fra seg. Og med god skalering er det ikke umulig at de kan få til 1080Ti ytelse som de kan selge for $399. Om så, vil Nvidia ganske enkelt bare melke markedet mens folk fremdeles er villige til å betale $5-700 for samme ytelse...

 

Hadde også en følelse at nVidia oversolgte en del. Dette er rimelig normalt, men det gir også rimelig høye forventninger som tredjeparter må rushe for å få ut. Dagens spillutvikling er enorme prosjekter og krever ekstremt mye koordinering, erfaring og arbeid, så det å implementere en helt ny teknologi i tillegg på kort varsel er temmelig mye å be om med mindre det er et enkelt rammeverk som krever lite ekstra jobb.

 

En kan håpe det er relativt enkelt å implementere. Jensen sa jo at de hadde jobbet med dette i 10 år, så det vil vel i alle fall si de har hatt betadrivere og betakort ute en stund til utviklere.

 

Som sagt; En av de ansatte hos en av disse store utviklerne sa i intervju etter keynote'en på spørsmål om hvor lenge de hadde hatt RTX kort å jobbe med, var bare noen måneder. Og vi vet jo at utviklingstiden på alle disse store titlene har vært vesentlig mer enn det. RT på BF5, Tomb Raider og Metro er nødt til å være en ettertanke..

Lenke til kommentar

Hvis det stemmer at 2080Ti har 35-45% bedre ytelse over 1080Ti, så er dette noe jeg kan vurdere til ~5000 kr, men ikke 13-14000 kr... Uansett ser jeg frem til alle benchmarks, og da ikke bare GPU ytelse vs de gamle korta, men også CPU skalering :)

https://www.multicom.no/inno3d-geforce-rtx-2080-ti/cat-p/c/p10352264

11500,- :) for 5000 får du kanskje et brukt 1080ti, så jeg ser ikke helt hvorfor det ikke skal være verd mer. 

Lenke til kommentar

Nå har jeg egentlig gitt meg offisielt på forumet, men pga alt for mye overskudd mens jeg går til Kjemioterapi ( Om dere virkelig ønsker å finne en skyldig så kan dere rette fingeren på Nvidia : P ) så hender det jeg tar en tur innom.

Førsteinntrykket så ser det ut som den siste generasjonen til Nvidia er en kraftig forsterkning av det Nvidia har hatt før, men ønsker man å gå litt dypere inn i bildet så blir ting litt uklart, nå har jeg ikke selv hatt så mye overskudd og energi at jeg har tatt en dyp analysis av 20xx serien, men det ser ut som forbedringene er i konkrete oppgaver som gir en "penere grafikk" uten at man får en kraftig løft i vanlig fps for de som ikke benytter seg av denne "super-effekten".

Sånn sett kan man tenke seg at :

*Det er en alt for tidlig innføring av de nye "super-duper" grafikkeffektene.
*Utviklerne av spillene er alt for ferske til å benytte seg av "super-duper" grafikken på en måte som ikke overbelaster skjermkortet.
* Skjermkortdriverne er henholdsvis umodne og greier ikke å utnytte skjermskrotet sine nye egenskaper fult ut.
*Propagandaministeren til Nvidia forvekslet koppen sin med vann med litt Tysk greie.

Sorterer dere ut galgenhumoren min, så sitter vi igjen med at det er kanskje litt tidlig til å vite enda hvor bra de nye skjermkortene er, en ting er sikkert, prisen er utrolig høy for min del og skal man bruke såpass mye på et skjermkort bør det være en sabla god grunn til det for min del, siden jeg har langt viktigere utgifter å tenke på, og selv om mange andre trolig ikke har det likedan helsemessig er det nok mange nok som har sine utgifter andre plasser som gjør at en investering som går over 7 tusen kroner blir alt for drøy.

  • Liker 5
Lenke til kommentar

Velkommen tilbake når du har tid da. Og god bedring! :)

 

Når det gjelder DLSS som jeg tror du snakker om, så kunne det i teorien ha blitt et godt salgs argument for RTX kortene. Nvidia kunne jo bare kjøpt inn spillene selv og "trainet" driverne for det aller meste av spill på markedet, eller ihvertfall de største, og vips; DLSS støtte i "alle" spill. Det ville jo også fikset "image" problemet med at RTX20 serien ikke har så høy ytelses økning som ønsket i vanlige spill titler. Ihvertfall dersom grafikk degraderingen ved bruk av DLSS er liten nok til at folk ikke merker det.

 

Så hvorfor Nvidia ikke bare gjør det, er jo et interessant spørsmål. Det kan være at siden de nå tilbyr alle spill produsenter "gratis" støtte for DLSS. Der alt spill produsentene trenger å gjøre er å sende Nvidia spillet, og senere eventuelle oppdaterings patcher, slik at Nvidia får "trainet" driverne for spillene. At de håper å senere tjene penger på å selge dette som en tjeneste til spillprodusenter for å få en ytelses boost i spillene demmes.

 

Men, det kan jo også være at de ville risikert å fått søksmål på nakken av spillprodusenter som ville hevdet at Nvidia da ville tjent penger på deres Intellectual Property. DLSS kan kanskje sees på som mer enn bare en driver optimalisering. Der Nvidia kanskje er avhengig av å bruke spillprodusentenes "resurser" i selve "trainingen". Og dermed altså ved å bruke det som salgs argument, tjene penger på at deres skjermkort blir "raskere" av å ha brukt en spillprodusents resurser.

 

Jeg er uansett spent på hvordan akkurat denne biten skal fungere i praksis? Det er vanskelig å forestille seg at ikke DLSS støtte vil ta en del plass i driveren til det enkelte spill. Så kanskje man må laste ned "training" filer fra Nvidia per spill?

 

Jeg tror også at kommende spill som designes med RT i "bunnen" kommer til å klare mer både fps og oppløsning enn BF V og Tomb Raider, der RT bare har blitt slengt på på "toppen". Men er litt redd dagens priser på RTX kortene vil gi for liten utbredelse av RTX kapable skjermkort til at spill produsenter vil bruke resurser på å lage RT spill. Dette er en liten begynnelse, men bred adoptering vil nok ikke se før RT finner veien inn i atskillig billigere skjermkort.

 

Som jeg har skrevet tidligere er det en del rart med denne lanseringen av 20 serien. Skjønt, om vi hadde vært fluer på veggen hos Nvidia, så ville det jo gitt mening selvfølgelig. Men når man sitter igjen utenfor kun med mulighet for spekulering, så finnes det argumenter som går alle veier: Nvidia fikk det travelt med å komme ut først. Eller Nvidia fikk det travelt med å få ut en ny serie, fordi markedet blir/er/kommer til å bli oversvømt av billige mining kort. Eller, eller, eller..

 

En teori som jeg har, er at AMD kan ha kommet med noe nytt i MCM. AMD har allerede sagt at MCM ikke egner seg til spill, på grunn av latency. Men hva om MCM kan benyttes til RTX liknende funksjonalitet der latency ikke er like viktig? Altså en egen die til "tradisjonell" GPU, og så en egen die til RT cores (AMD ekvivalent), og en egen die til Tensor cores (igjen AMD ekvivalent).

 

Så vidt jeg vet har ikke Nvidia patent til å bruke MCM i sine design. Mens AMD kan bruke sin Infinity Fabric som de allerede benytter til Ryzen CPU'ene. AMD kan altså ha et MCM design på vei i 7nm til neste år. Og det ville passet godt inn i "Scalability" som var fordelen AMD nevnte med "Navi" på roadmap for et par år siden.

 

Realistisk sett er det nok ikke tilfellet. Jeg tviler sterkt på at Raja Khadouri hadde forlatt AMD om noe slikt lå i fremtiden.

 

Så det kan være som jeg også har teorisert om, at Nvidia både skjønte at Pascal mining kort på bruktmarkedet vil stå i veien for deres salgsmål uten en ny 20 serie til å lokke kunder. Og at de også innså at om de skynder seg, så kan de få ut 2 generasjoner med RTX kapable kort før AMD kan svare i det hele tatt. Men da kan de nesten ikke slippe en 20 serie nå, og så en 30 serie om 6 måneder. Selv ikke de mest ihuga Nvidia fanboys ville vel akseptert det?

 

Akkurat dette er faktisk spesielt interessant. TU102 er en av de aller største GPU die'ene produsert. Yelds på noe slikt må jo være forferdelig dårlig? Skal vi tro at Nvidia har tenkt å ikke bytte den ut før om ~18 måneder? Jeg tror det komme en krymping av TU rimelig kjapt. Men som sagt, "umulig" innen 6 måneder. Men 12 måneder blir kanskje "spiselig"? Så om Turing på 7nm er på vei til neste år, så fikk jo Nvidia det veldig travelt med å få disse kortene ut, om ikke de skulle fortsatt å konkurrere mot seg selv i et marked de allerede har oversvømt...

  • Liker 1
Lenke til kommentar

Når det gjelder DLSS som jeg tror du snakker om, så kunne det i teorien ha blitt et godt salgs argument for RTX kortene. Nvidia kunne jo bare kjøpt inn spillene selv og "trainet" driverne for det aller meste av spill på markedet, eller ihvertfall de største, og vips; DLSS støtte i "alle" spill.

DLSS må støttes av spillene, så her må faktisk spillutviklere på samme måte som Ansel tilrettelegge for DLSS.

 

Det ville jo også fikset "image" problemet med at RTX20 serien ikke har så høy ytelses økning som ønsket i vanlige spill titler. Ihvertfall dersom grafikk degraderingen ved bruk av DLSS er liten nok til at folk ikke merker det.

Kanskje lurt å vente på ytelses-tester før man "maler fanden på veggen"? ;)

 

Så hvorfor Nvidia ikke bare gjør det, er jo et interessant spørsmål. Det kan være at siden de nå tilbyr alle spill produsenter "gratis" støtte for DLSS. Der alt spill produsentene trenger å gjøre er å sende Nvidia spillet, og senere eventuelle oppdaterings patcher, slik at Nvidia får "trainet" driverne for spillene. At de håper å senere tjene penger på å selge dette som en tjeneste til spillprodusenter for å få en ytelses boost i spillene demmes.

 

Men, det kan jo også være at de ville risikert å fått søksmål på nakken av spillprodusenter som ville hevdet at Nvidia da ville tjent penger på deres Intellectual Property. DLSS kan kanskje sees på som mer enn bare en driver optimalisering. Der Nvidia kanskje er avhengig av å bruke spillprodusentenes "resurser" i selve "trainingen". Og dermed altså ved å bruke det som salgs argument, tjene penger på at deres skjermkort blir "raskere" av å ha brukt en spillprodusents resurser.

Nvidia kommer selv til å bruke egene resurser for å trene opp nettverkene til bruk i DLSS. Men som nevnt i forrige kommentar så er Nvidia avhengig av at spillutvikler klargjør spillet for DLSS.

 

Jeg er uansett spent på hvordan akkurat denne biten skal fungere i praksis? Det er vanskelig å forestille seg at ikke DLSS støtte vil ta en del plass i driveren til det enkelte spill. Så kanskje man må laste ned "training" filer fra Nvidia per spill?

Ferdig trente nettverk vil lastes ned på samme måte som spillprofiler eller de gamle SLI-profilene lastes ned i GeForce Experience.

 

Som jeg har skrevet tidligere er det en del rart med denne lanseringen av 20 serien. Skjønt, om vi hadde vært fluer på veggen hos Nvidia, så ville det jo gitt mening selvfølgelig. Men når man sitter igjen utenfor kun med mulighet for spekulering, så finnes det argumenter som går alle veier: Nvidia fikk det travelt med å komme ut først. Eller Nvidia fikk det travelt med å få ut en ny serie, fordi markedet blir/er/kommer til å bli oversvømt av billige mining kort. Eller, eller, eller..

Er nok ikke så spennende som du håper. Vi ble fortalt at planen opprinnelig var lansering i mai/juni, men dette måtte bli utsatt 1-2 måneder grunnet problemer med tilgjengelighet av store volum av GDDR6-minne. Da valgte man å vente til etter sommeren,. Arkitekturen Turing ble presentert bak lukkede dører på GTC 2018 i mars, da under navnet "post-Volta".

 

En teori som jeg har, er at AMD kan ha kommet med noe nytt i MCM. AMD har allerede sagt at MCM ikke egner seg til spill, på grunn av latency. Men hva om MCM kan benyttes til RTX liknende funksjonalitet der latency ikke er like viktig? Altså en egen die til "tradisjonell" GPU, og så en egen die til RT cores (AMD ekvivalent), og en egen die til Tensor cores (igjen AMD ekvivalent).

Ideen om Multi-Chip GPU er ikke noe AMD har funnet opp, og er heller ikke noe nytt fancy. Nvidia publiserte selv en forskningsartikkel på dette i fjord sommer.

https://research.nvidia.com/publication/2017-06_MCM-GPU%3A-Multi-Chip-Module-GPUs

 

Tensor Core og RT Core liknende funksjonalitet kan ikke ligge på en egen brikke, det må ligge i tett tilknytning til prosesseringsressursene på GPU, ellers blir latensen alt for høy.

 

 

Så vidt jeg vet har ikke Nvidia patent til å bruke MCM i sine design. Mens AMD kan bruke sin Infinity Fabric som de allerede benytter til Ryzen CPU'ene. AMD kan altså ha et MCM design på vei i 7nm til neste år. Og det ville passet godt inn i "Scalability" som var fordelen AMD nevnte med "Navi" på roadmap for et par år siden.

Hvorfor tror du Nnidia introduserte NVLink på Pascal for to og et halvt år siden?

Turing og Volta støtter allerede 2. generasjon av NVLink. Leser du forskningsartikkelen jeg linket til over her ligger det i kortene at det kommer MCM-løsninger fra Nvidia.

 

Realistisk sett er det nok ikke tilfellet. Jeg tviler sterkt på at Raja Khadouri hadde forlatt AMD om noe slikt lå i fremtiden.

Raja var nok frustrert for at han ikke fikk de resursene som trengtes. Det er ingen hemmelighet at AMD prioriterte CPU over GPU (noe som var et veldig lurt valg).

Når da Intel kom å gav han et bedre tilbud så hoppet han over.

 

Så det kan være som jeg også har teorisert om, at Nvidia både skjønte at Pascal mining kort på bruktmarkedet vil stå i veien for deres salgsmål uten en ny 20 serie til å lokke kunder. Og at de også innså at om de skynder seg, så kan de få ut 2 generasjoner med RTX kapable kort før AMD kan svare i det hele tatt. Men da kan de nesten ikke slippe en 20 serie nå, og så en 30 serie om 6 måneder. Selv ikke de mest ihuga Nvidia fanboys ville vel akseptert det?

Nå har vel ærlig talt "mining markedet" vært dødt siden vårparten? I alle fall for mining med GPU.

 

Akkurat dette er faktisk spesielt interessant. TU102 er en av de aller største GPU die'ene produsert. Yelds på noe slikt må jo være forferdelig dårlig?

Nei, faktisk ikke. Det er en av grunnene til at de bruker 12nm isteden for 7nm. 12nm er en kjent prosess, hvor de har produsert GV100 i nesten halvannet år nå. Per dags dato er ikke 7nm egnet til store brikker med høy effektbruk og stort volum.

 

Skal vi tro at Nvidia har tenkt å ikke bytte den ut før om ~18 måneder? Jeg tror det komme en krymping av TU rimelig kjapt. Men som sagt, "umulig" innen 6 måneder. Men 12 måneder blir kanskje "spiselig"? Så om Turing på 7nm er på vei til neste år, så fikk jo Nvidia det veldig travelt med å få disse kortene ut, om ikke de skulle fortsatt å konkurrere mot seg selv i et marked de allerede har oversvømt...

Tidligst...

 

De begynner nok med TU107 og/eller TU108 først. Kansje mot slutten av året eller helt i begynnelsen av neste år.

 

Så tipper jeg det kommer en "TU100" for å erstatte GV100 til neste vår, dette blir en enorm brikke, men den kan selges til en veldig høy pris, så spiller ingen rolle om yields er dårlige.

Endret av HKS
  • Liker 1
Lenke til kommentar

Takk for innspill HKS.

 

Nå er vel snart første NDA dato kommet slik at du kan dele litt mer om NVLink SLI, og andre funksjoner med DLSS? Jeg har fått med meg fra andre under NDA at DLSS ikke bare er det som Nvidia har presentert til nå, og det hørtes unektelig spennende ut.

 

Det var tydeligvis en del missinformasjon om DLSS i begynnelsen, og en av tingene jeg ikke har sett korrigert før du gjorde det nå, var altså at det bare var for Nvidia å gi spill "the treatment". Jeg har også sett andre på nett spørre seg hvorfor Nvidia ikke bare gjør som jeg nevnte, og "trainer" så mange spill de kan komme over, uten at de har blitt korrigert heller. Så da har jeg trodd at det var reellt som det ble sagt på den første nettsiden jeg leste om det. Men finner selvsagt ikke tilbake igjen til den...

 

Ellers mener jeg fortsatt at det ikke er å "male fanden på veggen" å forholde seg til det lille av informasjon om ytelse som faktisk har kommet rett fra Nvidia. Jeg har holdt døren på gløtt for at det kan være litt "sandbagging". Men det gir ikke mye mening i forhold til prisen de har lagt seg på med 20 serien.

 

Det du sier om at "opprinnelig var lansering i mai/juni" stemmer bra overens med rykter før den tiden. Men gjør det desto merkeligere at AIB partnerne sier at de aldri før har fått så dårlig tid på seg i forbindelse med en lansering. Det burde jo vært flere måneder ekstra de fikk bare der?..

 

Angående mining, så tror jeg en del nok har satset på at det bare skulle være midlertidig, og har brent inne med riggene sine. Andre igjen har funnet måter å "daytrade" på nye coins slik at det fremdeles "lønner" seg. Forskjellig pris på strøm rundt i verden gjør nok sitt til at enkelte "tårn" veltet over natten, mens andre har kunnet kjøre på videre. Australia har noe av verdens dyreste og minst oppegående strømnett. Og i følge en kjent hardware "flipper" der nede som har YT kanalen "TechYesCity" (tror jeg den heter), så ser de en flom av mining kort som kommer inn på bruktmarkedet. Vi har sett en del i Norge også, men ikke så mye som jeg ville trodd. Kanskje fordi minere i Norge ikke har kjøpt mer HW enn de uansett hadde råd til, slik at de ikke trengte å selge? Men uansett, så er det naturlig å forvente at disse kortene før eller siden vil finne veien til bruktmarkedet..

 

Helt på slutten er jeg redd jeg missforstår litt. Mener du at du tror Nvidia vil komme med TU107/8 på 7nm allerede i år, eller begynnelsen av 2019? At dette kommer til å bli såpass små brikker at de passer bra for 7nm?

 

Og kan du eventuelt si noe om hvorvidt det blir Tensor/RT cores på disse? Jeg har igrunnen forventet 2060 brikken uten RT cores, men med mulighet for FP32/INT32 på likt slik som Volta. Og at disse dermed vil være avleggere av Volta arkitekturen, slik at "Ampere" gir mening. Eventuelt at de også får Tensor cores for å få støtte for DLSS, men at RT cores sannsynligvis blir helt bortkastet på de små brikkene. Men med Tensor cores og FP32/INT32, blir ikke det "bare" Volta kort i så fall?..

  • Liker 1
Lenke til kommentar

Hvis du tar en kikk på videoene til Gamers Nexus der de tar fra hverandre et RTX 2080 og viser et RTX 2080 Ti uten kjøler ser du at de var produsert i midten av juli som "quality sample" og "engineering sample" (husker ikke hvilken GPU som var hvilken). Med andre ord har ikke Nvidia bygget opp lager, men snarere kjørt tapeout senere.

  • Liker 1
Lenke til kommentar

Det er en av grunnene til at de bruker 12nm isteden for 7nm. 12nm er en kjent prosess, hvor de har produsert GV100 i nesten halvannet år nå. Per dags dato er ikke 7nm egnet til store brikker med høy effektbruk og stort volum.

 

Tidligst...

 

De begynner nok med TU107 og/eller TU108 først. Kansje mot slutten av året eller helt i begynnelsen av neste år.

 

Så tipper jeg det kommer en "TU100" for å erstatte GV100 til neste vår, dette blir en enorm brikke, men den kan selges til en veldig høy pris, så spiller ingen rolle om yields er dårlige.

 

Slik jeg tolker det du skriver her HKS er at det ikke kommer noen 7nm verson av 2080Ti i 2019? For hvis Nvidia kan komme med en "TU100" først på 7nm i 2019, så tar det vel 6-12 mnd før vi ser en slik stor brikke brukt i mainstream?

 

Da er det jo egentlig ikke så dumt å kjøpe 2080Ti nå, om man kan klare å svelge den digre kamelen som er prisen på den...

Lenke til kommentar

Slik jeg tolker det du skriver her HKS er at det ikke kommer noen 7nm verson av 2080Ti i 2019? For hvis Nvidia kan komme med en "TU100" først på 7nm i 2019, så tar det vel 6-12 mnd før vi ser en slik stor brikke brukt i mainstream?

Det jeg sier er at jeg ikke vet noe om 7nm versjoner av TU102/TU104/TU106.

 

Så sier jeg også at jeg tipper at TU107 og/eller TU108 blir første konsumentprodukt fra Nvidia produsert på TSMC sin 7nm.

 

Så tipper jeg den første store/enorme brikken på 7nm blir lansert i mars 2019 (la oss kalle den TU100). Det er en oppfølger til GV100, og den vil ikke lanseres som et konsumentprodukt, kun Tesla og etterhvert Quadro og Titan. Primært er dette en oppfølger til Titan V100 og datasenterprodukter.

Lenke til kommentar

Så tipper jeg den første store/enorme brikken på 7nm blir lansert i mars 2019 (la oss kalle den TU100). Det er en oppfølger til GV100, og den vil ikke lanseres som et konsumentprodukt, kun Tesla og etterhvert Quadro og Titan. Primært er dette en oppfølger til Titan V100 og datasenterprodukter.

 

Ja var noe sånt jeg tenkte du mente. Det jeg mente var å spørre deg om du tipper at en litt nedtrimma verson av den kommer for mainstream, la oss si 6-12 mnd etter? Ergo en 7nm etterfølger til 2080Ti.

Endret av Betroz
Lenke til kommentar

Huffda, GN's video må nok postes i "min" tråd ja. :p Jeg måtte flire litt på 6:06 som jeg har linket direkte til. Men ellers mye interessant informasjon også. Og for å si det slik; GN har nå kortet i hende, og har selvsagt allerede fått testet det litt i det minste, selv om de velger å ikke gå ut med resultatene enda. Om de er unødvendig negative, så driter de igrunnen bare seg selv ut, og har sånn sett ikke mye å tjene på det...

 

Ellers har jeg ikke sett noe om DLSS 2x? Det står kanskje litt om det i Anandtech's artikkel? Jeg har ikke rukket å kikke på den enda.

 

Det har vært en del diskusjon om hva DLSS egentlig er rundt på nettet. Og selv om det åpenbart ikke er ekte Super Sampling det Nvidia har gått ut med til nå, slik at det har vært noe missvisende å kalle DLSS for Super Sampling. Så kommer de ihvertfall nærmere med DLSS 2x. DLSS er oppskalering fra f.eks, 1080p til 4K, ved hjelp av AI, der Nvidia tilsynelatende mener resultatet tilsvarer noe som om det hadde vært Super Samplet. Med DLSS 2x så skal det faktisk være rendring i native oppløsning, og så AA ved hjelp av AI/Tensor Cores. Altså at et "tilsvarende" Pascal kort måtte satt av CUDA cores til AA, mens Turing kan bruke Tensor Cores i stedet, og dermed får flere tilgjengelige CUDA cores til den "vanlige" jobben. Men jeg antar spillet fremdeles må være klargjort for DLSS av utvikleren, så selv om det likner mer på "tradisjonell" SS, så vil det nok i utgangspunktet kun gjelde utvalgte titler...

 

https://youtu.be/fpTzkrBUnGo?t=366

Endret av Gabri3L
  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...