Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

Den "negative" RTX20 serie tråden :P


Gabri3L

Anbefalte innlegg

EDIT: Bare en liten forklaring på trådtittel til eventuelle nye lesere som ikke har fått det med seg: Det er en annen mye større tråd om RTX20 serien, der jeg har deltatt med synspunkter og linker. At jeg forholdt meg til faktisk informasjon på nettet fra Nvidia selv, som viste at ytelsen til RTX20 kortene i tradisjonelle titler var skuffende. Ble sett på som "negativ" holdning fra meg. Og enkelte gikk så langt som å be meg slutte å delta i tråden av den grunn. Derfor altså, opprettet jeg en tråd her, der det er lov å ha "negative" holdninger. Selv om de ikke nødvendigvis er negative, det er bare litt ironi..

 

Vel, jeg trenger visst denne tråden uansett! :p
 
Skulle til å spørre i den andre tråden hva folk synes om at RTX2070 ikke får støtte for NVLINK, men det hadde jo sikkert blitt "negativt" bare å spørre, vel, ihvertfall fra meg. Men jeg orker ikke å måtte drive med selv sensurering på grunn av sarte sjeler i den andre tråden. Så nå flytter jeg meg heller til denne tråden der det er resultatene som teller, om de er positive eller negative. Der det er lov å spekulere, uavhengig av om det ikke setter Nvidia i et godt lys, eller ikke. Og fremfor alt, der det handler om produktene til Nvidia, og ytelsen demmes, og ikke folkene som eventuelt måtte finne på å delta i tråden.

Morsomme igjen at jeg egentlig har lyst til å snakke litt om det kommende "Atomic Heart" som kommer med både RT og DLSS støtte, og som jeg synes ser veldig veldig interessant ut i henhold til min spill smak.

 

Men det må da vel være enda mer interessant hva det eventuelt betyr at Nvidia nå tar livet av "SLI" enda et hakk opp? I Pascal var det xx60 som fikk "øksa", og nå altså xx70. Er det så enkelt som at RTX2070 SLI ville ha kommet til å kunne slå RTX2080Ti på et lavere eller tilsvarende prispunkt? Eller vil Nvidia rett og slett av med hele SLI?

Endret av Gabri3L
  • Liker 2
Lenke til kommentar
Videoannonse
Annonse

SLI via NVLink kommer til å implementert på en helt annen måte enn gammeldags SLI.

 

Gammeldags SLI er over og ut.

De kommer selvsagt til å fikse bugs, og sakte men sikkert legge til profiler, men det kommer neppe til å prioriteres.

 

Eneste grunnen til at de gjør dette er $$$. De ønsker at "SLI over NVLink-bru" skal være en premium feature tenker jeg.

Lenke til kommentar

Eneste negative er at døgnet bare har 24 timer :p

Nåvel, jeg skulle gjerne hatt mer enn 24t i døgnet av og til jeg også, men tror du de 6 timene ekstra i et f.eks. 30 timers døgn, ville blitt fylt med jobb, eller morro? ;)

 

Uansett, det er mye som er litt rart med denne lanseringen. At de fjerner NVLink på RTX2070 er kanskje en av de tingene som vil se minst rart ut når vi vet mer. Med den høye båndbredden til NVLink vil vi kanskje (forhåpentligvis) se en større tradisjonell skalering for SLI enn før også. Men de nye parametrene GRays/s og RTX-OPS kommer også til å bli interessant å se hvordan vil skalerer med NVLink. Bare fordi om "tradisjonell" ytelse ikke alltid skalerer så godt med SLI, og selv om det skulle vise seg at det fortsetter, så kan det jo tenkes at for eksempel GRays/s vil skalere perfekt. Og i så fall blir det jo et enkelt regnestykke: 1 x RTX2080Ti = 10 GRays/s vs. 2 x RTX2070 = 12 GRays/s. Altså man får potensielt 20% flere GRays/s for samme pris, som igjen kan bety at mange nok ville vurdert 2 x RTX2070 fremfor 1 x RTX2080Ti.

 

Nå ser vi ihvertfall 3 spill til nå, der utviklerne bekrefter at de sikter på 1080p@60fps med RTX2080Ti. Skal vi da, basert på antall GRays/s de har, gå ut fra at de sikter på 800p med RTX2080, og helt ned i 600p med RTX2070? Jeg tror ihvertfall det siste blir alt for lavt til at dette gir mening, og dermed at det blir en bilde kvalitets forskjell med færre refleksjoner avhengig av antall GRays/s. Som i så fall betyr at om 2 x RTX2070 kunne klart å opprettholde samme oppløsning og fps, men med dårligere bildekvalitet enn  som 1 x RTX2080Ti, så ville kvaliteten på bildet med 2 x RTX2070 kunne blitt bedre. Igjen, for samme pris, dersom RTX2070 ble solgt på samme prispunkt som i dag. I så fall er det ihvertfall ikke rart at de fjerner NVLink på RTX2070.

 

Men, det er klart, det kan jo selvsagt også være enda enklere: NVLink må nødvendigvis være fordyrende, og Nvidia skjønte/trodde at RTX2070 ville blitt for dyr med NVLink. Nå aner jeg jo ikke hvor mye NVLink ville lagt til i kostnad/pris. Men om Nvidia kunne svelgt kostnaden og fremdeles solgt det for $599 med NVLink, så ville de potensielt drept salget av RTX2080Ti. Mens om NVLink gjorde RTX2070 enda $100 dyrere, så hadde de drept salget av RTX2070, ved å legge til en funksjon som ingen ville ha, eller bruke, fordi at for $699 så "tjener" man ikke lenger noe på 2 x RTX2070 vs 1 x RTX2080Ti. Altså; bedre å spare pengene, og gjøre RTX2070Ti tilgjengelig for flere ved å senke prisen..

 

Edit: Endret (vel, slettet/byttet) setning som sa omtrent det motsatte av hva jeg mente å skrive. :p

Endret av Gabri3L
Lenke til kommentar

Nå ser vi ihvertfall 3 spill til nå, der utviklerne bekrefter at de sikter på 1080p@60fps med RTX2080Ti.

Ville ventet litt med å trekke slutninger her, den gjennomsnittlige utvikleren har hatt tilgang til hardware og software stack i pre-release beta i to uker før demo.

 

Men, det er klart, det kan jo selvsagt også være enda enklere: NVLink må nødvendigvis være fordyrende, og Nvidia skjønte/trodde at RTX2070 ville blitt for dyr med NVLink. Nå aner jeg jo ikke hvor mye NVLink ville lagt til i kostnad/pris.

TU102 og TU102 har 2 NVLink kontrollere, det er en betydelig mengde transistorer på brikken som implementerer det, så noe av grunnen er nok å få flere fungerende brikker (høyere yield).
  • Liker 2
Lenke til kommentar

Ville ventet litt med å trekke slutninger her, den gjennomsnittlige utvikleren har hatt tilgang til hardware og software stack i pre-release beta i to uker før demo.

Jeg har det i bakhodet, har fremdeles vanskelig for å tro at vi virkelig skal ned på 1080p igjen. Men jeg så et intervju med en representant for en av utviklerne. Husker ikke om det var Metro, Tomb Raider, eller BF. Han ble uansett spurt om hvor lenge de hadde hatt tilgang på dette. Og han svarte, riktignok litt usikkert, men mente det var snakk om 4 - 6 måneder de hadde hatt. Jeg tror litt basert på at det er langt fra 1080p til 4K, at utviklerne ikke sikter på mer enn 1080p etter eget utsagn, og det at Nvidia enda ikke har vært ute og "slukket brannen", at 4K ihvertfall er helt uaktuelt. Og når man først har gjort den erkjennelsen, så... :p

 

TU102 og TU102 har 2 NVLink kontrollere, det er en betydelig mengde transistorer på brikken som implementerer det, så noe av grunnen er nok å få flere fungerende brikker (høyere yield).

Ah, regner med du mente TU102 og TU104. Mener du de er designet med 2 NVLink kontrollere som en form for "redundancy" under produksjonen? At de er designet med 2 kontrollere for å øke sjansen for å få ihvertfall en fungerende, slik at de slipper å kaste hele brikken? I så fall, om 2070 brikkene er brikker med ødelagte deler som gjør NVLink umulig på dem, så er de jo på en måte ren fortjeneste. De kunne jo ikke blitt brukt som 2080, og måtte dermed blitt kastet. Å "redde" dem med en 2070 modell er i så fall både smart, og en god forklaring på hvorfor den eksistere i sin form. :)

  • Liker 1
Lenke til kommentar

Jeg syns ikke det rart at 2070 ikke får støtte for nvlink(?). Trenger man mer ytelse enn 2070 gir, kjøper man vel bare 2080/ti...

 

Vel, dersom NVLink blir veldig bra på "SLI" skalering, slik at 2 x RTX2070 ville gitt så og si samme ytelse som 1 x 2080Ti. Så ville det kunne gitt mening for de som ikke har $999, å begynne med ett RTX2070, og så spare til nummer 2, og kjøpe det senere. Nå får vi ikke den muligheten. Men med RTX2080 så kan det gi mening. "Just two small installments of six ninety nine!". :p

Lenke til kommentar

 Det kan også være at det skalerer bedre enn sli slik at 2x 2070 yter bedre enn 2080 og kanskje 2080ti. Da kan det bli slik at det "lønner" seg å kjøpe 2x 2070 kontra et av de andre i et pris/ytelse valg. Det er kanskje også dette de ønsker å forhindre.  Var det ikke 2x 960/70 so var et godt valg for noen år siden?

 

Videre hvis nvlink er bra så kan det hende man kan skalere over flere enn to kort så kan en haug med 2070 være en interessant løsning om ikke akkuratt elegant.

Lenke til kommentar

 Det kan også være at det skalerer bedre enn sli slik at 2x 2070 yter bedre enn 2080 og kanskje 2080ti. Da kan det bli slik at det "lønner" seg å kjøpe 2x 2070 kontra et av de andre i et pris/ytelse valg. Det er kanskje også dette de ønsker å forhindre.  Var det ikke 2x 960/70 so var et godt valg for noen år siden?

 

Videre hvis nvlink er bra så kan det hende man kan skalere over flere enn to kort så kan en haug med 2070 være en interessant løsning om ikke akkuratt elegant.

 

SLI har vel egentlig aldri egentlig gitt mening i et kost ytelses perspektiv, men på et tidspunkt var det vel et par super populære spilltitler som skalerte så bra at det kunne lønne seg med enkelte modeller. Men det var jo aldri problemfritt før nå som "ingen" støtter det lenger (micro stuttering f.eks.). Sånn sett har det egentlig alltid kun vært SLI med toppmodellen som har gitt "mening" da det har vært eneste måten å få raskere ytelse enn toppmodellen. Og da får det heller bare være at den raskere ytelsen kan variere fra nærmere 0% til nærmere 100% (hvis vi ikke regner med de titlene der man blir straffet for å bruke SLI. :p).

 

RTX2080 og Ti får bare en NVLink kontakt hver, så det går kun an å kople to av dem sammen slik. Ihvertfall ett av Volta kortene har 2 NVLink kontakter, og kan dermed linke flere kort. Av en eller annen grunn er NVLink porten på RTX kortene snudd motsatt vei, muligens slik at man ikke skal bruke NVLink adaptere beregnet på Volta ved forbytning. De er kanskje ikke kompatible?

 

Noe av det som er unikt med NVLink, er at kortene nå får tilgang til hverandres VRAM, slik at denne ikke lenger trenger å speiles 100%. Det tviler jeg på går over PCIe portene, slik at multiGPU på "gamle måten" (Explicit Multi-GPU med DirectX 12) uten SLI (som da blir "gamle gamle måten"), vil være interessant å se hvordan utarter seg. I "Ashes of the benchmarks" støttes mGPU med  forskjellige kort osv. vha. Explicit Multi-GPU med DirectX 12. Og det kan bli en artig måte å se hvordan NVLink potensielt øker ytelsen over Explicit Multi-GPU med DirectX 12.

 

Flere RTX2070 vil vel sannsynligvis være mulig å benytte nettopp med Explicit Multi-GPU med DirectX 12. Men man vil så og si aldri få 100% skalering med det. Og da blir det som nevnt over bare dumt å satse på RTX2070 for mGPU. Prisen blir jo identisk for ett RTX2080Ti, og da må man nesten heller spare til det, dersom det er den ytelsen man "trenger". :)

Lenke til kommentar

Uansett, det er mye som er litt rart med denne lanseringen. At de fjerner NVLink på RTX2070 er kanskje en av de tingene som vil se minst rart ut når vi vet mer. Med den høye båndbredden til NVLink vil vi kanskje (forhåpentligvis) se en større tradisjonell skalering for SLI enn før også. Men de nye parametrene GRays/s og RTX-OPS kommer også til å bli interessant å se hvordan vil skalerer med NVLink. Bare fordi om "tradisjonell" ytelse ikke alltid skalerer så godt med SLI, og selv om det skulle vise seg at det fortsetter, så kan det jo tenkes at for eksempel GRays/s vil skalere perfekt. Og i så fall blir det jo et enkelt regnestykke: 1 x RTX2080Ti = 10 GRays/s vs. 2 x RTX2070 = 12 GRays/s. Altså man får potensielt 20% flere GRays/s for samme pris, som igjen kan bety at mange nok ville vurdert 2 x RTX2070 fremfor 1 x RTX2080Ti.

Jeg vet at ved normal rendring, så skalerer det så og si "perfekt" når det gjelder den biten med NVLink. 

https://www.chaosgroup.com/blog/v-ray-gpu-benchmarks-on-top-of-the-line-nvidia-gpus

 

1.9x skalering ved de fleste tilfellene. Så det beviser jo at det er mulig, så da ligger vell kortene i hendene til utviklerne å legge til støtten til å være bra nok. 

 

 

 

Nå ser vi ihvertfall 3 spill til nå, der utviklerne bekrefter at de sikter på 1080p@60fps med RTX2080Ti. Skal vi da, basert på antall GRays/s de har, gå ut fra at de sikter på 800p med RTX2080, og helt ned i 600p med RTX2070? Jeg tror ihvertfall det siste blir alt for lavt til at dette gir mening, og dermed at det blir en bilde kvalitets forskjell med færre refleksjoner avhengig av antall GRays/s. Som i så fall betyr at om 2 x RTX2070 kunne klart å opprettholde samme oppløsning og fps, men med dårligere bildekvalitet enn 1 x RTX2080Ti, så ville kvaliteten på bildet med 2 x RTX2070 kunne blitt bedre. Igjen, for samme pris, dersom RTX2070 ble solgt på samme prispunkt som i dag. I så fall er det ihvertfall ikke rart at de fjerner NVLink på RTX2070.

 

Jeg tipper heller at DLSS vil få mer å gjøre på et RTX2070 kontra 2080TI, der det hele avhenger av hvor kjapt DLSS finpusser bildet til "ground truth" mellom 6 til 10 GRays/s. Blir spennende å se. 

 

Ved egne tester med nVidia AI denoising som ikke er det samme som DLSS, så klarte selv den å lage tilsvarende resultater som 2x Rays, noe som jo resulterte i at jeg nå rendrer med omtrent halvparten av Rays kontra tidligere. Der ser man ikke noen svær performance loss. Man møter bare en vegg der man må sette opp antall Rays igjen, pga man begynner å se artifacts ved animasjoner etterhvert. Særlig i mørke områder hvor svært få Rays kommer til. 

Lenke til kommentar

Noen som har hørt hvordan NVLink vil fungere på eldre spill? Er det sånn at spillet ser det som et skjermkort eller vil det fungere på spill som støtter SLI eller bare nye spill som er lagd spesifikt for å fungere på NVLink? 

Lenke til kommentar

Lærdommen man kan ta av SLI-historien er at det må gjøres enklere og mer uniformt for at utviklerene skal kunne få til en best mulig ytelse på flere sammenknyttede kort. En kan jo håpe at den ekstra båndbredden på NVLink og smart og mer integrerende og transparent driverstøtte kan rette opp i de problemene som eksisterte for SLI som ofte skalerte alt for dårlig og med problemer. Håper nVidia tilrettelegger godt her, men jeg tror nok dette kommer et stykke ned på prioriteringslisten da markedet blir for lite i forhold til innsatsen det krever.

 

Tenker det blir nok samme ulla som med SLI og at det derfor lønner seg å makse ut ett kort for spill.

 

NVLink har nok flere viktige funksjoner i andre sammenhenger utenom spill.

Lenke til kommentar

Vel, dersom NVLink blir veldig bra på "SLI" skalering, slik at 2 x RTX2070 ville gitt så og si samme ytelse som 1 x 2080Ti. Så ville det kunne gitt mening for de som ikke har $999, å begynne med ett RTX2070, og så spare til nummer 2, og kjøpe det senere. Nå får vi ikke den muligheten. Men med RTX2080 så kan det gi mening. "Just two small installments of six ninety nine!". :p

Ok. Da syns jeg det begynner å bli absurd, er altså logikken her at man skal designe hardware tilpasset de som er nødt for å oppgradere gradvis pga økonomi? Da tenker jeg at man like godt kan spare til et bedre kort i utgangspunktet.

Lenke til kommentar

Noen som har hørt hvordan NVLink vil fungere på eldre spill? Er det sånn at spillet ser det som et skjermkort eller vil det fungere på spill som støtter SLI eller bare nye spill som er lagd spesifikt for å fungere på NVLink? 

Såvidt jeg har forstått så er forskjellen mellom NVLink og SLI det at SLI ikke "samarbeidet". Det eneste kort i SLI gjør er å rendre annenhver frame, som så må kastes gjennom SLI bridgen og PCI-e for å havne på samme sted. Altså til et av skjermkortene som har kabelen tilkoblet til skjermen. 

 

Mens med NVLink, så deler skjermkortene minne. Det vil si at man kan gjøre mye mer med det. Man kan samarbeidet for å rendre halvparten av framen f.eks, eller et kort kan gjøre majoriteten av rendringa, mens det andre kortet kan ta seg av fysikk samt litt av rendring etc etc etc. 

 

Kortene samarbeider, fremfor å jobbe hver for seg. 

Endret av oophus3do
  • Liker 1
Lenke til kommentar

Alt ligger jo tilrette siden NVLink teknisk sett er en mye bedre løsning for samhandling, så jeg er sånn sett mer positiv enn negativ til konseptet. nVidia tenker jo mer distribuert for tiden, og denne tankegangen følger de jo også helt ned på konsument-løsningene som RTX 2080.

Endret av vidor
Lenke til kommentar

Ah, regner med du mente TU102 og TU104. Mener du de er designet med 2 NVLink kontrollere som en form for "redundancy" under produksjonen? At de er designet med 2 kontrollere for å øke sjansen for å få ihvertfall en fungerende, slik at de slipper å kaste hele brikken?

Nvidia har et produkt som kalles Drive Pegasus, som skal begynne å sendes ut som testeksemplarer nå i tredje kvartal av 2018, da den ble annonsert ble det sagt at det skulle brukes to GPU-er med "neste generasjons arkitektur" (Turing) sammen med en SoC der alt er koblet sammen med NVLink.

 

Det kan også tenkes at Nvidia er interessert i å lage Tesla-kort for datasentre med TU-brikkene, og da trengs det også dobbel NVLink.

 

Nvidia har allerede sagt at de ikke har aktivert alle SM-ene på Geforce RTX-produktene, bokstavelig talt de brikkene som ikke kan brukes i Tesla eller Quadro. Med tanke på at både TU102 og TU104 er digre brikker (godt og vel 25% større enn Maxwell om TU102 er en indikasjon) er det ikke egentlig rart at Nvidia prøver å få brukt flest mulig av dem til produkter.

Det som gjenstår å se er om Nvidia lanserer et kort med enda mer avskrudd på TU102 og TU104.

Lenke til kommentar

Ok. Da syns jeg det begynner å bli absurd, er altså logikken her at man skal designe hardware tilpasset de som er nødt for å oppgradere gradvis pga økonomi? Da tenker jeg at man like godt kan spare til et bedre kort i utgangspunktet.

 

Ordvalget gjør meg usikker på om jeg forstår helt hva du mener. Det vil jo på ingen måte være "absurd" å selge en kunde 2 skjermkort som de tjener $200 hver på, enn ett skjermkort som de tjener $300 på. Da ville de jo tjent $100 mer på kunden som må oppgraderer gradvis. Bare for å ta ett eksempel på hvorfor det kunne vært i selskapets egen interesse nettopp å designe hardware for "de som er nødt for å oppgradere gradvis".

 

Et annet eksempel er at det kan tenkes å være et stort nok marked til at man ikke vil la konkurrenten få det for seg selv, selv om man ikke en gang tjente like mye som når man selger bare ett skjermkort til kunden. Og man kan se på det som bedre å selge 2 skjermkort til en kunde som man tjener $100 hver på, og dermed $100 mindre enn om man solgte dem bare det ene bedre kortet. For når man risikerer at alternativet er at man ender opp med å selge 0 skjermkort til den kunden i stedet. Og at den kunden da heller går til konkurrenten og kjøper sine skjermkort gradvis der, og på den måten ikke bare gir tapte salg, men samtidig øker konkurrentens markeds andel. Ja, så blir det plutselig smartere å selge skjermkort man tjener mindre på også.

 

Hva som er smartest for kunden å gjøre vil jo være veldig avhengig av ytelsen til 2 kort i mGPU konfigurasjon, vs 1 kraftigere kort, og selvsagt prisen. Så om man har mulighet til å spare f.eks. maks 500 Kr i måneden, og har spart opp i 10 måneder slik at man nå har 5000 Kr å bruke på nytt skjermkort. Om alternativet nå ved lansering er ikke noe skjermkort før om enda 10 måneder til, eller kjøpe ett 5000 kroners kort i dag, og så et til om 10 måneder. Så er det 10 måneder der man i det minste har skjermkort, men hvor man spiller på "High" i stedet for "ultra".

Lenke til kommentar

SLI (på GP102 og GP104) har en båndbredde på 2 GB/s.

NVLink (på TU102 og TU104) har en båndbredde på 100GB/s

 

SLI-delen på et GPU er i den delen av brikken som kontrollerer skjermene (Display Enigine), og som oophus3do skriver så er bussen primært designet for å sende deler av et komplett skjermbilde, eller et helt bilde. SLi brukes også til å synkronisere hvordan bilder skal skrives til skjerm. Hvis noe data (texturer, variable, etc.) skal deles mellom GPU1 og GPU2 i SLI så så det sendes over PCI Express.

 

NVLink derimot gjør at GPU1 og GPU2 får direkte tilgang (atomisk) til hverandres minne. NVLink er implementert som en kontroller med koblet rett på GPU sin level 2 cache.

 

Videre informasjon om hvordan SLI-over-NVLink funger er det embargo på frem til 14. september.

  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...