Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Gi meg teknologiske nyvinninger der folk ikke har betalt "blodpris" for det? Hva skjedde med biler f.eks for at de etterhvert skulle bli allemannseie? Hva med mobiltelefoner? 

 

Man betaler for å støtte utviklingen fremover. Eller man lar være. Det trenger nødvendigvis ikke ta så alt for lang tid å omskrive måten PhysX fungerer på cuda kjerner til RT eller tensor kjerner f.eks, eller projectiler i RTS og FPS spill, så det er fullt mulig å utnytte spillene for esport, selv om man ikke spiller med raytraced lys. Etterhvert vil utviklerne se mulighetene, og hva som faktisk kan dyttes over som igjen vil gi ytligere ytelses-hopp. 

 

Hvor mange % av skjermkort vil kunne kjøre RT eller noen av de nye funksjonene de neste 2-3 årene? Tror du spillselskapene vil kaste seg rundt å utvikle dette for 1% av alle potensielle kjøpere?  Nvidia vil støtte endel spill som vi har sett men bare AAA titler og bare noen.

 

Uansett er det positivt at nye ting kommer men denne lanseringen lukter lang vei. 7nm på vei og kanskje neste år vil RTX gi mening men ikke nå. Men hvem vet? Kanskje Nvidia har noen lure kort og vi alle blir positivt overasket. 

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

Eg trur raytracing vil ta skikkeleg av. Fordi det er ein enkel algoritme som er lett å integrere og som gir fantastiske resultater. Hacks som det har blitt gjort massevis opp igjennom årene er betydeleg meir tidskrevjande å integrere og ikkje minst tilpasse.

Jepp, her er du inne på "kjernen" av teknologien. For spillutviklere kommer raytracing faktisk til å spare mye tid. GPU tar dynamisk hånd ut utregninger for skygger, etc.

 

Det eneste de trenger å gjøre er å legge inn noe enkle statiske skygger, etc. for legacy hardware i en overgangsperiode.

Lenke til kommentar

Eg trur raytracing vil ta skikkeleg av. Fordi det er ein enkel algoritme som er lett å integrere og som gir fantastiske resultater. Hacks som det har blitt gjort massevis opp igjennom årene er betydeleg meir tidskrevjande å integrere og ikkje minst tilpasse.

Det vil ikke ta av før 2 generasjoner til, ikke før kort rundt prissjikte til 1060 som kan utnytte dette. Når de fleste får sjangs til å kjøpe HW med RT. Men at det går riktig vei er vel ikke ligge under en stol :) 

  • Liker 4
Lenke til kommentar

Det vil ikke ta av før 2 generasjoner til, ikke før kort rundt prissjikte til 1060 som kan utnytte dette. Når de fleste får sjangs til å kjøpe HW med RT. Men at det går riktig vei er vel ikke ligge under en stol :)

 

Om 2 generasjoner så vil spel sjå verre ut enn dagens om du ikkje har raytracing. Alt handler om å få folk til å oppgradere. Bare sjå på Crysis, over 10 år gamalt og framleis meir lekkert enn mange av dagens spel.

Lenke til kommentar

Om 2 generasjoner så vil spel sjå verre ut enn dagens om du ikkje har raytracing. Alt handler om å få folk til å oppgradere. Bare sjå på Crysis, over 10 år gamalt og framleis meir lekkert enn mange av dagens spel.

Du klarer altså å kjøre Crysis uten at framerate faller under 50 fps?

Spillet skalerer ikke spesielt bra forbi to kjerner.

 

En annen ting som er verdt å merke seg fra Crysis er at det er vesentlig mindre kompleks geometri i det spillet sammenlignet med dagens spill, det ser fortsatt OK ut, men er ikke like pent som nyere AAA-spill.

Lenke til kommentar

Hvorfor er det spesielt? Ingen hadde vel stolt 100% på nVidia sine tester uansett, og de har ikke for vane å gi ut ytelsestester.

Normalt har man ikke sett tester før kortet er tilgjengelig, forskjellen her er at de heller ikke har pleid å ha en lengre forhåndssalgsperiode.

  • Liker 2
Lenke til kommentar

Hvor mange % av skjermkort vil kunne kjøre RT eller noen av de nye funksjonene de neste 2-3 årene? Tror du spillselskapene vil kaste seg rundt å utvikle dette for 1% av alle potensielle kjøpere?  Nvidia vil støtte endel spill som vi har sett men bare AAA titler og bare noen.

 

Uansett er det positivt at nye ting kommer men denne lanseringen lukter lang vei. 7nm på vei og kanskje neste år vil RTX gi mening men ikke nå. Men hvem vet? Kanskje Nvidia har noen lure kort og vi alle blir positivt overasket. 

Ja. Rett og slett fordi det er sånn det kommer til å bli utover. Er man utvikler så skal man, og burde man oppdatere seg innenfor det nyeste, og dette er og vill være det nyeste i lang tid fremover. Raytracing er kommet for å bli, det samme er DLSS. Da nevner vi ikke en haug av andre nyttige egenskaper som Tensor og RT kjernene kan ha. 

 

nVidia er veldig flinke når det gjelder support. Så nei, det er ikke bare AAA spill som får støtte, det er alle sammen så lenge man spør om hjelp. 

Lenke til kommentar

Ja. Rett og slett fordi det er sånn det kommer til å bli utover. Er man utvikler så skal man, og burde man oppdatere seg innenfor det nyeste, og dette er og vill være det nyeste i lang tid fremover. Raytracing er kommet for å bli, det samme er DLSS. Da nevner vi ikke en haug av andre nyttige egenskaper som Tensor og RT kjernene kan ha. 

 

nVidia er veldig flinke når det gjelder support. Så nei, det er ikke bare AAA spill som får støtte, det er alle sammen så lenge man spør om hjelp. 

så skal det sies at både AMD sitt RadeonRays og NVidia RTX går igjennom DXR APIet i DX12, Vulkan holder på å utvikle lignende API på denne måten er det lettere å implementere som utvikler.

 

liker ikke disse 1% prosent kommentarene, for når denne 1% blir 20% så ligger de utviklerne som lå på latsiden etter med erfaring. mye lignende det vi opplevde når vi først fikk multi-core CPUer, hvor spill knapt klarte å støtte 2 kjerner ordentlig og enda mindre 4 kjerner. nå når det kommer til flerkjerner så lages det til å kunne utnytte mer eller mindre så mange kjerner dem kan(dem klarer ikke utnytte alle kjernene 100% men at dem blir brukt til noe er jo en forbedring isteden for at man har 4 kjerner som brukes 100% og 4 andre kjerner som brukes 0%)

Endret av darkyy
Lenke til kommentar

Eg trur at de fleste spel vil ligge på 2-4 tråder, meir enn det vil gi for stor overhead og kompleksitet. Det vil finnes unntak, men eit typisk FPS spel har mest å hente på å bare bruke 2-4 tråder. Hovedgrunnen er at å bytte arbeid mellom kjernene går utover L1 og L2 cachen og branch prediction. Så om du greier å halde mest mogleg arbeid på ein kjerne / 2 tråder så vil du får mykje bedre og jevnere ytelse. Doom er eit veldig godt eksempel på dette.

 

Spel handler om latency, altså å kalkulere eit bilete på så få millisekund som mogleg. Det handler ikkje om throughput, fordi du ikkje greier delegerere vekk nok arbeid som skal bli gjort ferdig på nokre få millisekund.

 

Windows skalerer også frykteleg dårleg med mange CPU kjerner.

Lenke til kommentar

BFV utvikles vel for å kjøre optimalt på 12 CPU hardware kjerner?

 

Eg trur neppe det er optimalisert, iallefall ikkje for spel. Det er heilt umogleg å få det til. Og eg trur og neppe at dei er så dumme og ber 90% av markedet deira om å oppgradere fra quad core.

 

Til og med fleire tyngre applikasjoner skalerer dårleg over 8 tråder/kjerner. Det skalerer veldig bra om du greier å delegere STORE oppgaver som kan kjøre over lengre tid uten å måtte synkronisere states. Som f.eks video encoding, kompilering, tallknusing osv. Men sjølv med Tensorflow, om du sitter med mindre modeller, så skalerer det ikkje meir enn 1-2 tråder, fordi det er rett og slett ingen gevinst å hente. Men jo færre kjerner du bruker, jo høgare turbo-boost får du.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...