scuderia Skrevet 3. september 2018 Del Skrevet 3. september 2018 Gi meg teknologiske nyvinninger der folk ikke har betalt "blodpris" for det? Hva skjedde med biler f.eks for at de etterhvert skulle bli allemannseie? Hva med mobiltelefoner? Man betaler for å støtte utviklingen fremover. Eller man lar være. Det trenger nødvendigvis ikke ta så alt for lang tid å omskrive måten PhysX fungerer på cuda kjerner til RT eller tensor kjerner f.eks, eller projectiler i RTS og FPS spill, så det er fullt mulig å utnytte spillene for esport, selv om man ikke spiller med raytraced lys. Etterhvert vil utviklerne se mulighetene, og hva som faktisk kan dyttes over som igjen vil gi ytligere ytelses-hopp. Hvor mange % av skjermkort vil kunne kjøre RT eller noen av de nye funksjonene de neste 2-3 årene? Tror du spillselskapene vil kaste seg rundt å utvikle dette for 1% av alle potensielle kjøpere? Nvidia vil støtte endel spill som vi har sett men bare AAA titler og bare noen. Uansett er det positivt at nye ting kommer men denne lanseringen lukter lang vei. 7nm på vei og kanskje neste år vil RTX gi mening men ikke nå. Men hvem vet? Kanskje Nvidia har noen lure kort og vi alle blir positivt overasket. 1 Lenke til kommentar
siDDis Skrevet 3. september 2018 Del Skrevet 3. september 2018 Eg trur raytracing vil ta skikkeleg av. Fordi det er ein enkel algoritme som er lett å integrere og som gir fantastiske resultater. Hacks som det har blitt gjort massevis opp igjennom årene er betydeleg meir tidskrevjande å integrere og ikkje minst tilpasse. 6 Lenke til kommentar
HKS Skrevet 3. september 2018 Del Skrevet 3. september 2018 Eg trur raytracing vil ta skikkeleg av. Fordi det er ein enkel algoritme som er lett å integrere og som gir fantastiske resultater. Hacks som det har blitt gjort massevis opp igjennom årene er betydeleg meir tidskrevjande å integrere og ikkje minst tilpasse.Jepp, her er du inne på "kjernen" av teknologien. For spillutviklere kommer raytracing faktisk til å spare mye tid. GPU tar dynamisk hånd ut utregninger for skygger, etc. Det eneste de trenger å gjøre er å legge inn noe enkle statiske skygger, etc. for legacy hardware i en overgangsperiode. Lenke til kommentar
-=HellBound=- Skrevet 3. september 2018 Del Skrevet 3. september 2018 Eg trur raytracing vil ta skikkeleg av. Fordi det er ein enkel algoritme som er lett å integrere og som gir fantastiske resultater. Hacks som det har blitt gjort massevis opp igjennom årene er betydeleg meir tidskrevjande å integrere og ikkje minst tilpasse. Det vil ikke ta av før 2 generasjoner til, ikke før kort rundt prissjikte til 1060 som kan utnytte dette. Når de fleste får sjangs til å kjøpe HW med RT. Men at det går riktig vei er vel ikke ligge under en stol 4 Lenke til kommentar
funkweb Skrevet 3. september 2018 Del Skrevet 3. september 2018 Det vil ikke ta av før 2 generasjoner til, ikke før kort rundt prissjikte til 1060 som kan utnytte dette. Når de fleste får sjangs til å kjøpe HW med RT. Men at det går riktig vei er vel ikke ligge under en stol Det er akkurat det !! Lenke til kommentar
Theo343 Skrevet 3. september 2018 Del Skrevet 3. september 2018 (endret) Siden vi er inne på CPU også. Når kommer første Intel CPU som endelig har fikset problemene med spekulativ eksekvering for godt? Må vi vente på en helt ny arkitektur? https://www.theregister.co.uk/2018/08/14/intel_l1_terminal_fault_bugs/ Siden vi også snakker litt aktuelle CPUer mot korta. Endret 3. september 2018 av Theo343 Lenke til kommentar
siDDis Skrevet 3. september 2018 Del Skrevet 3. september 2018 Det vil ikke ta av før 2 generasjoner til, ikke før kort rundt prissjikte til 1060 som kan utnytte dette. Når de fleste får sjangs til å kjøpe HW med RT. Men at det går riktig vei er vel ikke ligge under en stol Om 2 generasjoner så vil spel sjå verre ut enn dagens om du ikkje har raytracing. Alt handler om å få folk til å oppgradere. Bare sjå på Crysis, over 10 år gamalt og framleis meir lekkert enn mange av dagens spel. Lenke til kommentar
MisterXS Skrevet 4. september 2018 Del Skrevet 4. september 2018 GTX 2060 yter nok bedre enn RTX 2070, med tanke på FPS. Ellers hadde det ikke hatt sin rett i porteføljen. Jeg velger å vente 2-3 generasjoner til. Lenke til kommentar
Snuggis Skrevet 4. september 2018 Del Skrevet 4. september 2018 GTX 2060 yter nok bedre enn RTX 2070, med tanke på FPS. Ellers hadde det ikke hatt sin rett i porteføljen. Jeg velger å vente 2-3 generasjoner til. Lenke til kommentar
N o r e n g Skrevet 4. september 2018 Del Skrevet 4. september 2018 Om 2 generasjoner så vil spel sjå verre ut enn dagens om du ikkje har raytracing. Alt handler om å få folk til å oppgradere. Bare sjå på Crysis, over 10 år gamalt og framleis meir lekkert enn mange av dagens spel. Du klarer altså å kjøre Crysis uten at framerate faller under 50 fps? Spillet skalerer ikke spesielt bra forbi to kjerner. En annen ting som er verdt å merke seg fra Crysis er at det er vesentlig mindre kompleks geometri i det spillet sammenlignet med dagens spill, det ser fortsatt OK ut, men er ikke like pent som nyere AAA-spill. Lenke til kommentar
gthaman Skrevet 4. september 2018 Del Skrevet 4. september 2018 GTX 2060 yter nok bedre enn RTX 2070, med tanke på FPS. Ellers hadde det ikke hatt sin rett i porteføljen. Jeg velger å vente 2-3 generasjoner til. ?? Lenke til kommentar
leifeinar Skrevet 4. september 2018 Del Skrevet 4. september 2018 Spesielt at vi ikke har fått noen tester enda. Noen ovebevisende tester hadde nok fått fart på forhåndssalget. Lenke til kommentar
NoTrace Skrevet 4. september 2018 Del Skrevet 4. september 2018 Hvorfor er det spesielt? Ingen hadde vel stolt 100% på nVidia sine tester uansett, og de har ikke for vane å gi ut ytelsestester. Normalt har man ikke sett tester før kortet er tilgjengelig, forskjellen her er at de heller ikke har pleid å ha en lengre forhåndssalgsperiode. 2 Lenke til kommentar
oophus Skrevet 4. september 2018 Del Skrevet 4. september 2018 Hvor mange % av skjermkort vil kunne kjøre RT eller noen av de nye funksjonene de neste 2-3 årene? Tror du spillselskapene vil kaste seg rundt å utvikle dette for 1% av alle potensielle kjøpere? Nvidia vil støtte endel spill som vi har sett men bare AAA titler og bare noen. Uansett er det positivt at nye ting kommer men denne lanseringen lukter lang vei. 7nm på vei og kanskje neste år vil RTX gi mening men ikke nå. Men hvem vet? Kanskje Nvidia har noen lure kort og vi alle blir positivt overasket. Ja. Rett og slett fordi det er sånn det kommer til å bli utover. Er man utvikler så skal man, og burde man oppdatere seg innenfor det nyeste, og dette er og vill være det nyeste i lang tid fremover. Raytracing er kommet for å bli, det samme er DLSS. Da nevner vi ikke en haug av andre nyttige egenskaper som Tensor og RT kjernene kan ha. nVidia er veldig flinke når det gjelder support. Så nei, det er ikke bare AAA spill som får støtte, det er alle sammen så lenge man spør om hjelp. Lenke til kommentar
RRhoads Skrevet 4. september 2018 Del Skrevet 4. september 2018 GTX 2060 yter nok bedre enn RTX 2070, med tanke på FPS. Ellers hadde det ikke hatt sin rett i porteføljen. Jeg velger å vente 2-3 generasjoner til.Regner med at du mener GTX 1070, og ikke RTX 2070. Lenke til kommentar
darkyy Skrevet 4. september 2018 Del Skrevet 4. september 2018 (endret) Ja. Rett og slett fordi det er sånn det kommer til å bli utover. Er man utvikler så skal man, og burde man oppdatere seg innenfor det nyeste, og dette er og vill være det nyeste i lang tid fremover. Raytracing er kommet for å bli, det samme er DLSS. Da nevner vi ikke en haug av andre nyttige egenskaper som Tensor og RT kjernene kan ha. nVidia er veldig flinke når det gjelder support. Så nei, det er ikke bare AAA spill som får støtte, det er alle sammen så lenge man spør om hjelp. så skal det sies at både AMD sitt RadeonRays og NVidia RTX går igjennom DXR APIet i DX12, Vulkan holder på å utvikle lignende API på denne måten er det lettere å implementere som utvikler. liker ikke disse 1% prosent kommentarene, for når denne 1% blir 20% så ligger de utviklerne som lå på latsiden etter med erfaring. mye lignende det vi opplevde når vi først fikk multi-core CPUer, hvor spill knapt klarte å støtte 2 kjerner ordentlig og enda mindre 4 kjerner. nå når det kommer til flerkjerner så lages det til å kunne utnytte mer eller mindre så mange kjerner dem kan(dem klarer ikke utnytte alle kjernene 100% men at dem blir brukt til noe er jo en forbedring isteden for at man har 4 kjerner som brukes 100% og 4 andre kjerner som brukes 0%) Endret 4. september 2018 av darkyy Lenke til kommentar
siDDis Skrevet 4. september 2018 Del Skrevet 4. september 2018 Eg trur at de fleste spel vil ligge på 2-4 tråder, meir enn det vil gi for stor overhead og kompleksitet. Det vil finnes unntak, men eit typisk FPS spel har mest å hente på å bare bruke 2-4 tråder. Hovedgrunnen er at å bytte arbeid mellom kjernene går utover L1 og L2 cachen og branch prediction. Så om du greier å halde mest mogleg arbeid på ein kjerne / 2 tråder så vil du får mykje bedre og jevnere ytelse. Doom er eit veldig godt eksempel på dette. Spel handler om latency, altså å kalkulere eit bilete på så få millisekund som mogleg. Det handler ikkje om throughput, fordi du ikkje greier delegerere vekk nok arbeid som skal bli gjort ferdig på nokre få millisekund. Windows skalerer også frykteleg dårleg med mange CPU kjerner. Lenke til kommentar
Theo343 Skrevet 4. september 2018 Del Skrevet 4. september 2018 (endret) BFV utvikles vel for å kjøre optimalt på 12 CPU hardware kjerner? Endret 4. september 2018 av Theo343 Lenke til kommentar
gthaman Skrevet 4. september 2018 Del Skrevet 4. september 2018 BFV utvikles vel for å kjøre optimalt på 12 CPU hardware kjerner? Høres perfekt ut Jeg feiga ut og kjøpte kun 12 kjerner Har forhåndsbestilt vannblokker og bakplater til kortene fra EK nå Lenke til kommentar
siDDis Skrevet 4. september 2018 Del Skrevet 4. september 2018 BFV utvikles vel for å kjøre optimalt på 12 CPU hardware kjerner? Eg trur neppe det er optimalisert, iallefall ikkje for spel. Det er heilt umogleg å få det til. Og eg trur og neppe at dei er så dumme og ber 90% av markedet deira om å oppgradere fra quad core. Til og med fleire tyngre applikasjoner skalerer dårleg over 8 tråder/kjerner. Det skalerer veldig bra om du greier å delegere STORE oppgaver som kan kjøre over lengre tid uten å måtte synkronisere states. Som f.eks video encoding, kompilering, tallknusing osv. Men sjølv med Tensorflow, om du sitter med mindre modeller, så skalerer det ikkje meir enn 1-2 tråder, fordi det er rett og slett ingen gevinst å hente. Men jo færre kjerner du bruker, jo høgare turbo-boost får du. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå