Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Videoannonse
Annonse

Noen som vet om den orginale bakplaten kan brukes sammen med EK-Vector vannblokk? :dremel: :dremel:

Siden Techbay ikke har tatt dem inn..

 

Skulle jo tro det, men er neimen ikke sikker. 

 

Trodde et øyeblikk jeg hadde havna i "sutretråden" når jeg trykka meg inn for å lese litt feedbacks etter NDA :D

 

Neida, du er på helt rett sted, feedbacken er bare ikke 100% positiv.

 

 

 

 

Som en liten kommentar til de som ikke vil ha snakk om enten det ene eller det andre, eller synes det er irriterende... Vi er på et forum. Det er bare å starte en ny tråd om ren ytelse fra disse kortene om man vil. Dette er en generell tråd om serien liksom. Pris, lanseringstidspunkt, fargene på viftene. Alt dette er passende i en generell tråd. Hele forumet har gått litt sånn frem og tilbake over åra på dette med samletråder som denne. I perioder har de vært aktivt unngått med stenging og oppfordring til egne tråder om diverse temaer rundt ting. Det fine med de er jo at man har et "fast" sted å la praten flyte. Det klart negative med de er at man blir stående fast i en slags oppfatning om at enkelte temaer ikke er kult å snakke om. Det skjer ikke bare her, det skjer i omtrent hver eneste samletråd på forumet. Derfor vil jeg gjerne oppfordre folk til å starte tråder i hytt og gevær. Det er derfor vi har en hel underkategori dedikert til skjermkort -  en underkategori som ikke akkurat renner over av tråder om 20XX serien. Ikke nok snakk om ytelse her? Start en tråd om det da.

  • Liker 1
Lenke til kommentar

 

Det er faen meg akkurat det samme som skjedde sist gang jeg trodde jeg hadde kjøpt meg et skjermkort som skulle takle 4K, bare den gang var det "Ghost Recon Wildlands" som voldtok GTX1080Ti rett rundt lansering. Nå er det "Monster Hunter World"som får selv RTX2080Ti til å se ut som bajs... ja, og "Ghost Recon Wildlands" da. Til å være et 4K kort er det sannelig ikke mye imponerende i alle titler. Takk og pris for DLSS da... Kanskje... :p

Lenke til kommentar

Det er faen meg akkurat det samme som skjedde sist gang jeg trodde jeg hadde kjøpt meg et skjermkort som skulle takle 4K, bare den gang var det "Ghost Recon Wildlands" som voldtok GTX1080Ti rett rundt lansering. Nå er det "Monster Hunter World"som får selv RTX2080Ti til å se ut som bajs... ja, og "Ghost Recon Wildlands" da. Til å være et 4K kort er det sannelig ikke mye imponerende i alle titler. Takk og pris for DLSS da... Kanskje... :p

Jeg snakker om 1440p, skal bli deilig å ikke måtte redusere innstillinger for å nå 50+
  • Liker 1
Lenke til kommentar

Tror du har misforstått .

Hva folk bruker pengene sine på og hvor mye er meg knekkende likegyldig.

Jeg ønsker all ny teknologi og fremskritt velkommen. Produktet er kjempebra det .Jeg disser ikke hverken nVidia eller brukere

Det endrer uansett ikke på det faktum at nyeste generasjon nVidia TI til 15000 p.t er et dårlig kjøp jamført med tidligere

Det er tydligvis mange som mener det samme.

Fra hvilket perspektiv? Hos folk som jobber med enkeltpersonsforetak og driver å redigerer film, eller jobber innenfor compute/3D, så er dette kortet det beste kjøpet vi noen sinne har hatt når man ser på ytelse/pris. 

 

Når det gjelder FPS gains, så er dette stadiet et tvunget stadie. Uansett når denne teknologien ble utgitt, om det var nå, om 2 år eller 10 år, så ville vi sett skuffende resultater når man sammenligner gamle spill opp mot en chip som peker ut mot fremtiden, og ikke bakover i tid. 

 

Gi utviklere tid til å finne ut av dette, og vi vil se den ytelsen gjøre ytterligere hopp kontra tidligere arkitekturer. 

Folk er litt for opphengt i hva Tensor og RT kjernene kan gjøre. Vi er blitt presentert bare en brøkdel av hva de kan laste CUDA kjernene  for i fremtiden. Selv om utviklere ikke nødvendigvis trenger å bruke raytracing for lys og skygger, så kan denne delen av kortet avlaste andre deler av arbeidet CUDA tidligere har tatt for seg. 

Lenke til kommentar

Fra hvilket perspektiv? Hos folk som jobber med enkeltpersonsforetak og driver å redigerer film, eller jobber innenfor compute/3D, så er dette kortet det beste kjøpet vi noen sinne har hatt når man ser på ytelse/pris. 

 

Når det gjelder FPS gains, så er dette stadiet et tvunget stadie. Uansett når denne teknologien ble utgitt, om det var nå, om 2 år eller 10 år, så ville vi sett skuffende resultater når man sammenligner gamle spill opp mot en chip som peker ut mot fremtiden, og ikke bakover i tid. 

 

Gi utviklere tid til å finne ut av dette, og vi vil se den ytelsen gjøre ytterligere hopp kontra tidligere arkitekturer. 

Folk er litt for opphengt i hva Tensor og RT kjernene kan gjøre. Vi er blitt presentert bare en brøkdel av hva de kan laste CUDA kjernene  for i fremtiden. Selv om utviklere ikke nødvendigvis trenger å bruke raytracing for lys og skygger, så kan denne delen av kortet avlaste andre deler av arbeidet CUDA tidligere har tatt for seg. 

Er ikke det nettopp derfor folk kjøper RTX serien for en premium pris? Ytelsen har jo ikke akkurat vært noe å rope hurra for utenom enkelte titler da.

Lenke til kommentar

Jeg snakker om 1440p, skal bli deilig å ikke måtte redusere innstillinger for å nå 50+

 

Det er et merkelig mellom stadie dette her, selv om det riktignok er mange pixler mellom 1440p og 4K. I noen spill er en 8700K@5GHz bottleneck for 2080Ti i 1440p, mens i andre spill klarer det ikke 4K@60. Men i det minste har vi "Fast Sync" for 4K TV'er uten G-Sync som er min foretrukne spill skjerm for den typen spill. I det minste var jeg smart nok til å gå for 1440p@144Hz for spill jeg ønsker mer enn 90fps i. :p

Lenke til kommentar

Er ikke det nettopp derfor folk kjøper RTX serien for en premium pris? Ytelsen har jo ikke akkurat vært noe å rope hurra for utenom enkelte titler da.

Poenget er at ytelsen vi ser idag ikke helt stemmer med hva kortene kan gi på sikt. 

 

Arkitekturen er laget for fremtidige spill, også kommer det benchmarks med spill fra gårsdagen og folk klager fordi FPS numrene ikke er der. Syns det rett og slett er trist at folk ikke helt forstår hva vi har i vente. Glem AAA spill. Det er de mindre og mer innovative spillstudiene jeg trur vil gi oss et par øyeåpnere her. NPC'er som lager dynamisk tale. Granater som sender tusenvis av splinter i det den sprenger, etc. 

 

Tensor og RT kjernene kan ha flere arbeidsoppgaver enn de vi har sett reklamert for idag. De kan avlaste CUDA kjernene på enkelte oppgaver, hvis spillutviklerne har lyst til å støtte det, forutenom DLSS og Raytracing brukt for lyslegging. 

Lenke til kommentar

Litt annet; er det bare jeg som misliker video reviews? Mulig jeg som er blitt gammel, men foretrekker å lese/bla til det interessante for meg uten å måtte høre på en for treg/for rask stemme...

 

Skjønner godt hva du mener! Syns det er greit med en video review til sammenligning. Feks et FE kort vs et 3. parts kort med samme chip. Tester som av disse kortene med mye ny teknologi liker jeg å lese, da jeg kan ta meg den tiden jeg vil uten en stemme som maser i bakgrunnen :p

Lenke til kommentar

Poenget er at ytelsen vi ser idag ikke helt stemmer med hva kortene kan gi på sikt. 

 

Arkitekturen er laget for fremtidige spill, også kommer det benchmarks med spill fra gårsdagen og folk klager fordi FPS numrene ikke er der. Syns det rett og slett er trist at folk ikke helt forstår hva vi har i vente. Glem AAA spill. Det er de mindre og mer innovative spillstudiene jeg trur vil gi oss et par øyeåpnere her. NPC'er som lager dynamisk tale. Granater som sender tusenvis av splinter i det den sprenger, etc. 

 

Tensor og RT kjernene kan ha flere arbeidsoppgaver enn de vi har sett reklamert for idag. De kan avlaste CUDA kjernene på enkelte oppgaver, hvis spillutviklerne har lyst til å støtte det, forutenom DLSS og Raytracing brukt for lyslegging. 

Blir jo litt som å kjøpe farge tv på 60 tallet, betale ekstra for noe som kommer i fremtiden.

Mye mulig at Ray Tracing og DLSS kommer til å bli revolusjonerende for fremtidig grafikk, men vi vet ingenting om det utenom demoene Nvidia har vist oss. 

  • Liker 1
Lenke til kommentar

Det er jo ingenting å lure på, du vil elske raytracing og DLSS. Det var mykje værre når Nvidia skulle selja inn T&L, det tok lang tid før spel begynte å utnytte dette. Om eg ikkje hugse feil så gjekk det vell 1-2år før me såg spel bruke T&L. Pixel shadere tok derimot veldig fort av!

Lenke til kommentar

Blir vel fort bare gimmick denne generasjonen, løsner vel litt mer når 3080 kortene en gang kommer. Pris går muligens noe ned (optimistisk muligens) og ytelsen er betraktelig bedre. Ikke minst er forhåpentligvis implementeringen langt bedre og mer vanlig.

Endret av Mala
  • Liker 2
Lenke til kommentar

Som det ble sakt for lenge siden så ble 2080 rundt 8-10% raskere enn 1080ti i snitt. 2080ti er nå veldig bra om mann har penger til overs til det :)  2070 vil vel være litt raskere enn 1080 sånn ca.? Men uten Ray Tracing osv. Når selv 2080ti sliter med å holde 60fps i 1080p med ray tracing på, så vil vel 2080 ligge på godt under 40? Blir litt intressant å se når det kommer. Men tror mange vil bli skuffet at dette ikke vil være noe prioritert blant utviklerne med det første, siden så og si bare 2080ti kan bruke dette av det vi har sett til nå. Ray tracing blir som sakt ikke utbredt før 2.generasjoner når du får 2080ti ytelse til 1060 pris ;) Men det er nå alltid gøy å være først uansett. Da er DLSS mer spennende hva de får til med det.

l1SEP9pl.png
 

Endret av -=HellBound=-
Lenke til kommentar

Som det ble sakt for lenge siden så ble 2080 rundt 8-10% raskere enn 1080ti i snitt. 2080ti er nå veldig bra om mann har penger til overs til det :)  2070 vil vel være litt raskere enn 1080 sånn ca.? Men uten Ray Tracing osv. Når selv 2080ti sliter med å holde 60fps i 1080p med ray tracing på, så vil vel 2080 ligge på godt under 40? Blir litt intressant å se når det kommer. Men tror mange vil bli skuffet at dette ikke vil være noe prioritert blant utviklerne med det første, siden så og si bare 2080ti kan bruke dette av det vi har sett til nå. Ray tracing blir som sakt ikke utbredt før 2.generasjoner når du får 2080ti ytelse til 1060 pris ;) Men det er nå alltid gøy å være først uansett. Da er DLSS mer spennende hva de får til med det.

 

l1SEP9pl.png

 

 

2080ti sliter IKKE med å få 60fps med Raytracing i 1080p, fordi man kan ikkje teste dette nå engang ;) Si det heller når man faktisk kan teste dette. Vær du trygg på at jeg skal teste dette så fort det er mulig :) 

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...