Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Videoannonse
Annonse

Sikkert bare jeg som ønsker tilbake simplere grafikk som ved årtusenskiftet og mer fokus på gameplay.

 

Det er jo bare å fortsette å spille Quake 3. Fortsatt et kongespill. Verden fortsetter selv om ikkje du vil følge etter. Gjør som du selv vil, men ikkje klag over at ikkje alle vil følge etter det DU vil ;)

  • Liker 4
Lenke til kommentar

Ser ut som det kjører 20 fps.

JackFrags som fikk spille det litt syntes han følte at det var omtrent rundt 70-80 FPS. 

Han sier så i siste videoen hans. Ha sa også at det fremdeles er endel bugs i spillet angående RT, med refleksjoner som ikke skal være der. Så det er nok mer optimalisering igjen med å gjøre alle materialer fysisk korrekte. 

  • Liker 1
Lenke til kommentar

Ikkje så rart når du har AMD cpu OG AMD gpu  :tease:

Ja, stakkars meg som ikke har Intel og Nvidia. Tråkket jeg på noen fanboy føtter?

Jeg sier bare at videoen ser ut som den kjører 20fps. Var ikke akkuratt smooth bildeflyt i det klippet,

 

Hypen er i hvertfall stor denne generasjonen. Folk forhåndsbestiller skjermkort dyrere enn aldri før og ikke engang fått noen uavhengige kilder til ytelsen.

 

Ny video fra AdoredTV for de som er interessert:

 

Edit: typo

Endret av PantZman
  • Liker 3
Lenke til kommentar

Det er da ikke verre enn å vente å se på hvordan kortene faktisk vil prestere. Artig at det er så mye diskusjon på om det vil være verdt det eller ikke når ingen vet enda. RT ser fett ut og vil sikkert bli bra etter hvert. Får kjøre på med 2180Ti når den tid kommer tenker jeg. ?

Endret av kalleklovn12
Lenke til kommentar

Ja, stakkars meg som ikke har Intel og Nvidia. Tråkket jeg på noen fanboy føtter?

Jeg sier bare at videoen ser ut som den kjører 20fps. Var ikke akkuratt smooth bildeflyt i det klippet,

 

Hypen er i hvertfall stor denne generasjonen. Folk forhåndsbestiller skjermkort dyrere enn aldri før og ikke engang fått noen uavhengige kilder til ytelsen.

Jeg er fortsatt ikkje noe fanboy av NV eller AMD, men det er tydeligvis du  :green:  

 

At du i det heletatt henger i denne tråden er utrolig :D

  • Liker 4
Lenke til kommentar

Jeg er fortsatt ikkje noe fanboy av NV eller AMD, men det er tydeligvis du  :green:  

 

At du i det heletatt henger i denne tråden er utrolig :D

Skeptisk.

Jeg følger med i tråden for jeg har et snev av interesse for slik teknologi. Jeg er tydeligvis mer skeptisk en mange andre her. Jeg har i hvertfall vanskelig for å tro blindt på hva Nvidia leverer av informasjon.

 

Jeg har fått med meg hvor råtten Intel (spesielt tidligere) og Nvidia kan være (GPP, MX150, 1030 osv osv). Jeg har vanskelig for å støtte slike selskap.

 

Jeg har faktisk Intel CPU (i5 6600k). Sist det var tid for oppgradering var ikke AMD FX verdt det. Prisene var lav men ytelsen ikke nevneverdig over Phenom II X6 1090T jeg satt på.

AMD har klart å levere mye bang for the buck opp gjennom årene, men det vet vel ikke du om som ikke tenker på penger når du handler.

Jeg har aldri kjøpt det beste av det beste. Pris/ytelse har stått sterkt og ikke minst støtte "underdog" som må slite med slike konkurrenter.

 

Kommer ikke AMD med noe som klarer å konkurrere på pris/ytelse (nei jeg kjøper ikke skjermkort t il 10.000kr+-!) så blir det vel Nvidia på meg også neste gang det skal handles, slik det ble med i5-6600'en.

Endret av PantZman
  • Liker 3
Lenke til kommentar

Ser at det er flere i hardware/gaming pressen som sier at det sannsynligvis bare er mellom 10-20% økning i generell spillytelse, og dette til en veldig høy pris per kort.

 

RTX er jo et *potensielt* paradigmeskifte, men antall spill som tar det i bruk er ikke så mange enda. Dette antallet vil nok øke en del i løpet av de neste årene selvsagt. 

 

Men for min egen del tror jeg man godt kan vente til 7nm kortene kommer, altså den generasjonen som kommer etter RTX 2080 kortene, før jeg bytter ut min GTX 1080 Ti. :)

 

Det er også litt betegnende at RTX 2018 Ti kortet kommer samtidig som de andre kortene, og ikke senere, slik som tidligere generasjoner. Noe som muligens kan være et tegn på at Nvidia planlegger å komme med nye kort allerede i i løpet av 2019, som da vil kjøre på 7nm chip'er og som tilbyr mer substansielle ytelsesforbedringer og muligens lavere strømforbruk og bedre kjøling.

Endret av ♛Black Zarak♛
Lenke til kommentar

Hvis dette er BF 5 med RTX i realtime med ett 2080ti, tenk dere med 2 stk 2080ti  :xmas:

 

 

Bruktprisen på gamle skjermkort gikk akkurat ned enda et hakk  :ph34r:

 

Eh, dette er 1080p@~60fps, du takler ikke Windows i 60fps! :rofl: 

 

Også skal du ha oss til å tro at du kommer til å kjøpe skjermkort for ~25 000Kr, for å satse på 100% SLI skalering, slik at du får sjanse til å nå bortimot 120fps... i 1080p? Eller 60fps i 1440p? Jeg tror de fleste her vet at du kommer til å skru av RT etter å testet det i 5 minutter, og deretter nyte den høyeste fps'en i 3440x1440 som er mulig å oppnå. ;)

  • Liker 4
Lenke til kommentar

 

Imagine! Håper virkelig noen tar seg bryet for å teste ut Raytracing med lyd også. Så kan man isåfall velge om man setter på "pretty lights", eller "awesome sounds".   :)

 

Horror klipp på YT med VR hadde fått en ny boost. Særlig om man etterhvert klarer både og. ^^

Endret av oophus3do
  • Liker 1
Lenke til kommentar

Ja, stakkars meg som ikke har Intel og Nvidia. Tråkket jeg på noen fanboy føtter?

Jeg sier bare at videoen ser ut som den kjører 20fps. Var ikke akkuratt smooth bildeflyt i det klippet,

 

Hypen er i hvertfall stor denne generasjonen. Folk forhåndsbestiller skjermkort dyrere enn aldri før og ikke engang fått noen uavhengige kilder til ytelsen.

 

Ny video fra AdoredTV for de som er interessert:

 

Edit: typo

 

Den videoen er ikke bare for de som er interessert, den burde være pensum for å fortsette diskusjonen her. All videre diskusjon i denne tråden uten å kjenne innholdet i den videoen blir nesten meningsløst.

 

Men jeg vet enkelte her er allergiske mot skotsk aksent, så jeg kan forsøke på en liten oppsummering:

 

Som jeg påpekte på torsdag når vi fikk se de første ytelses indikasjonene direkte fra Nvidia, så merket også Jim seg det; at misstenkelig mange av tallene stammer fra tester der HDR er skrudd på. Men Jim har gravd litt dypere og også merket seg at testene er i 4K. Noe jeg, vel, jeg merket meg jo også det, men tenkte i min naivitet at det i det minste sikkert var greit, da er man jo sikker på at man har flyttet flaskehalsen 100% over på skjermkortet. Men som Jim spurte seg; "Hvilken del av skjermkortet?"... ;)

 

Og det ser ut som han er inne på noe svært vesentlig. Nemlig at GTX1080 har vesentlig, vesentlig lavere minnebåndbredde enn RTX2080. Og at det faktisk er en betydelig flaskehals for GTX1080, i 4K, noe han demonstrerer ved å vise til benchmarks utført av TPU. Noen av dere fikk kanskje med dere at jeg på torsdag også sjekket benchmarks hos TPU og sammenliknet med Nvidias ytelsestall. Jeg kom da frem til at RTX2080 i henhold til Nvidias egne tall faktisk ikke leverte mer enn 32,7% høyere fps enn GTX1080 i Hitman.

 

Det er ikke en direkte sammenlikning fra Nvidia, og jeg vet dessverre ikke om TPUs test av GTX1080 var med HDR skrudd på slik Nvidia angir de har hatt det når de testet med RTX2080. Det kan være TPU gjør det dersom det er standard setting i benchmark tool'en. Men siden de ikke angir det spesifikt, så har jeg ikke anledning til å ta det for gitt. På "norsk" betyr det at mitt estimat på 32,7% kan være for lavt, og at med HDR skrudd på på GTX1080 også (om det ikke var det), så vil forskjellen være vesentlig større i RTX2080 sin "favør". Men jeg må altså bruke gåseøyne her, for som Jim påpeker i videoen, så er det ikke egentlig RTX2080 som er så mye bedre som sådan, det er det at de på det som må sies å være kunstig vis, sørger for å gimpe sin egen GTX1080 til å yte dårligere enn sitt egentlige potensiale. RTX2080 tar neppe en like stor performance hit fra SDR til HDR som GTX1080 gjør... Og det er derfor de tester med HDR... Samtidig som RTX2080 har høy nok minnebåndbredde til å ikke bli strupet i 4K, slik GTX1080 gjør, og det er derfor de tester i 4K. Som Jim påpeker er litt rart i seg selv uansett. For hvor mange her ville anbefalt noen et GTX1080 til å spille på en 4K skjerm? ;)

 

En litt artig "bivirkning" av dette, må jo sies å være at når Nvidia selv nå bæsjer på sitt eget GTX1080 og hevder RTX2080 er XX% raskere enn GTX1080 i henhold til egne tester... Med HDR skrudd på i 4K. Vel, da må jo det nesten være den riktige måten å teste GTX1080's ytelse på vel? Det er bare det at GTX1080 ser ut til å ta en ~9% performance hit med HDR skrudd på. Som igjen nødvendigvis må bety at AMDs Vega 64 som ellers ligger ~5% bak GTX1080 i 1440p som man normalt vil sammenlikne dem i, men rundt 2% foran i 4K, nå må ha tatt nesten en vesentlig ledelse? Ja? Det er jo i 4K HDR GTX1080 skal testes i henhold til Nvidia selv, så... :p

 

Men tilbake til Nvidias ytelses tall; forhåpentligvis er ikke alle her så hjernevasket at ikke vi alle kan være enige i at dette er ganske  så shady. Nvidia kunne fint i stedet ha gitt oss ytelses tall for det langt mer reelle bruks scenarioet GTX1080Ti mot RTX2080Ti i 4K, da GTX1080Ti faktisk har litt høyere minnebåndbredde enn RTX2080, og dermed også takler 4K vesentlig bedre. Vi vet også at Nvidia har blitt opplyst om at HDR gimper ytelsen på Pascal (og de visste det sikkert allerede), likevel skrur de HDR på, og det kan nesten ikke være for noe annet enn å få Turing til å se prosentvis bedre ut enn den egentlig er under "normale" forhold. Som Jim sa; "Cherry picking må vi forvente", det gjør selvsagt AMD også. Men dette er ikke bare "cherry picking", det er selv-sabotasje, og tilbakeholding av de relevante data. Selvsagt ikke ulovlig, det er jo Nvidia sine egne data, og de lyver heller ikke en gang. De opplysningene de gir, ser jo ut som de stemmer... Men dette er faen meg shady... Det håper jeg folk ser... Heldigvis har vi folk som Jim som ikke lar seg lure like lett som enkelte andre. :p

 

Nå, videoen er ikke bare Nvidia risting. De får også litt skryt, Jim gjenkjenner en god arkitektur når han ser den. Og blant annet Wolfenstein 2, en Vulkan tittel med FP16 støtte, er det jo ingen grunn til å tro det er noe juks med. Pascal støtter nemlig ikke FP16, i motsetning til Turing, og da er jo dette en type resultat vi kan forvente fra tilsvarende titler i fremtiden. Ekte ~70% høyere ytelse enn med GTX1080 (vel, fremdeles i 4K akkurat denne da..). Og jeg tror ikke Jim fikk det med seg, men jeg mener også FarCry5 støtter FP16, men jeg skal ikke si det 100% sikkert.

 

Ellers så husker jeg ikke lenger i farta hvor jeg har dette fra, lurer på om det var den forrige videoen til Jim? Uansett potensielt interessant sett med AMD eieres øyne. Det som er litt merkelig er at både Tomb Raider og Hitman jo til nå har vært regnet som "AMD titler", men appellen for Nvidia til å sikre seg samarbeid med disse studioene nå, er muligens nettopp det at AMD satset høyt på Async Shaders som salgsargument med Fury/X, og derfor er jo "AMD titlene" optimalisert i koden for dette. Noe som sikkert ikke "skader" Turings arkitektur, som nå støtter INT32 og FP32 shading på likt. Og om jeg ikke har missforstått fullstendig, så vil et fremtidig fokus på å utnytte dette i Turing arkitekturen, da også kunne komme nå eldre AMD kort med mange shadere og støtte for Async Compute til gode. Vi vet kun Maxwell 2 egentlig viste spor av relevant nytte av AC støtte blant Nvidia kortene på den tiden, men AMD's kort fikk god nytte av det. Vi vil med andre ord kanskje se et nytt tilfelle av "Fine Wine" med AMD kortene. Noe Fury ikke akkurat har innfridd på til nå. :p

  • Liker 2
Lenke til kommentar

"That is not how money works!" 

Hahaha ... Steve er sånn data dude skal være og se ut. Minner meg om karene på it på jobb før det ble outsourca.

 

Gøy video  :thumbup:

 

Jeg skjønner virkelig ikke problemet ved å vente med å bestille? Forbrukeren vil jo bare se litt mer av produktet først, det er jo helt vanlig. Og hvis noen vil pre-order så er jo det også helt greit. Forbrukeren gjør som han/hun vil. 

 

Det er jo faktisk helt sprøtt det T.H skriver også da .. Handler jo ingenting om gaming eller gamingkultur. Det virker mer som kjøpspress rettet mot unge mennesker. Bare tull det der ..

Endret av Kyrre S.
  • Liker 1
Lenke til kommentar

Pre-order, ikke pre-order. Er samme det vell. Kortene er utsolgt uansett allerede skal man ta utgangspunkt fra nvidias egen shappe. Tipper av underholdningsbransjen som uansett tjener inn pengene på timer spart. V-Ray, Redshift, Octane etc, etc har alle kastet opp støtte allerede gjennom deres beta program. Og selv om NDA'en er der, så dukker det stadig opp hint om at for pur rendring, så er det ikke så mye å lure på. 

 

Angående testinga med HDR. Kan det være så enkelt at "max", eller "ultra" settings automatisk slår alt på hos de enkelte spillene? 

Endret av oophus3do
Lenke til kommentar

"That is not how money works!" 

Hahaha ... Steve er sånn data dude skal være og se ut. Minner meg om karene på it på jobb før det ble outsourca.

 

Gøy video  :thumbup:

 

Jeg skjønner virkelig ikke problemet ved å vente med å bestille? Forbrukeren vil jo bare se litt mer av produktet først, det er jo helt vanlig. Og hvis noen vil pre-order så er jo det også helt greit. Forbrukeren gjør som han/hun vil. 

 

Helt klart, men her blir vi så og si løyet til av Nvidia. Noe av det er åpenbart med overlegg, andre ting litt mer subtilt, så kanskje bare uheldige vendinger. Sånn som når Jensen under Keynote'en skrøt av den nydelige 4K skjermen de brukte til å vise frem Ray Traced Battlefield. På ett eller annet tidspunkt burde det vært naturlig etter min mening, at han hadde informert om at selv ikke RTX2080Ti vil klare RT i 4K i Battlefield. Jeg vet jeg trodde at det var snakk om 4K, og tolket det som en bekreftelse på det når han kommenterte oppløsningen på skjermen i venue'en. Jeg var sikker på det, at når folk begynte å snakke om 1080P@30fps i Tomb Raider, så nektet jeg å tro det. Hvem er det i dag som spiller i 1080P med et 1080Ti liksom, eller GTX1070/80 for den saks skyld. Også skal man måtte gå ned til 1080p for å få RT som de skryter sånn av? 1080p må jeg faktisk ned i boden å hente! :p

 

Men jo, i Norge, og spesielt hos Komplett, er det jo overhodet ingen fare forbundet med å slenge inn en pre-order, så det er jo helt greit. Selv hadde jeg forventninger om en ytelses økning tilsvarende fra Maxwell til Pascal, og hadde derfor bestemt meg for å legge i et par ekstra tusen for et Titan denne gangen, i stedet for å vente et år på "Ti" for å spare de lappene, brant meg på 980Ti der gitt, "Legacy" status 9 måneder etter lansering om jeg ikke husker feil? Det var ihvertfall irriterende uansett hvor lang tid det tok. Jeg ble jo litt overrasket når Titan TU ble lansert som 2080Ti allerede 20. Men det var jo nesten bare enda bedre enn forventet, så da var det jo bare å hive seg rundt, no prob! Men greia var at jeg trodde 2080Ti ble sluppet fordi de trengte så mye puff fra dag en for å kjøre RT i 4K, ikke 1080p.. Jeg tror dette er det "alle" lurer på nå, og Nvidia tør ikke fortelle oss sannheten før de ..

Lenke til kommentar

Hypen er i hvertfall stor denne generasjonen. Folk forhåndsbestiller skjermkort dyrere enn aldri før og ikke engang fått noen uavhengige kilder til ytelsen.

Det må vel gjentas enda en gang at det er åpent kjøp i 30+ dager i de fleste norske nettbutikker, den eneste risikoen jeg tar ved å forhåndsbestille er i det jeg frakter og monterer kortet.

 

Den videoen er ikke bare for de som er interessert, den burde være pensum for å fortsette diskusjonen her. All videre diskusjon i denne tråden uten å kjenne innholdet i den videoen blir nesten meningsløst.

Obligatorisk for de som ikke kan lese eller tenke selv kanskje? I så fall stiller jeg meg spørrende til om man burde referere til AdoredTVs spekulasjoner framfor å vente på skikkelige tester.

 

På 8:30 tar han utgangspunkt i oppgitt TFLOP-ytelse fra 1080 Ti og 1080, men han vurderer ikke engang at Anandtech bruker tallene til Nvidia, som regner ut TFLOP-ytelse ut fra oppgitt boost-clock. I praksis kjører Geforce-kort på høyere klokkefrekvenser enn oppgitt boost-clock: i Anandtechs målinger av 1080 Ti lå kortet på 1620 MHz mot 1080s 1721 MHz i Tomb Raider, som skulle antyde at 1080 Ti er ca 1.32x raskere enn 1080, vi kan så gå tilbake og sjekke mot målingene Anandtech gjorde og finne ut at i praksis er 1080 Ti 1.33x raskere, virker som om TFLOPS faktisk fungerer ganske bra likevel? I Crysis 3 blir praktisk ytelse 1.37x raskere for 1080 Ti, teoretisk forskjell er på 1,30x (primært fordi 1080 kjører veldig høy klokkefrekvens), her er det ikke like bra korrelasjon, men det er også et eldre spill designet for eldre GPUer og kan derfor være svakt optimert for nyere skjermkort med mer regnekraft i forhold til båndbredde.

 

En annen ting du glemmer å tenke på er at Nvidia bruker GDDR6 på 14.0 Gbps for hele RTX-serien (også 2070), dette er sannsynligvis fordi det tillater dem å bruke GDDR6 fra alle produsenter (Hynix lager 12 Gbps, men Samsung gjør det ikke).

Videre kommenterer AdoredTV at minnebåndbreddeforskjellen er grunnen til at 1080 Ti er så mye raskere i 4K, men sammenlign tallene for 1070 og 1080, 1080 er 22% raskere i 1440p og 23% raskere i 4K til tross for at 1070 har 80% av minnebåndbredden og 70% av regnekraften, kan det hende at du ikke må se deg blind på teoretiske tall?

 

Angående FP16 og høyere ytelse i Wolfenstein 2, så er ikke Vega 64 spesielt mye raskere enn 1080 i dette spillet til tross for at bare Vega har dobbel ytelse med half precision.

 

Og til slutt: prøve å begrense deg litt når du skriver, det blir skrekkelig fort en vegg av tekst. Når 99% av det du skriver er spekuasjoner bidrar det ikke egentlig så voldsomt til diskusjonen

  • Liker 7
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...