Mala Skrevet 1. september 2018 Del Skrevet 1. september 2018 (endret) Skal man kjøre raytracing løpet fullt ut bør man jo sette pris på lavere fps ja. Men heldigvis leverer nok de nye kortene mektig bra uten denne featuren aktivert tenker jeg. Endret 1. september 2018 av Mala 1 Lenke til kommentar
N o r e n g Skrevet 1. september 2018 Del Skrevet 1. september 2018 Uansett hvor intelligent det er så er det oppskalering. Altså vil det være dårligere bildekvalitet enn å kjøre i oppløsningen det oppskaleres til. Som sagt kan jeg fint se for meg et bruksområde, men for min del ikke på dagens oppløsninger. Det er riktig at man ikke kan skape detaljer der de ikke var tidligere, men det er faktisk ingen spilldetaljer som ikke vises i 1920x1080 som plutselig vises i 3840x2160, uansett hvor mye tydeligere de er i 4K er de også der i 1080p så lenge det er samme LOD-skalering. Selvfølgelig høres det for bra ut at DLSS derfor klarer å gjengi et skarpere bilde enn vanlig rendering når det i praksis er oppskalering med en algoritme, men det er nå faktisk det Nvidia sier. Jeg syns personlig dette virker mer spennende å teste enn raytracing, rett og slett fordi en vanlig algoritme ikke kan gjøre noe slikt. 1 Lenke til kommentar
w1I3bmv7PRFfKNkpTOlmGVrzkvXvbA5lcIelI/X9 Skrevet 1. september 2018 Del Skrevet 1. september 2018 Blir 2080ti bottlenecka av 3770k på 1080p? Blir oppgradering av alt, må bare bestemme rekkefølgen først Klarer ikke helt å bestemme meg om skjermkort, ultrawide skjerm eller cpu/hovedkort/ram først... Lenke til kommentar
N o r e n g Skrevet 1. september 2018 Del Skrevet 1. september 2018 Blir 2080ti bottlenecka av 3770k på 1080p? Blir oppgradering av alt, må bare bestemme rekkefølgen først Klarer ikke helt å bestemme meg om skjermkort, ultrawide skjerm eller cpu/hovedkort/ram først... Garantert flaskehals ja. Hadde ikke brydd meg i det hele tatt, en eller annen komponent i maskinen din vil alltid være en flaskehals. Du bør oppgradere den komponenten som gir deg mest gevinst nå, og ikke bry deg så voldsomt om flaskehalsene som alltid vil eksistere. Dette gjelder forøvrig resten av folkene her som hyler "flaskehals" så snart de ser et kraftig skjermkort og en litt eldre CPU, om et år vil GPUen være flaskehalsen uansett. 4 Lenke til kommentar
w1I3bmv7PRFfKNkpTOlmGVrzkvXvbA5lcIelI/X9 Skrevet 1. september 2018 Del Skrevet 1. september 2018 Takk for svar Da blir det skjermkort først, 780 kortet mitt starter å dra på åra... Lenke til kommentar
Populært innlegg Gabri3L Skrevet 2. september 2018 Populært innlegg Del Skrevet 2. september 2018 Endelig begynner jeg såvidt å forstå hva det er de skal med RTX disse kidsa! 10 Lenke til kommentar
kremt Skrevet 2. september 2018 Del Skrevet 2. september 2018 Fikk igjen på skatti, no he ho silikon i tatti Lenke til kommentar
darkyy Skrevet 2. september 2018 Del Skrevet 2. september 2018 (endret) Det er riktig at man ikke kan skape detaljer der de ikke var tidligere, men det er faktisk ingen spilldetaljer som ikke vises i 1920x1080 som plutselig vises i 3840x2160, uansett hvor mye tydeligere de er i 4K er de også der i 1080p så lenge det er samme LOD-skalering. Selvfølgelig høres det for bra ut at DLSS derfor klarer å gjengi et skarpere bilde enn vanlig rendering når det i praksis er oppskalering med en algoritme, men det er nå faktisk det Nvidia sier. Jeg syns personlig dette virker mer spennende å teste enn raytracing, rett og slett fordi en vanlig algoritme ikke kan gjøre noe slikt. når det kommer til faktisk rendering så jo da har du forskjeller selv i samme LOD skalering, hvis du ifra bunn av bygger ett bilde i 1080p imot 4k så har 1080p dårligere model til pixel ratio, dette har veldig klare forskjeller for de som faktisk bryr seg om full detalj, er det bra at du kan få 50% ekstra ytelse ifra å upscale 1080p, ja men å si at det ikke er informasjon som er tapt er feil. 1080p upscale prøver å gjøre opp for dette tapet med interpolation og eventuelt av NVidia sitt tilfelle via algorithmene(siden spillene direkte må støtte DLSS så må det være en eller annen form for trening via AI dem utfører av spillet i 4K, på den måten kan AIen bruke algoritmene sine til å gjenskape det som er tapt med veldig god interpolation), deres til å gjennskape de detaljene som er tapt, men det vil aldri være 100%. tingen med upscaling er rett og slett tradeoff, hvis du kan gjennskape 90% av detaljene til 4k ifra ett 1080p bilde men gjøre det 40-50% raskere enn å rendre i native 4k så er det verdt det for spill i real-time. det samme ser du i lossless eller lossy kompressering, hvis du kan få 90% av detaljene men samtidig kan du redusere footprint av textures med 40% så kan det være verdt det ettersom du prøver å oppnå best kvalitet samt ha best mulig ytelse eller besparelse av lagringskapasitet, eller 100% av detaljene men med 20% reduksjon i størrelse. kommentaren din teller bare for tilfeller hvor du upscaler ifra ett allerede rendret bilde. altså film ifra 1080p til 4k oppløsning, her har du ingen 'tap' av detaljer, fordi i utgangspunktet har du bare den informasjonen som er i 1080p, men det er KLARE forskjeller mellom native 4k og 1080p upscaled(i både rendering og upscaling av ett allerede rendret bilde hvis du har tilgang til native 4k og 1080p variant for sammenligning). Endret 2. september 2018 av darkyy 1 Lenke til kommentar
Mumriken Skrevet 2. september 2018 Del Skrevet 2. september 2018 https://wccftech.com/nvidia-rtx-2080-ti-3dmark-score-allegedly-leaks-35-faster-vs-1080-ti/ Lenke til kommentar
Knutgrus Skrevet 2. september 2018 Del Skrevet 2. september 2018 Stemmer nogen lunde med tidligere mistanker. Men har de fått tak i riktige drivere? Lenke til kommentar
HKS Skrevet 2. september 2018 Del Skrevet 2. september 2018 Stemmer nogen lunde med tidligere mistanker. Men har de fått tak i riktige drivere?Nei, det er en fake. 2 Lenke til kommentar
Mumriken Skrevet 2. september 2018 Del Skrevet 2. september 2018 Nei, det er en fake. Håper det! Vet du noe vi ikke vet? Lenke til kommentar
Nizzen Skrevet 2. september 2018 Forfatter Del Skrevet 2. september 2018 Håper det! Vet du noe vi ikke vet? Lenke til kommentar
funkweb Skrevet 2. september 2018 Del Skrevet 2. september 2018 Blir spennende når AMD kommer med sin 7nm med utrolige 20.9 TFLOPS om det stemmer eller ikke vites ikke. !! Lenke til kommentar
Nizzen Skrevet 2. september 2018 Forfatter Del Skrevet 2. september 2018 (endret) Blir spennende når AMD kommer med sin 7nm med utrolige 20.9 TFLOPS om det stemmer eller ikke vites ikke. !!Utrolig lite spennende å vente på en ny "Vega" i en RTX tråd. 21 terra flopp. Yter nesten som 1080ti 3 år etter 1080ti release ? En real flopp... Endret 2. september 2018 av Nizzen 3 Lenke til kommentar
funkweb Skrevet 2. september 2018 Del Skrevet 2. september 2018 Utrolig lite spennende å vente på en ny "Vega" i en RTX tråd. 21 terra flopp. Yter nesten som 1080ti 3 år etter 1080ti release En real flopp... hæ? 1080Ti har 11.3 terra flops Lenke til kommentar
darkyy Skrevet 3. september 2018 Del Skrevet 3. september 2018 Blir spennende når AMD kommer med sin 7nm med utrolige 20.9 TFLOPS om det stemmer eller ikke vites ikke. !! vanskelig å si hva deres neste faktiske gaming kort kommer til å ha, Navi er archen for gaming, Vega 20(som er kortet som er blitt gitt info angående 20.9 FP32 TFLOPS) er 7nm Pro kort ganske forskjellige targets. med mindre AMD har forandret på planene sine så blir det ikke noe gaming kort basert på Vega 20. Lenke til kommentar
IceBlitz Skrevet 3. september 2018 Del Skrevet 3. september 2018 hæ? 1080Ti har 11.3 terra flops Vega 64 yter 12.6 tflops. Men er den bedre enn en 1080 Ti? Tflops betyr ikke så mye nå lenger som det gjorde tidligere 2 Lenke til kommentar
IceBlitz Skrevet 3. september 2018 Del Skrevet 3. september 2018 (endret) NVIDIA RTX 2080 Ti 3DMark Score Allegedly Leaks, 35% Faster vs 1080 Ti Hvis dette stemmer er det mange her som har påstått 5-10% ytelseshopp som må spise sine egne ord Endret 3. september 2018 av IceBlitz Lenke til kommentar
N o r e n g Skrevet 3. september 2018 Del Skrevet 3. september 2018 Vega 64 yter 12.6 tflops. Men er den bedre enn en 1080 Ti? Tflops betyr ikke så mye nå lenger som det gjorde tidligere Når har antall TFLOPS hatt noen reell betydning for ytelse om man sammenligner med andre arkitekturer egentlig? ATI/AMD har hatt høyere teoretisk i over 10 år uten at det har hjulpet dem stort. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå