Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Det tar meg ikke mye tid å svare deg som jeg gjør, men det ville tatt meg mer tid enn jeg er villig til å avse deg å finne kildene som underbygger mine påstander. Du klarte å drite deg ut med lire av deg litt lavthengende frukt som det var vanskelig å motstå. Men jeg kom frem til at om jeg plukket selv disse enkle poengene, så ville jeg nesten måtte svare på alt, slik at det ikke ser ut som jeg prøver å unngå noe. Som sagt; det ville tatt tid. Dette svaret gjør det ikke. Nyt ironien din. Den eksistere som så mye annet, nok dessverre kun i ditt sinn...

 

Vel, det er jo noe annet ironisk. Jeg har nemlig gitt deg informasjon som burde ha gjort deg oppmerksom på at du driter deg ut, men den gikk visst tapt for deg... Sikkert fordi du er så uvitende...

Så bruk dine egne ord da vell, fremfor å hente frem kilder. Jeg og andre som kan dette ser fint forskjell på fasit her, og reint tullball. Til nå har du kommet med reint tullball. Er det ikke på tide å rette seg litt opp litt og gi det et forsøk? 

 

Vi prøver igjen:

 

  1. Underbygg det du mener når du snakker om "GimpWorks" og hvilken sammenheng dette har her?
  2. Hvorfor trur du dette vil lide samme skjebne som PhysX,
  3. Eventuelt: Hvorfor bringer du PhysX inn i diskusjonen om du ikke mener at RT vil lide samme skjebne? 
  4. Hvorfor mener du at RT vil bringe mer arbeid inn for spillutviklerne? 
  5. Hva er egentlig RT? 
  6. Hva mener du om DLSS? 
  7. Hvilke fremtidige nyvinninger trur du kan komme ut fra det å ha en dedikert AI/Deeplearning seksjon på en GPU brikke?  

 

Hvis du ønsker å bli tatt seriøs, så starter du på nytt, og svarer på disse rimelige enkle spørsmålene. 

  • Liker 2
Lenke til kommentar
Videoannonse
Annonse

Artig, hjemmelekse fra fyren jeg har fortalt et par ganger allerede at jeg ikke danser etter hans pipe. Til å klage på andres feil bruk av det norske språk er han sannelig ikke særlig flink til å forstå det selv.

 

Jeg kan prøve å se en gang til om han er helt resistent mot å ta til seg informasjon; Jeg har allerede gitt deg informasjonen du trenger til å skjønne at du driter deg ut...

 

Sånn, om han ikke tar det denne gangen så gjør han det neppe noensinne, så da er det egentlig bare å gi seg her. Vel, for to sider siden, men litt "uvitende" er jeg jo av og til, det får jeg vel være stor nok til å kunne innrømme... :p

 

(Psst! oophus3do! Det :roll: betyr at jeg innrømmer jeg var litt dum som gadd å i det hele tatt begynne på en "diskusjon" med deg til tross for at jeg kjente igjen lusa på gangen ganske tidlig... Litt slemt av meg å skrive det slik at du ikke forstår det da. Så derfor jeg "oversetter" her, så du også kan få det med deg. OK? Good.. Bibi..).

Lenke til kommentar

Artig, hjemmelekse fra fyren jeg har fortalt et par ganger allerede at jeg ikke danser etter hans pipe. Til å klage på andres feil bruk av det norske språk er han sannelig ikke særlig flink til å forstå det selv.

 

Jeg kan prøve å se en gang til om han er helt resistent mot å ta til seg informasjon; Jeg har allerede gitt deg informasjonen du trenger til å skjønne at du driter deg ut...

 

Sånn, om han ikke tar det denne gangen så gjør han det neppe noensinne, så da er det egentlig bare å gi seg her. Vel, for to sider siden, men litt "uvitende" er jeg jo av og til, det får jeg vel være stor nok til å kunne innrømme... :p

 

(Psst! oophus3do! Det :roll: betyr at jeg innrømmer jeg var litt dum som gadd å i det hele tatt begynne på en "diskusjon" med deg til tross for at jeg kjente igjen lusa på gangen ganske tidlig... Litt slemt av meg å skrive det slik at du ikke forstår det da. Så derfor jeg "oversetter" her, så du også kan få det med deg. OK? Good.. Bibi..).

Syns du har fått nok sjanser jeg til å vise hva ordene dine betyr og hvilken vekt de har. Konklusjonen er jo rimelig klar. 

 

Du klarer ikke engang være original i måten du gjør personangrep på. :)

 

Vell, til andre som er interessert, og som faktisk ønsker å diskutere teknologien her, så snakk gjerne om spørsmålene jeg har lagt opp til denne personen et par ganger. Syns det kan være interessant. Ikke bare hva vi kan se nå, men hva vi kan forvente også i fremtiden. :)

 

EDIT: Phuc it. Jeg gjør det enkelt:

 

  1. Hvilke fremtidige nyvinninger trur du kan komme ut fra det å ha en dedikert AI/Deeplearning seksjon på en GPU brikke?  
  2. Hva mener vi om DLSS? 
  3. For spill som ikke vil bruke Raytracing til å lyssette spillene sine, finnes det andre ting denne "modulen" av brikka kan brukes til? 

Er jo disse som det er spennende å gjøre noen tankespill rundt. De andre kommer kun fra feilinformasjon fra personen over her, og har absolutt ingenting med temaet å gjøre. 

Endret av oophus3do
  • Liker 2
Lenke til kommentar

Tall direkte fra produsenter uten noe videre informasjon som bruker en egen skaleringskala tar jeg med en grei klype salt. Men tallene virker jo forsåvidt realistiske. Ca 50% økning i ytelse uten DSLL var vel det vi kunne forvente med tanke på spesifikasjonene med litt forbedret ytelse per kjerne.

 

Dette er jo da RTX 2080 vs GTX 1080 og her må vi jo nå huske på at RTX 2080 tross alt koster mer enn hva GTX 1080 Ti gjorde ved lansering så det er jo bare rett og rimelige å sammenligne RTX 2080 mot GTX 1080 Ti.

 

Sliter litt med å se hvorfor folk blir fullstendig revet med av disse tallene? For det første så kommer de direkte fra NVIDIA så man burde ta de med en stor klype salt og for de andre så er jo ikke tallene stort bedre enn forventet?

Endret av RamGuy
  • Liker 1
Lenke til kommentar

For de som ikke så JayzTwoCents tidligere i tråden

 

 

De har gjort en 'name shuffling'. Så enkelt er det.  Du kan ikke sammenligne 2080 Ti mot 1080 Ti.

2080 tilsvarer forrige generasjons Ti, 2080 Ti tilsvarer forrige generasjons Titan.

 

Det gir jo mening, med tanke på pris og data. Han kom med interessante synspunkter, verdt å se videoen.

Lenke til kommentar

For de som ikke så JayzTwoCents tidligere i tråden

 

 

Det gir jo mening, med tanke på pris og data. Han kom med interessante synspunkter, verdt å se videoen.

 

Tja, nå har jo tradisjonelt Ti og Titan hatt tilsvarende spesifikasjoner med unntak av FP64? Så de fjerner computeytelse som er irrelevant for gaming og får da til gjengjeld litt høyere klokkefrekvenser så Ti yter jo tradisjonelt hakket bedre enn Titan til lavere pris.

 

Så det blir ikke helt riktig å si at RTX 2080 er 1080 Ti og at RTX 2080 Ti er Titan Xp. Det er langt større forskjeller mellom disse kortene enn hva det normalt har vært mellom Ti og Titan tidligere.

 

Eneste som gjør at RTX 2080 tilsvarer 1080 Ti og RTX 2080 Ti tilsvarer Titan Xp er jo prisene.

Lenke til kommentar

Så du mener at hvis ytelsen ikke reflekterer prisen i det heletatt så avbestiller ikke folk?

De som eventuelt avbestiller, hadde gjort det uansett ;)

 

Samme folka som sier de skal boikotte ditten og datten. De skriver det, for de tror det er kult ?

  • Liker 3
Lenke til kommentar

De som eventuelt avbestiller, hadde gjort det uansett ;)

 

Samme folka som sier de skal boikotte ditten og datten. De skriver det, for de tror det er kult

 

Nei. Yter den veldig godt så beholder jeg min ordre, hvis ikke så avbestiller jeg og beholder 1080 TI, enkelt å greit. 

 

 

Lenke til kommentar

Black Friday er i år på den 23. November. Innen den tid har alle reviews av RTX korta kommet ut og vi vet med sikkerhet hvordan ytelsen er og støynivå på de ulike kjølerene. Kan hende man kan få et 2080Ti kort vesentlig billigere da. Men å vente 3 måneder er vel utenkelig for mange... Er snakk om å gjøre et mer informert valg. Av samme grunn kommer jeg heller ikke til å forhåndsbestille i9 9900K heller.

  • Liker 2
Lenke til kommentar

https://wccftech.com/nvidia-turing-gpu-geforce-rtx-2080-ti-ipc-block-diagram-detailed/

 

50% Faster Per Core Performance. Her snakker vi IPC ytelse :) Tenk om Intel hadde klart det samme...

 

Turing GPU offers an average uplift of 50% better performance per core compared to Pascal GPUs. In VR games, the shading performance would be a good 2x ahead than what Pascal achieved while many modern gaming titles show a ~50% lead over Pascal with Turing’s enhanced core design.

Endret av magnusavr
Lenke til kommentar

For de som ikke så JayzTwoCents tidligere i tråden

 

 

Det gir jo mening, med tanke på pris og data. Han kom med interessante synspunkter, verdt å se videoen.

Tull:

2080 Ti bruker TU 102, som er en enorm brikke på 750 mm^2

2080 bruker TU 104, som er en stor brikke, men sannsynligvis bare 500 mm^2 ut fra spesifikasjoner

 

Grunnen til de høye prisene er produksjonskostnader, markedsposisjon, og timing.

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...