Trondz1 Skrevet 25. august 2018 Del Skrevet 25. august 2018 Hvis dette er BF 5 med RTX i realtime med ett 2080ti, tenk dere med 2 stk 2080ti https://www.youtube.com/watch?time_continue=103&v=VK7lL3E2LVc Bruktprisen på gamle skjermkort gikk akkurat ned enda et hakk Selv om rtx ser helt greit ut så synes jeg Di har vært slappe med "rtx off". Vinduer i bf4 og 3 for den saks skyld så da bedre ut enn hva dem gjør i 5 med rtx off, liksom at Di bare har putta inn noen grå matte vinduer så vi er nødt til og se forskjell. 1 Lenke til kommentar
Populært innlegg Theo343 Skrevet 25. august 2018 Populært innlegg Del Skrevet 25. august 2018 (endret) Det finnes jo tonnevis av spill med bra gameplay som ikke legger vekt på realistisk grafikk. Steam har en overflod av dem. Jeg spiller selv mange. Så vil man ha det er det jo bare å kjøpe dem. Men det jeg ikke helt skjønner i denne tråden. Jeg har selv ikke kjøpt kortet pga. prisen og at bruksområdet er litt begrenset for meg ennå. Så jeg venter og ser hva som skjer med pris, spill, tester og nye spill. Mitt 1080Ti gjør fortsatt jobben meget godt til halve prisen. Samt at jeg kanskje venter på 7nm iterasjonen. Men dette dreier seg om et paradigmeskifte og det er aldri billig. Så er det opp til de som har lyst til å benytte teknologien nå i startfasen å kjøpe det. Hvorfor i alle dager en bunsj folk føler seg rumperaspa av dette forstår jeg virkelig ikke . Kjøp da heller 1 eller 2 1080Ti til skrap-pris? Hadde SLI fungert bedre på tvers av titler ville jeg hvertfall kjøpt et 1080Ti til nå. Men for de som spiller titler som støtter SLI godt er jo det en nobrainer, eller bør være. Ingen her forsvarer prisen, men klapper fordi vi ser viktige fremskritt i teknologien som alle aktører vil dra nytte av. Ser ikke helt hvorfor man skal være så butthurt av dette teknologifremskrittet, det er jo bare la vær å kjøpe? Så håper jeg tråden fremover kan være for de som er interessert i teknologien og at resten lager seg en "vi som hater RT, DLSS, Tensor etc" Selvsagt skal man kunne diskutere positive og negative ting med et produkt men her snakker vi et knippe brukere som har gått helt av skaftet og kuppet tråden med "jeg hater apple" mentalitet. Endret 25. august 2018 av Theo343 15 Lenke til kommentar
Betroz Skrevet 25. august 2018 Del Skrevet 25. august 2018 På 7nm så kan jo Nvidia ha samme antall cuda cores som 20xx serien har nå, men øke på Tensor cores og RT delen da, så at ytelsen her økes drastisk neste år når de nye korta på 7nm kommer. La oss si de kan få plass til 1152 Tensor cores istedenfor 576 som nå. Regner med at de vil heller gjøre dette enn å øke cuda cores siden RT er nesten hele fokuset fremover. Eller bare øke frekvensene ytterligere, er jo også en logisk løsning. Lenke til kommentar
Gabri3L Skrevet 25. august 2018 Del Skrevet 25. august 2018 Obligatorisk for de som ikke kan lese eller tenke selv kanskje? Seriøst? Jeg linker da til ikke mindre enn 2 poster jeg selv skrev 2 dager før denne videoen var oppe. Hvem er det du mener ikke kan tenke selv? I så fall stiller jeg meg spørrende til om man burde referere til AdoredTVs spekulasjoner framfor å vente på skikkelige tester. Hvorfor skal vi vente på "skikkelige tester" når Nvidia allerede har gitt oss informasjonen vi trenger? At Pascal mister mer ytelse enn Vega 64 med HDR aktivert er ikke en spekulasjon, det angis også med kilde. Ingen av tallene fra Nvidia er spekulasjoner, det sier seg da selv. At de benytter HDR og at det dermed skyver 2080 lenger fra 1080 på feil premisser er heller ikke en spekulasjon, det er en konklusjon. Det eneste som er en spekulasjon er Nvidias motivasjon for å gjøre som de gjør. Og det burde strengt tatt ikke være vanskelig å se skriften på veggen med deres historikk. Jeg nevnte ikke Jims "spekulasjon" om at Nvidia kan være troende til å i tillegg ha testet med G-sync som kunne ha redusert ytelsen ytterligere. Den får han stå for selv, men jeg hørte det som om det ble sagt med glimt i øyet, og ikke som en del av det større argumentet, som uansett ikke trengte G-Sync på toppen for å være ganske fellende. 4K og båndbredde kan du gjerne se på som en spekulasjon, men jeg gjør ikke. Jeg tar sikkert for lett på det når jeg kikker på spesifikasjonene, og ser den vannvittige forskjellen i båndbredde. Men grunnen til at jeg ikke bryr meg nevneverdig er fordi poenget er allerede gjort med HDR, som ikke er en spekulasjon. Nvidia har tullet til disse "testene" uavhengig av 4K problematikken. Spørsmålet blir bare hvor stort avvik det er snakk om nå. Ikke hvorvidt Nvidia forleder. På 8:30 tar han utgangspunkt i oppgitt TFLOP-ytelse fra 1080 Ti og 1080, men han vurderer ikke engang at Anandtech bruker tallene til Nvidia, som regner ut TFLOP-ytelse ut fra oppgitt boost-clock. I praksis kjører Geforce-kort på høyere klokkefrekvenser enn oppgitt boost-clock: i Anandtechs målinger av 1080 Ti lå kortet på 1620 MHz mot 1080s 1721 MHz i Tomb Raider, som skulle antyde at 1080 Ti er ca 1.32x raskere enn 1080, vi kan så gå tilbake og sjekke mot målingene Anandtech gjorde og finne ut at i praksis er 1080 Ti 1.33x raskere, virker som om TFLOPS faktisk fungerer ganske bra likevel? I Crysis 3 blir praktisk ytelse 1.37x raskere for 1080 Ti, teoretisk forskjell er på 1,30x (primært fordi 1080 kjører veldig høy klokkefrekvens), her er det ikke like bra korrelasjon, men det er også et eldre spill designet for eldre GPUer og kan derfor være svakt optimert for nyere skjermkort med mer regnekraft i forhold til båndbredde. Her er jeg ikke med? Jim sa at han ikke gadd å regne ut, og derfor valgte å bare stole på Anandtechs tall, så vidt jeg forstod så mente han korrelasjonen var "close" enough. Og jeg ser ikke at du gjør noe annet argument? Ettersom du også påviser at man ikke ta den teoretiske ytelsen og sette den i stein. Denne biten hang jeg meg uansett ikke fast i, da jeg sliter med å se sammenhengen på noen annen måte. Som jeg viste til, så har vi jo benchmarks på annet av materialet til Nvidia, som viser at de enten er ubrukelige eller de driver med missdireksjon. En annen ting du glemmer å tenke på er at Nvidia bruker GDDR6 på 14.0 Gbps for hele RTX-serien (også 2070), dette er sannsynligvis fordi det tillater dem å bruke GDDR6 fra alle produsenter (Hynix lager 12 Gbps, men Samsung gjør det ikke). Hva er det jeg ikke forstår her? Argumenterer du for at det er feil å regne med korrekt båndbredde på 2080, fordi 2070 har samme minne/båndbredde? Hvor kommer uansett 2070 inn? Det vi er på jakt etter er jo "tradisjonell" ytelse, som jeg ville trodd betydde at vi kan drite i båndbredden som RT og Tensor cores trenger når de er i aktivitet. Det burde i praksis gi både 2070 og 2080 mye mer båndbredde enn de på noen fornuftig måte kan få bruk for til "tradisjonell" bruk. Det vi har "påvist" er at 2070/80 ikke har noe som helst problem med for lite båndbredde vel? Sliter du med å tro at det finnes titler der 1080 har for lite båndbredde i 4K til å yte så bra som det kunne ha ytt, om det hadde hatt høyere minnebåndbredde? Og om ikke, sliter du med å tro at Nvidia ville brukt en slik tittel til å vise større forskjell mellom 1080 og 2080 enn i de fleste andre titler? Videre kommenterer AdoredTV at minnebåndbreddeforskjellen er grunnen til at 1080 Ti er så mye raskere i 4K, men sammenlign tallene for 1070 og 1080, 1080 er 22% raskere i 1440p og 23% raskere i 4K til tross for at 1070 har 80% av minnebåndbredden og 70% av regnekraften, kan det hende at du ikke må se deg blind på teoretiske tall? Får litt følelsen av at du leser bibelen som fanden her. Eller så skjønner jeg ikke helt poenget du prøver å få frem igjen? 1080Ti har jo en shitload med cuda kjerner, det er jo de som gjør kortet raskere... Så lenge kortet ikke blir strupet en annen plass, som for eksempel på minnebåndbredde. Du skriver som om du tror at Jim mente kun båndbredde, og siden jeg ellers ikke forstår helt hva du mener må jeg nesten bare la denne ligge. Ellers virker det som du går ut fra gjennomsnitts tall for å si noe om hvor mye raskere det ene er enn det andre? Men dette varierer jo fra tittel til tittel hva som krever hva av båndbredde. Og det er da også titlene som Nvidia har brukt som skal være fokuset her. Altså hvorvidt de har brukt titler der GTX1080 blir holdt tilbake av sin minnebåndbredde er det eneste interessante her. Fordi det i så fall forskyver resultatet sammenliknet med et kort som har så mye båndbredde at det ikke vet hva det skal med alt. Er du enig i den siste setningen her i det minste? Angående FP16 og høyere ytelse i Wolfenstein 2, så er ikke Vega 64 spesielt mye raskere enn 1080 i dette spillet til tross for at bare Vega har dobbel ytelse med half precision. Det er sant, men så er Vega jævlig merkelig på en del områder. Skaleringen med frekvens skjønner jeg lite av bl.a. Men nå var det da Fury jeg hadde i tankene når jeg øynet et lite håp for at den skulle få mulighet til å eldes med litt mer verdighet enn til nå. Og til slutt: prøve å begrense deg litt når du skriver, det blir skrekkelig fort en vegg av tekst. Når 99% av det du skriver er spekuasjoner bidrar det ikke egentlig så voldsomt til diskusjonen Jeg er klar over at det blir litt voldsomt noen ganger, dessverre klarer jeg ikke skrive på noen annen måte uten å føle at jeg ikke får frem det jeg prøver å få frem. Det har noe med en sikkert sjelden dysleksi liknende tilstand å gjøre. Og akkurat det er til tider vanskelig nok selv med wall of text. Du får heller la være å lese om det plager deg så mye.. 2 Lenke til kommentar
Belfaborac Skrevet 25. august 2018 Del Skrevet 25. august 2018 Jeg hater Apple... ...men har absolutt stor tro på at RT er fremtiden. Lenke til kommentar
siDDis Skrevet 25. august 2018 Del Skrevet 25. august 2018 Kor mange her veit noko om støynivå på dei forskjellige. Eg vurderer sterkt 2080ti, men eg ser etter den mest stillegående. Eg rekne med at støynivå reduksjonen som Jensen Huang skrytte over er relevant for dei fleste kjølerane? Er 3 vifter meir stillegående enn 2? Er fleire blader på vifta betre? Lenke til kommentar
Nizzen Skrevet 25. august 2018 Forfatter Del Skrevet 25. august 2018 Kor mange her veit noko om støynivå på dei forskjellige. Eg vurderer sterkt 2080ti, men eg ser etter den mest stillegående. Eg rekne med at støynivå reduksjonen som Jensen Huang skrytte over er relevant for dei fleste kjølerane? Er 3 vifter meir stillegående enn 2? Er fleire blader på vifta betre? Kjøper du msi tri x 2080ti, så er det ikkje skjrrmkortet som bråker, hvis det fåt nok luft Lenke til kommentar
Gabri3L Skrevet 25. august 2018 Del Skrevet 25. august 2018 Det finnes jo tonnevis av spill med bra gameplay som ikke legger vekt på realistisk grafikk. Steam har en overflod av dem. Jeg spiller selv mange. Så vil man ha det er det jo bare å kjøpe dem. Men det jeg ikke helt skjønner i denne tråden. Jeg har selv ikke kjøpt kortet pga. prisen og at bruksområdet er litt begrenset for meg ennå. Så jeg venter og ser hva som skjer med pris, spill, tester og nye spill. Mitt 1080Ti gjør fortsatt jobben meget godt til halve prisen. Samt at jeg kanskje venter på 7nm iterasjonen. Men dette dreier seg om et paradigmeskifte og det er aldri billig. Så er det opp til de som har lyst til å benytte teknologien nå i startfasen å kjøpe det. Hvorfor i alle dager en bunsj folk føler seg rumperaspa av dette forstår jeg virkelig ikke . Kjøp da heller 1 eller 2 1080Ti til skrap-pris? Hadde SLI fungert bedre på tvers av titler ville jeg hvertfall kjøpt et 1080Ti til nå. Men for de som spiller titler som støtter SLI godt er jo det en nobrainer, eller bør være. Ingen her forsvarer prisen, men klapper fordi vi ser viktige fremskritt i teknologien som alle aktører vil dra nytte av. Ser ikke helt hvorfor man skal være så butthurt av dette teknologifremskrittet, det er jo bare la vær å kjøpe? Så håper jeg tråden fremover kan være for de som er interessert i teknologien og at resten lager seg en "vi som hater RT, DLSS, Tensor etc" Selvsagt skal man kunne diskutere positive og negative ting med et produkt men her snakker vi et knippe brukere som har gått helt av skaftet og kuppet tråden med "jeg hater apple" mentalitet. Vær så snill å svar helt ærlig; hva tror du for øyeblikket ytelsen til RTX kortene kommer til å bli? Og hva tror du du hadde trodd den kom til å bli, uten bidrag i denne tråden fra folk som "hater RT, DLSS, Tensor etc"? Med andre ord; Tror du diskusjonen i denne tråden har endret din forventning til ytelsen som Nvidia fikk deg til å tro du ville fått med RTX? Lenke til kommentar
siDDis Skrevet 25. august 2018 Del Skrevet 25. august 2018 Kjøper du msi tri x 2080ti, så er det ikkje skjrrmkortet som bråker, hvis det fåt nok luft Med andre ord, 3 vifter gir støy reduksjon? Lenke til kommentar
Betroz Skrevet 25. august 2018 Del Skrevet 25. august 2018 Med andre ord, 3 vifter gir støy reduksjon? Antall vifter er ikke hele greia, men hele designet på kjøleren. - MSI GeForce RTX 2080 Ti Gaming X Trio er vel det som Nizzen mente. Lenke til kommentar
vidor Skrevet 25. august 2018 Del Skrevet 25. august 2018 Intuitivt virker det jo rasjonelt med tre vifter, men det kan godt være at 2 gode vifter gjør samme nytten i et godt design. Teknisk sett vil vel de fleste ha kortet så stille og kjølig som mulig i tillegg til at det er stabilt over tid. Sånn sett kan det godt være bedre med to kvalitetsvifter heller enn et kulere design med tre vifter som er av lavere kvalitet. Lenke til kommentar
Populært innlegg N o r e n g Skrevet 25. august 2018 Populært innlegg Del Skrevet 25. august 2018 (endret) Seriøst? Jeg linker da til ikke mindre enn 2 poster jeg selv skrev 2 dager før denne videoen var oppe. Hvem er det du mener ikke kan tenke selv? Hvorfor skal vi vente på "skikkelige tester" når Nvidia allerede har gitt oss informasjonen vi trenger? At Pascal mister mer ytelse enn Vega 64 med HDR aktivert er ikke en spekulasjon, det angis også med kilde. -snip- Snippet vekk spekulasjonene dine. Måten du overfører observasjoner på er mistenkelig lik tankegangen til konspirasjonsteoretikere (jorden er flat, flybensin kan ikke smelte stål, flystripene på himmelen er myndighetene som sender ned kontrollstoffer. Sammendrag av den halvtimeslange videoen til AdoredTV: Minnebåndbredden er mye høyere på RTX, og dette gir uforholdsmessig mer ytelse i 4K sammenlignet med mindre oppløsninger. Nvidia har benchmarket i 4K HDR for å stille Turing i best mulig lys. Den første setningen er rett og slett feil, 4K fremhever ytelsesforskjellene fordi matrisene får 1.5x så store dimensjoner, hvis du har jobbet med matriser før skjønner du fort hvor mye mer regning som oppstår av en slik endring (antall regneoperasjoner øker betraktelig fortere enn antall elementer per matrise). Prøv å finne determinanten til en 4x4-matrise, og så sammenligner du med hvor mange regneoperasjoner du må gjøre for å finne determinanten til en 6x6-matrise. Den andre setningen er åpenbar, og burde ikke komme som en overraskelse for noen som helst, men det betyr ikke at de har svekket Pascal med vilje eller brukt innstillinger som svekker ytelsen til det absurde. Nvidia kunne oppgitt ytelsestallene i spill med DLSS og RT aktivert, men de har oppgitt uten DLSS i spill uten RT, er dette fordi de lyver til oss eller fordi de ikke ønsker å bli saksøkt? Jeg gjentar at det var du som skrev at videoen burde være obligatorisk for å videre diskusjon her, jeg påstår fortsatt at det er fullstendig feil og at man med fordel kan la være å kaste bort 1/32-del av dagen på noe som koker ned til 99% spekulasjon med (i beste fall) 1% faglig grunnlag. Vent på tester EDIT: Etter litt ettertanke har jeg begynt å lure på om jeg også skal lage en youtube-kanal der jeg spekulerer på slikt, jeg fikk jo tross alt en 6-er i matematikk på ungdomsskolen og har derfor godt faglig grunnlag til å kunne forstå 3D-rendering, gjennom avanserte hjelpemidler som Powerpoint og Excel burde jeg klare å komme med gode forutsigelser. Og så kan jeg opprette en Patreon-konto for alle som ønsker å støtte "æ verri innteresting nårvidsjæn vitt gudd inntensjuns" Endret 25. august 2018 av N o r e n g 11 Lenke til kommentar
Betroz Skrevet 25. august 2018 Del Skrevet 25. august 2018 Vent på tester Beste 3 orda noen har skrevet så langt her 1 Lenke til kommentar
Theo343 Skrevet 25. august 2018 Del Skrevet 25. august 2018 (endret) Vær så snill å svar helt ærlig; hva tror du for øyeblikket ytelsen til RTX kortene kommer til å bli? Og hva tror du du hadde trodd den kom til å bli, uten bidrag i denne tråden fra folk som "hater RT, DLSS, Tensor etc"? Med andre ord; Tror du diskusjonen i denne tråden har endret din forventning til ytelsen som Nvidia fikk deg til å tro du ville fått med RTX? Nei? Jeg har som regel sett det meste av innholdet dere linker til før det linkes til. Videoen du linket til så jeg med en gang den kom ut da jeg har fulgt skotten en stund og han spekulerer i mange interessante ting. Å mene at vi andre ikke orker å høre på en skotte blir litt weird. Jeg avventer forventninger om ytelse i gamle titler til vi ser tester og benchmarks samt at jeg er klar over at her må ting modnes, nye titler som støtter teknologien godt må komme ut først, drivere må modnes etc. Dette er starten og den er spennende. Ergo er jeg ganske avslappet ift. det. Men for min del blir ikke kjøp aktuelt før 7nm etter å ha vurdert helheten da. EDIT: Det eneste vi vet per i dag er litt specs og en haug spekulasjoner. At dette ikke blir en revolusjon ift. eksisterende titler tror jeg alle er klar over, men det er ikke poenget med dette, jeg tror heller mange gleder seg til fremtiden dette gir. Når det er sagt kan jeg forstå at alle som forventet 980 til 1080 hopp i gamle titler blir skuffet. Men det er jo alltid risikoen ved å tørre å drive utviklingen fremover og endre retning. Folk flest liker generelt ikke endringer men vil bare ha mer av det samme. Så fremfor å slakte endringer så velger jeg å se hva endringen kan føre til. Og skulle ytelsesøkningen i gamle titler bli forholdsvis liten så er ikke det sjokkerende når man ser overfladisk på specs mot gamle titler. Så jeg venter til jeg vet mer. Endret 25. august 2018 av Theo343 Lenke til kommentar
Gabri3L Skrevet 25. august 2018 Del Skrevet 25. august 2018 Snippet vekk spekulasjonene dine. Måten du overfører observasjoner på er mistenkelig lik tankegangen til konspirasjonsteoretikere (jorden er flat, flybensin kan ikke smelte stål, flystripene på himmelen er myndighetene som sender ned kontrollstoffer. Sammendrag av den halvtimeslange videoen til AdoredTV: Minnebåndbredden er mye høyere på RTX, og dette gir uforholdsmessig mer ytelse i 4K sammenlignet med mindre oppløsninger. Nvidia har benchmarket i 4K HDR for å stille Turing i best mulig lys. Den første setningen er rett og slett feil, 4K fremhever ytelsesforskjellene fordi matrisene får 1.5x så store dimensjoner, hvis du har jobbet med matriser før skjønner du fort hvor mye mer regning som oppstår av en slik endring (antall regneoperasjoner øker betraktelig fortere enn antall elementer per matrise). Prøv å finne determinanten til en 4x4-matrise, og så sammenligner du med hvor mange regneoperasjoner du må gjøre for å finne determinanten til en 6x6-matrise. Den andre setningen er åpenbar, og burde ikke komme som en overraskelse for noen som helst, men det betyr ikke at de har svekket Pascal med vilje eller brukt innstillinger som svekker ytelsen til det absurde. Nvidia kunne oppgitt ytelsestallene i spill med DLSS og RT aktivert, men de har oppgitt uten DLSS i spill uten RT, er dette fordi de lyver til oss eller fordi de ikke ønsker å bli saksøkt? Jeg gjentar at det var du som skrev at videoen burde være obligatorisk for å videre diskusjon her, jeg påstår fortsatt at det er fullstendig feil og at man med fordel kan la være å kaste bort 1/32-del av dagen på noe som koker ned til 99% spekulasjon med (i beste fall) 1% faglig grunnlag. Vent på tester Flatjord sammenlikning for å prøve å drite meg ut, notert. Av en eller annen grunn trodde jeg bedre om deg... Men her er vi altså, og du på toppen av det hele har sett deg nødt til å ta i bruk stråmenn også... Så verdig... "Minnebåndbredden er mye høyere på RTX, og dette gir uforholdsmessig mer ytelse i 4K sammenlignet med mindre oppløsninger" Ja, denne setningen som er din tolkning er feil. Så den er jo rimelig lett for deg å rive ned. Det kunne til og med jeg klart. Problemet er bare at hverken meg, eller så vidt jeg vet Jim Parker, har sagt noe som likner på den setningen, med mindre man bedriver sitatfusk. Hvorfor du gidder det fatter jeg virkelig ikke. Alle kan jo bla opp et par poster og se at jeg faktisk skrev: "1080Ti har jo en shitload med cuda kjerner, det er jo de som gjør kortet raskere... Så lenge kortet ikke blir strupet en annen plass, som for eksempel på minnebåndbredde.". Jeg spurte deg til og med spesifikt: "Du skriver som om du tror at Jim mente kun båndbredde, og siden jeg ellers ikke forstår helt hva du mener må jeg nesten bare la denne ligge." I stedet for å svare så kommer du med dette vaset... Men OK, greit, og drit i det. Flatjord kommentaren din var i grunnen nok for meg. Jeg har ingen interesse av videre diskusjon på dette nivået... 2 Lenke til kommentar
PantZman Skrevet 25. august 2018 Del Skrevet 25. august 2018 (endret) Beste 3 orda noen har skrevet så langt her Er en del som har sagt det, men er vel lov å spekulere litt likevel. Spesielt når Nvidia ikke vil dele info... Endret 25. august 2018 av PantZman Lenke til kommentar
Randeboy Skrevet 25. august 2018 Del Skrevet 25. august 2018 (endret) Intuitivt virker det jo rasjonelt med tre vifter, men det kan godt være at 2 gode vifter gjør samme nytten i et godt design. Teknisk sett vil vel de fleste ha kortet så stille og kjølig som mulig i tillegg til at det er stabilt over tid. Sånn sett kan det godt være bedre med to kvalitetsvifter heller enn et kulere design med tre vifter som er av lavere kvalitet. Kjøleribbene må jo selvfølgelig stå i stil og ha stor overflate, ellers hjelper det ikke med 3 vs 2 vifter. Ta en titt på EVGA sin kjøler, den ser ut som har en veldig feit kjøleribbe, men den har 2 vifter. Tipper den kjøler like godt om ikke bare litt dårligere enn MSI sin. Endret 25. august 2018 av Randeboy Lenke til kommentar
Gabri3L Skrevet 25. august 2018 Del Skrevet 25. august 2018 Nei? Neivel, så du føler ikke at du har et litt mer realistisk bilde av ytelsen vi kan forvente nå, enn du hadde da du skrev denne posten? Jeg har fulgt tråden siden den ble opprettet. Jeg fulgte Keynoten Live og satt klar med lommeboka, og F5 hos Komplett. Men det tok ikke lang tid før jeg beit meg fast i alt som ikke ble sagt, og måten ting ble sagt på, og skepsisen begynte å sige inn.. Jeg har som regel sett det meste av innholdet dere linker til før det linkes til. Videoen du linket til så jeg med en gang den kom ut da jeg har fulgt skotten en stund og han spekulerer i mange interessante ting. Å mene at vi andre ikke orker å høre på en skotte blir litt weird. Det var en halvveis intern en til Nizzen som jeg mener tidligere har bedt om å få oversatt en av videoene hans fordi han ikke taklet/forstod/orket skotsk aksenten han. Jeg spesifiserte ikke, fordi jeg ikke husket sikkert om det var Nizzen, en annen, eller flere.. Jeg avventer forventninger om ytelse i gamle titler til vi ser tester og benchmarks samt at jeg er klar over at her må ting modnes, nye titler som støtter teknologien godt må komme ut først, drivere må modnes etc. Dette er starten og den er spennende. Men hvorfor vil du kun ha "gode" nyheter i tråden? Bryr du deg ikke om hva som er sant? Synes du det gir deg rett til å kalle meg en hater? Selv om jeg kun prøver å hjelpe folk til å ikke kaste ut pengene sine på noe de ikke vet hva er, før vi har troverdige tester fra tredjeparter? Skjønner du at Jensen sitt ord ser ut til å veie bittelitt tyngre enn mitt her i tråden, og at jeg ikke kan bare komme med påstander uten å kunne bakke dem opp med faktiske kilder? Forstår du videre at om kildene er negative, så er det kildene som er negative. Og at å hate på meg kun er å skyte budbringeren? Ergo er jeg ganske avslappet ift. det. Men for min del blir ikke kjøp aktuelt før 7nm etter å ha vurdert helheten da. Ja, skjønner det er lett for deg å slappe av som ikke skal ha noen av kortene. Så da skal du kose deg med alle de gode tek nyhetene, mens folk som meg som faktisk har lagt ut 12 000 Kr for å drive fremskrittet. Vi skal ikke ha lov til å uttale oss i tråden med mindre det bare er gull og grønne skoger? Nei, i stedet skal vi få høre at vi "hater RT, DLSS, Tensor etc"... Rettferdig fordeling gitt.. EDIT: Det eneste vi vet per i dag er litt specs og en haug spekulasjoner. Det er ikke sant, vi har de aller fleste specs nå, og flere andre håndfaste data. Vi har også en haug av spekulasjoner ja, også kjent som Internett... At dette ikke blir en revolusjon ift. eksisterende titler tror jeg alle er klar over, Og jeg tror det kanskje så vidt begynner å gå opp for enkelte etterhvert. Deg inkludert, jeg husker du proklamerte at du hadde kjøpt 2080Ti "tvert" for 8000Kr. Det pleier man jo å gjøre for ting man er klar over "ikke blir en revolusjon". Kanskje du har/hadde fått det med deg uavhengig av denne tråden. Men har du tenkt på at det kan være andre her som ikke hadde fått det med seg om det ikke var noen her i tråden som hadde giddet å ta på seg oppgaven som budbringer? Du ser at det ellers fremdeles kun hadde vært Halleluja her, og folk ville fremdeles trodd på 2X over Pascal som en regel uten unntak? Dersom ingen bringer annet enn "positive" nyheter inn? Hva om du var den som satt på "negative" nyheter, ville du delt dem i denne tråden, nå som du ser hvordan man blir behandlet for å gjøre det? men det er ikke poenget med dette, jeg tror heller mange gleder seg til fremtiden dette gir. Ja? Men ikke meg? For jeg bare "hater RT, DLSS, Tensor etc"? Når det er sagt kan jeg forstå at alle som forventet 980 til 1080 hopp i gamle titler blir skuffet. Men det er jo alltid risikoen ved å tørre å drive utviklingen fremover og endre retning. Folk flest liker generelt ikke endringer men vil bare ha mer av det samme. Så fremfor å slakte endringer så velger jeg å se hva endringen kan føre til. Og akkurat her føler jeg meg også aldri så lite missforstått. Jeg har aldri slaktet endringer. Jeg har slaktet den shady'e oppførselen til Nvidia. Jensen sa på Keynote; "lets call it 1,5x". De har siden sluppet slides som hevder 4K HDR og over 60fps, blant annet 73fps i Hitman. Og de har hevdet 2x perf med DLSS med en annen slide. Alt dette er løgn, bare uten at de lyver, det de sier er teknisk korrekt, det er det de ikke sier som gjør det til usannheter. Det reagerer jeg på, for jeg skjønte med en gang at det var fishy når de brukte 4K HDR til testene. Jeg var såpass sikker på at det var fishy, at jeg gadd å sjekke opp noen av disse påstandene, og så dele resultatene jeg kom frem til med dette forumet. Det var slik vi gjorde det i "gamle dager", de som kunne, bidro, og de fleste hjalp hverandre til bedre kunnskap og forståelse. Som du ser er det en potensielt veldig takknemlig "jobb"... Min utregning er, mnja, mest sannsynlig minst 98% korrekt. Sånn forutsett at ikke Turing dropper mer ytelse fra SDR til HDR enn Vega. Da er det ikke mye "synsing" igjen, det er bare en liten feilmargin. Og hvem som helst med ungdomsskole matematikk kunne gjort det samme. Det ironiske er at når Nizzen benchmarker dette om en måneds tid, og da rapporterer nøyaktig samme resultat, så kommer han til å bli applaudert for å bidra på forumet... Med sitt negative resultat... Og skulle ytelsesøkningen i gamle titler bli forholdsvis liten så er ikke det sjokkerende når man ser overfladisk på specs mot gamle titler. Så jeg venter til jeg vet mer. Men jeg altså, som er en av de som i det minste har litt forutsetninger i forhold til å skulle vurdere ut fra spesifikasjonene og informasjonen vi er gitt, hva slags perf vi burde kunne forvente oss, uten å måtte vente på videoer fra youtubere til å fortelle meg. Jeg har ingen tro på mye bedre ytelse enn cuda cores antall, og frekvens, vil tilsi. Jeg har allerede bestilt RTX2080Ti... Også er jeg den negative?! Ikke du, som sitter på gjerdet fremdeles... Ja, forstå det den som kan... 3 Lenke til kommentar
Theo343 Skrevet 25. august 2018 Del Skrevet 25. august 2018 (endret) Jeg tror du velger å misforstå alt jeg sier og drar det til ytterkanter som tar seg bedre ut i din motargumentasjon. Ergo for mye stråmanssargumentasjon til at jeg gidder forholde meg til det. Endret 25. august 2018 av Theo343 3 Lenke til kommentar
Betroz Skrevet 25. august 2018 Del Skrevet 25. august 2018 Hvor kommer denne trangen til å alltid ha rett i en diskusjon fra? Et sted er det hakk i plata spør du meg. 2 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå