Malvado Skrevet 20. november 2018 Del Skrevet 20. november 2018 Disse skeptikerne går igjen hver gang det kommer noe nytt som baner vei for videre utvikling. - Når man fikk CPUer med integrert FPU. - Når man fikk 64bit x86 CPuer - Når man fikk Dualcore CPUer - Når man fikk Tesselation i GPU. - Når man fikk PhysX i GPU - Når Cuda og OpenCL implementasjonen kom - Når man fikk integrert lydkort på hovedkort og mente gode lydkort ikke var verdt pengene - Når bil med forbrenningsmotor kom for å ta over for hesten Denne listen kan gjøres så lang man bare vil. Men de samme skeptikerne vil alltid komme med dommedagsprofetier. Har du lyst på en liste med ting som ikke er i bruk lenger? Eksempelvis så har både AMD/NVIDIA/INTEL kommet med teknologi som i dag ikke brukes, eksempelvis kode for CPU slik at den kunne ta gfx oppgaver, forskjellige kodeverk for å avlaste gpu, fysiske formler for å gjøre kroppene til 3d figurer mer naturlige ( men feilet grovt ) lyskilder osv... Listen er lang. Ser man litt på ting som physx så er det kjipe at det er fastlåst enten til NVIDIA gpu eller via CPU. Hadde det kunnet vært implementert på AMD / Intel gpuer hadde jeg gitt en god thumbs up, desverre er dette noe som gjentar seg på alle leire. 2 Lenke til kommentar
Cowboystrekk Skrevet 20. november 2018 Del Skrevet 20. november 2018 Tror alle er enige om at raytracing er bra, ingenting imot teknologien. Problemet er at ytelsestapet er sån hinsides. Hadde man f.eks mista 10-20% ytelseså tror jeg mange hadde levd fint med det. Når det får et 2080ti til å bli et 1060 er ikke ting like bra :/ 2 Lenke til kommentar
Randeboy Skrevet 20. november 2018 Del Skrevet 20. november 2018 Er en grunn de ikke viste mye av ytelsestapet i starten. Da hadde de nok ikke fått forhåndssolgt så mye kort. Lenke til kommentar
Snuggis Skrevet 20. november 2018 Del Skrevet 20. november 2018 Og når 20 serien generelt ikke er spesielt raskere enn 10 serien på mer tradisjonelle oppgaver også. Ingen tvil om at det er mye spennende på gang, meeeen... Lenke til kommentar
Gjest Slettet+5132 Skrevet 20. november 2018 Del Skrevet 20. november 2018 (endret) Adaptive Shading til Wolfenstein 2 https://www.guru3d.com/news-story/quick-test-wolfenstein-ii-the-new-colossus-adaptive-shading-benchmarks.html Ser at de endelig har normalisert aksene på bunnen. De første plottene ga inntrykket av en stor ytelsesøkning før en så på aksene. Nå burde man kanskje ane ugler i mosen når noen synes det gir mening å tegne en kontinuerlig kurve mellom Adaptive off og Adaptive quality men Ytelsesøkningen er vel nesten innenfor feilmarginen her? Endret 20. november 2018 av Slettet+5132 Lenke til kommentar
Mala Skrevet 20. november 2018 Del Skrevet 20. november 2018 (endret) RTX er knall, og en stilig utvikling. Men ytelsen i dag, og til den prisen som foreligger..det er der det må skje ting. Gimmick og show denne generasjonen, kanskje det blir en ting neste generasjon. En plass må det jo starte, men kanskje nvidia kunne spart seg én generasjon til sånn at det hele kunne ja modnet litt? Endret 20. november 2018 av Mala Lenke til kommentar
Teodor1979 Skrevet 20. november 2018 Del Skrevet 20. november 2018 Update med nvidia.no? Fikk du pengene igjen? Fikk omsider et RMA-nummer og en adresse å sende tilbake til. Måtte ordne alt selv med tollpapirer, og måtte i tillegg betale 362,- for å sende. Siste oppdatering fra postens sporing er fra 2. november og at den er ferdig fortollet og klar til sending. Fikk beskjed da jeg ringte posten at jeg ikke vil se noe videre sporing, så aner ikke status nå. Har uansett sendt Mastercard all dokumentasjon og info i saken, og de virker veldig villige til å hjelpe hvis det ikke skjer noe ganske snart. Lenke til kommentar
vidor Skrevet 20. november 2018 Del Skrevet 20. november 2018 Har du lyst på en liste med ting som ikke er i bruk lenger? Eksempelvis så har både AMD/NVIDIA/INTEL kommet med teknologi som i dag ikke brukes, eksempelvis kode for CPU slik at den kunne ta gfx oppgaver, forskjellige kodeverk for å avlaste gpu, fysiske formler for å gjøre kroppene til 3d figurer mer naturlige ( men feilet grovt ) lyskilder osv... Listen er lang. Ser man litt på ting som physx så er det kjipe at det er fastlåst enten til NVIDIA gpu eller via CPU. Hadde det kunnet vært implementert på AMD / Intel gpuer hadde jeg gitt en god thumbs up, desverre er dette noe som gjentar seg på alle leire. Få som bruker PhysX nettopp p.g.a at det er propreitær teknologi bundet til nVidia. De aller fleste går for noe som virker for alle. Å bruke f.eks Havoc medfører en enklere kodebase å vedlikeholde i tillegg til et ensartet resultat. Det som trengs er mer likhet i hardware for å forenkle utvikling. Det er dette som løfter baseline slik at utviklere har et bedre fundament som igjen gir bedre potensiale for høyere ytelse/kvalitet, men dette krever samarbeid og at en legger fra seg ren egeninteresse til felles beste. Kjører selv Intel + nVidia så måten de driver markedet på fungerer forsåvidt i bedrift -> salg -> kunde perspektiv, men utvikler -> massemarked barberer ned baseline p.g.a teknologi lock-in som er så gjemt i kulissene at få utenom industrifolk og andre spesielt interesserte er klar over det. Lenke til kommentar
JarleGutt Skrevet 21. november 2018 Del Skrevet 21. november 2018 Jeg er med på det, men har du sett reviews som viser at dyrere kort har dyrere komponenter (skip det ang selve chipen, A eller ikke)? Feks sammenlign billigste Pallit 2070 korte som nå er 5000 kr vs dyreste 2070 kort som er ca 7700 kr. Se reviews, Pallit kortet er både stille og kjøler bra. Da gjenstår bare chipen som er A versjon på dyreste kort. Er det da bare det som er forskjellen er det 50% prisforskjell for bare bittelitt mer klokking, som er galskap. Jeg lurer fortsatt på dette. Sliter med å skjønne denne prisforskjellen dersom det da ikke er store forskjeller i komponentene... Lenke til kommentar
vidor Skrevet 21. november 2018 Del Skrevet 21. november 2018 Når en fabrikk produserer wafere som er utgangspunktet til chipene så får en ulike kvalitetsgrader. Som regel prøver man å få et så godt resultat som mulig på alle, men dette er ikke mulig. En får da en kvalitetsforskjell som en igjen sorterer produksjonen til ulike produktgrupper. Sånn sett kan en si at kjernen på 2070 mest sannsynlig er en lavere kvalitet ut av hovedsaklig samme produksjonsprosess, mens de waferene som gir best ytelse og som er helt feilfrie går til toppkortene. PS3 hadde f.eks som mål at 7 av 8 PPEer skulle fungere, siden det ville blitt veldig mye dyrere å skrape alle med små defekter. Da unngår man heller å bruke den kjernen som ikke fungerer, på samme måte som det sikkert ligger begrensninger lagt til av nVidia slik at chipene skal fungere til den spesifikasjonen de er solgt med. Lenke til kommentar
JarleGutt Skrevet 21. november 2018 Del Skrevet 21. november 2018 Jeg lurer fortsatt på dette. Sliter med å skjønne denne prisforskjellen dersom det da ikke er store forskjeller i komponentene... Det er en god del reviews som tar av og studerer PCBen, selve kortet. Men de sier ikke om de og de komponentene er bedre enn normalt etc. Gjorde noen raske sjekk til, og det jeg klarer å konkludere med er følgende: De dyre modellene av de forskjellige kortene, feks 2070 har disse forskjellene: - for 2070 så er de 400A modell, ikke bare 400 så de skal kunne klokke bedre/være av bedre kvalitet - de har bedre kjøler, er rundt 5 grader bere enn de billige - de har bedre kjøler, vanligvis er litt stillere - har noen tillegg, feks fan headers, bling-lys, dual bios etc - kan ha noen forskjeller i komponenter, men dette klarer jeg ikke å finne god info på Er det jeg har klart å finne. Feks da for 2070 så er det for meg galskap å betale nesten 8000 for de dyre modelle mot ca 5000 for de billige, da er det heller å slenge på noen få hundre til og så har du en 2080. Men når man får de dyre modellen for ca 6200 kr er det noe jeg vurderer å kjøpe... Lenke til kommentar
Gjest Slettet+5132 Skrevet 21. november 2018 Del Skrevet 21. november 2018 Kjører selv Intel + nVidia så måten de driver markedet på fungerer forsåvidt i bedrift -> salg -> kunde perspektiv, men utvikler -> massemarked barberer ned baseline p.g.a teknologi lock-in som er så gjemt i kulissene at få utenom industrifolk og andre spesielt interesserte er klar over det. Veldig sant. I GPGPU gjør Nvidia sitt for at CUDA skal holde fotfeste over OpenCL, slik at AMD-kort ikke blir aktuelle for store regneklynger. Det tok Nvidia 4 år for å få inn OpenCL 1.2 (AMD fikk det samme året standarden var ute). I tillegg er det et mareritt å debugge og ytelsesteste OpenCL-kode på Nvidia-skjermkort. AMD fikk støtte for OpenCL 2.0 i 2014, mens Nvidia fikk testversjon i 2017. Som programmeringsspråk har absolutt CUDA fordeler, men OpenCL har tross alt fordelen av at det er støttet på begge platformer. Det er vel ingen som skriver spillmoterer i Cg lenger? Forhåpentligvis blir Nvidia presset til å støtte nyeste OpenCL når det kommer inn i Vulkan-standarden (men de kommer nok til å lure seg unna en god stund), og OpenCL-bruken blir nok høyere når C++-kjernene blir støttet, men akkurat nå har Nvidia defacto monopol på GPGPU. Lenke til kommentar
Kuldesjokk Skrevet 21. november 2018 Del Skrevet 21. november 2018 (endret) Da har 2080 Duke blitt montert, virka som et trivelig kort, kjøleren var relativt stillegående, men blir vann etterhvert uansett. Er det evga sin bios som er poppis? Trenger høyere power limit Så langt bare +60hz og +600hz (1200hz) minne. Tar det gradvis og 2070 diskusjonen. En ting til som kan skille. De dyrere kortene er ofte 2080 PCB, men med 2070 chip og generelt færre chips. Gir deg tilgang til mer strøm enn reference 2070pcb design. Det at kortet også får samme layout som 2080 bidrar nok på kjølefronten. Endret 21. november 2018 av Kuldesjokk Lenke til kommentar
Mumriken Skrevet 21. november 2018 Del Skrevet 21. november 2018 Er det evga sin bios som er poppis? Trenger høyere power limit Tja, den har vel 293W pt om jeg ikke husker feil. Strix har vel 305W, men jeg bruker evga pga K-boost i XOC Lenke til kommentar
Theo343 Skrevet 21. november 2018 Del Skrevet 21. november 2018 (endret) At ytelse på ny teknologier som RTX er svak i starten er heller inget unntak fra den generelle oppsummeringen. Om en teknologi eller implementasjon av en teknologi er propritær eller ikke er en helt annen diskusjon og har selvfølgelig også negative innvirker man ikke trenger å være "bransjefolk" for å forstå. Men det positive med det er at det kan tvinge eller lokke frem åpne alternativer selv om den første implementasjonen er propritær. Endret 21. november 2018 av Theo343 Lenke til kommentar
Gjest Slettet+5132 Skrevet 21. november 2018 Del Skrevet 21. november 2018 At ytelse på ny teknologier som RTX er svak i starten er heller inget unntak fra den generelle oppsummeringen. Om en teknologi eller implementasjon av en teknologi er propritær eller ikke er en helt annen diskusjon og har selvfølgelig også negative innvirker man ikke trenger å være "bransjefolk" for å forstå. Men det positive med det er at det kan tvinge eller lokke frem åpne alternativer selv om den første implementasjonen er propritær. nei, men jeg spør igjen: Hvem er det som ikke tror RTX kommer til å bli viktig eller bra i fremtiden? Hvis du ikke har eksempler på det i denne tråden, fremstår hele innlegget som en stråmann. Lenke til kommentar
RamGuy Skrevet 21. november 2018 Del Skrevet 21. november 2018 Ray-Tracing ender vel neppe opp sånn som PhysX i all den tid det blir bakt inn som endel av DirectX osv..? Er vel da åpnet opp for alle, men foreløpig så er det kun NVIDIA som har spesialiserte kort iform av RTX-serien som tilbyr spesialisert maskinvare som har mulighet til å kjøre Ray-Tracing med halvveis fornuftig ytelse per dags dato. Er vel da ingenting som forhindrer Vulkan osv å implementere støtte for dette også? Lenke til kommentar
Nizzen Skrevet 21. november 2018 Forfatter Del Skrevet 21. november 2018 (endret) Ray-Tracing ender vel neppe opp sånn som PhysX i all den tid det blir bakt inn som endel av DirectX osv..? Er vel da åpnet opp for alle, men foreløpig så er det kun NVIDIA som har spesialiserte kort iform av RTX-serien som tilbyr spesialisert maskinvare som har mulighet til å kjøre Ray-Tracing med halvveis fornuftig ytelse per dags dato. Er vel da ingenting som forhindrer Vulkan osv å implementere støtte for dette også? https://devblogs.nvidia.com/vulkan-raytracing/ Error 404 Endret 24. november 2018 av Countryman Lenke til kommentar
Gjest Slettet+5132 Skrevet 21. november 2018 Del Skrevet 21. november 2018 Ray-Tracing ender vel neppe opp sånn som PhysX i all den tid det blir bakt inn som endel av DirectX osv..? Er vel da åpnet opp for alle, men foreløpig så er det kun NVIDIA som har spesialiserte kort iform av RTX-serien som tilbyr spesialisert maskinvare som har mulighet til å kjøre Ray-Tracing med halvveis fornuftig ytelse per dags dato. Er vel da ingenting som forhindrer Vulkan osv å implementere støtte for dette også? Som nevnt, RTX kommer til Vulkan-standarden, sålangt er det kun som en NVX-extension (altså kun for Nvidia-kort), men det ser ut som om de jobber med å få det inn i standarden. Lenke til kommentar
Nizzen Skrevet 21. november 2018 Forfatter Del Skrevet 21. november 2018 Er mulig å få BF V gratis, selv om man kjøpte RTX før denne "promotion" kom til nye kort asus https://www.asus.com/event/vga/BattlefieldV/ msi https://www.msi.com/Promotion/game-on-game-rtx gigabyte https://www.aorus.com/event-detail.php?i=838 zotac https://www.zotac.com/my/page/redeem-Battlefield-V 3 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå