bruker-540634 Skrevet 4. september 2020 Del Skrevet 4. september 2020 Malvado skrev (30 minutter siden): Imponerende ytelse på de nye kortene, AMD har nub sjangs til å konkurrere denne gangen på ytelse pr krone med mindre de virkelig revolusjonerer i gpu avdelinga ( trolig ikke ). Får begynne å spare litt ekstra til både psu og gpu. Ja hvis du ikke bryr deg om bildekvalitet, nvidia kompriere bilde for å få bedre ytelse og fargene ser blasse ut. Merket det veldig når jeg for noen år siden gikk ifra 1080 til vega 64. Men helt klart fra rtx 20 serien så har nvidia vært overlegne på ytelse. AMDs Radeon image sharpening er også overlegen nvidia sin btw å gjør underverket om man ikke kjører alt på ultra. Ser nesten bedre ut med image sharpening og medium grafikk enn ultra uten image sharpening. Lenke til kommentar
Skjelvgråt Skrevet 4. september 2020 Del Skrevet 4. september 2020 Just now, Vakuum said: Du får heller spare opp litt først. Virker som det blir trangt om kortene ut dette året uansett. Man kjøper ikke pc-utstyr på avbetaling Nei, har aldri gjort det og har ingen planer om å begynne. Jeg oppgraderte alt annet i PCen tidligere i år, så har bare ventet på at 3000 serien skulle komme. Lenke til kommentar
Populært innlegg Nizzen Skrevet 4. september 2020 Forfatter Populært innlegg Del Skrevet 4. september 2020 (endret) 11 minutes ago, freddy85 said: Ja hvis du ikke bryr deg om bildekvalitet, nvidia kompriere bilde for å få bedre ytelse og fargene ser blasse ut. Merket det veldig når jeg for noen år siden gikk ifra 1080 til vega 64. Men helt klart fra rtx 20 serien så har nvidia vært overlegne på ytelse. AMDs Radeon image sharpening er også overlegen nvidia sin btw å gjør underverket om man ikke kjører alt på ultra. Ser nesten bedre ut med image sharpening og medium grafikk enn ultra uten image sharpening. ? Når du kommer med slike påstander i en tråd med faktisk mange oppegående personer, så BØR du forklare deg. Ellers kommer det rimelig mange "latter smilyes" her etterhvert... Dagens tips: Dette er ikkje Itavisen eller facebook... Endret 4. september 2020 av Nizzen 13 Lenke til kommentar
BadCat Skrevet 4. september 2020 Del Skrevet 4. september 2020 (endret) Er det flere enn meg som ble skuffet da de hørte at encode er den samme som i 2000-serien? 1440p @ 360 Hz > 8K @ 60 Hz 1440p er bra til å reskalere til 720p livestream i 60 eller 120 FPS. Endret 5. september 2020 av BadCat 2 Lenke til kommentar
Gjest Skrevet 4. september 2020 Del Skrevet 4. september 2020 Nizzen skrev (19 minutter siden): ? Når du kommer med slike påstander i en tråd med faktisk mange oppegående personer, så BØR du forklare deg. Ellers kommer det rimelig mange "latter smilyes" her etterhvert... Dagens tips: Dette er ikkje Itavisen eller facebook... Dette er allmenn kunnskap. Som du sier nissen, dette er ikke ITavisen. Lenke til kommentar
Mumriken Skrevet 4. september 2020 Del Skrevet 4. september 2020 24 minutes ago, freddy85 said: Ja hvis du ikke bryr deg om bildekvalitet, nvidia kompriere bilde for å få bedre ytelse og fargene ser blasse ut. Merket det veldig når jeg for noen år siden gikk ifra 1080 til vega 64. Men helt klart fra rtx 20 serien så har nvidia vært overlegne på ytelse. AMDs Radeon image sharpening er også overlegen nvidia sin btw å gjør underverket om man ikke kjører alt på ultra. Ser nesten bedre ut med image sharpening og medium grafikk enn ultra uten image sharpening. Wow.. Det her er det dummeste jeg har sett i tråden til nå... ? NB! Ris er underlegen freestyle.. 3 Lenke til kommentar
BadCat Skrevet 4. september 2020 Del Skrevet 4. september 2020 Bildekvalitet har vel ikke vært et tema på minst 22 år siden det var 3Dfx vs ATI. Den gang bildekvalitet var et eget punkt i testene av grafikkort. 1 Lenke til kommentar
Nizzen Skrevet 4. september 2020 Forfatter Del Skrevet 4. september 2020 6 minutes ago, Malerifaen said: Dette er allmenn kunnskap. Som du sier nissen, dette er ikke ITavisen. Ser det er mye liv "meme" tråden din. Kanskje best du holder deg der alene 3 Lenke til kommentar
Gjest Skrevet 4. september 2020 Del Skrevet 4. september 2020 Nizzen skrev (8 minutter siden): Ser det er mye liv "meme" tråden din. Kanskje best du holder deg der alene Lenke til kommentar
Theo343 Skrevet 5. september 2020 Del Skrevet 5. september 2020 (endret) 1. september, 17. september og 24. september er flotte dager. Som generelt teknologi og hardware interessert håper jeg AMD snart kommer på banen for å fortelle litt om hva de har som svar på denne imponerende lanseringen til Nvidia. Endret 5. september 2020 av Theo343 2 Lenke til kommentar
Merko Skrevet 5. september 2020 Del Skrevet 5. september 2020 Følelse på at de kun har noe mid-range på lager, hvor de heller satser alt på Ryzen, men blir spennende. Lenke til kommentar
MariusJS Skrevet 5. september 2020 Del Skrevet 5. september 2020 8 hours ago, Nizzen said: Blir mye rart på finn.no. Kjøpere og selgere er jo ofte samme folka. Folk vil selge dyrt og kjøpe skambillig. Er en grunn for at jeg har solgt 80% av hardwaren til folk her på forumet. Resten går til familie. Finn.no gidder jeg ikkje. RIP hardware.no bruktmarked 2 Lenke til kommentar
Nizzen Skrevet 5. september 2020 Forfatter Del Skrevet 5. september 2020 1 hour ago, MariusJS said: RIP hardware.no bruktmarked ? Lenke til kommentar
scuderia Skrevet 5. september 2020 Del Skrevet 5. september 2020 10 hours ago, Vakuum said: Rent core messig så er 3080 48% større enn 3070, og 3090 21% større enn 3080. Riktig forskjell er nok nærmere 30-40% mellom 3070 og 3080. Tror 2070/2080 hadde rundt 20% forskjell? Kommer litt an på hvilke benchmarks man ser på. 3070 er nok ikke ett dårlig kort. Men det virker som 3080 er plassert høyere på skalaen enn det Nvidia gjorde med 20 serien. Man ser også det på hvor liten forskjell det virker å være opp til 3090. Jeg ville helt klart gått for 3080 om du kan. Eneste nedsiden til 3080 er 10gb ram.. blir snaut på 4K.. Men det kommer nok en versjon over om en stund som har mer minne gjetter jeg på.. 1 Lenke til kommentar
Nizzen Skrevet 5. september 2020 Forfatter Del Skrevet 5. september 2020 (endret) 16 minutes ago, scuderia said: Eneste nedsiden til 3080 er 10gb ram.. blir snaut på 4K.. Men det kommer nok en versjon over om en stund som har mer minne gjetter jeg på.. Det er blitt populært å skrive at 10GB ram er litt snaut i 4k. INGEN viser til noen tester som viser at dette faktisk stemmer. Det KAN bli for lite i noen spesielle tilfeller, men i de fleste tilfeller så cacher spilla bare mere siden skjermkorta har mere vram. Altså spilla krever det ikkje, men det bruker det. Er en vesentlig forskjell. COD spilla er helt ville på å bruke mye vram, men spillet går like smooth på skjermkort med 6GB vram som 11GB. Svar fra nVidia: Why only 10 GB of memory for RTX 3080? How was that determined to be a sufficient number, when it is stagnant from the previous generation? [Justin Walker] We’re constantly analyzing memory requirements of the latest games and regularly review with game developers to understand their memory needs for current and upcoming games. The goal of 3080 is to give you great performance at up to 4k resolution with all the settings maxed out at the best possible price. In order to do this, you need a very powerful GPU with high speed memory and enough memory to meet the needs of the games. A few examples - if you look at Shadow of the Tomb Raider, Assassin’s Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 and Red Dead Redemption 2 running on a 3080 at 4k with Max settings (including any applicable high res texture packs) and RTX On, when the game supports it, you get in the range of 60-100fps and use anywhere from 4GB to 6GB of memory. Extra memory is always nice to have but it would increase the price of the graphics card, so we need to find the right balance. Endret 5. september 2020 av Nizzen 6 1 Lenke til kommentar
N o r e n g Skrevet 5. september 2020 Del Skrevet 5. september 2020 (endret) Jeg har nå oppdaget et spill som sliter med 4GB VRAM: Horizon Zero Dawn. På et 4GB-kort forsvinner store deler av naturen og figurene blir redusert til Nintendo 64-kvalitet Men så er spillet en elendig port også da. EDIT: apropos bildekvalitet, så var det snakk om AF-kvalitet med HD 6000-serien husker jeg Endret 5. september 2020 av N o r e n g 1 Lenke til kommentar
Nizzen Skrevet 5. september 2020 Forfatter Del Skrevet 5. september 2020 Just now, N o r e n g said: Jeg har nå oppdaget et spill som sliter med 4GB VRAM: Horizon Zero Dawn. På et 4GB-kort forsvinner store deler av naturen og figurene blir redusert til Nintendo 64-kvalitet Men så er spillet en elendig port også da. Er det AMD skjermkort? Lenke til kommentar
magnusavr Skrevet 5. september 2020 Del Skrevet 5. september 2020 6 minutes ago, Nizzen said: Det er blitt populært å skrive at 10GB ram er litt snaut i 4k. INGEN viser til noen tester som viser at dette faktisk stemmer. Det KAN bli for lite i noen spesielle tilfeller, men i de fleste tilfeller så cacher spilla bare mere siden skjermkorta har mere vram. Altså spilla krever det ikkje, men det bruker det. Er en vesentlig forskjell. COD spilla er helt ville på å bruke mye vram, men spillet går like smooth på skjermkort med 6GB vram som 11GB. Så du tror det bare er tull å gå for 3090 pga vram for 4k? Det er en av hoved grunnene at jeg heller mot 3090. Ønsker at alle spill skal flyte i 4k de neste 2 årene. 1 Lenke til kommentar
Nizzen Skrevet 5. september 2020 Forfatter Del Skrevet 5. september 2020 (endret) 11 minutes ago, magnusavr said: Så du tror det bare er tull å gå for 3090 pga vram for 4k? Det er en av hoved grunnene at jeg heller mot 3090. Ønsker at alle spill skal flyte i 4k de neste 2 årene. I følge skinnjakkemannen så ble RTX Titan veldig populære. Faktisk mere populære enn de hadde trodd. Derfor har de laget denne versjonen. Mye vram brukes jo i en del programmer for rendering etc. Panorere objekter i realtime kan kreve ville mengder med vram. Mere vram = bedre Som sagt, så kan det godt være at noen spill bruker over 10GB vram, men det blir neppe påkrevd. Har man så mye effekter på at spillet BRUKER over 10GB vram, så blir fort selve skjermkortet også en flaskehals. Altså det blir da en balansegang om man vil ha grei ytelse eller ha vill kvalitet med lavere ytelse. Om du skjønner hva jeg mener Altså jeg tror det blir flere tilfeller der 3090 gpuen blir mere flaskehals enn selve vrambruken, om 3090 hadde bare hatt 10GB vram. Hadde jo selv 3x Titan X 12GB i sli pga de hadde mye Vram. Var et par tilfeller 6GB ble for lite med spilling på 3x 1440p og alt på ultra Endret 5. september 2020 av Nizzen 2 Lenke til kommentar
PgUp Skrevet 5. september 2020 Del Skrevet 5. september 2020 Det er ingen spillutviklere som vil lage et spill som krever mer enn 8GB VRAM. Det sier seg selv når absolutte majoriteten av gamere ikke har et kort med 8gb VRAM. 1 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå