Smedsrud Skrevet 20. mai 2018 Del Skrevet 20. mai 2018 Det går mot sommerlansering av både referansekort og tredjepartskort, hevder kilde.RYKTE: – Neste generasjon Nvidia-kort kommer i juli 2 Lenke til kommentar
Rune Olsen Skrevet 20. mai 2018 Del Skrevet 20. mai 2018 (endret) 2080/1180 Ti dobbel så rask som 1080 Ti? I følge andre nett sider. Jeg tviler på det, skal se resultatene først. Endret 20. mai 2018 av Nils Petterson 1 Lenke til kommentar
Knutgrus Skrevet 20. mai 2018 Del Skrevet 20. mai 2018 2080/1180 Ti dobbel så rask som 1080 Ti? I følge andre nett sider. Jeg tviler på det, skal se resultatene først. Hvem sier hva? xx80 eller xx80ti? Det er i første omgang snakk om xx70 og xx80. Førstnevnte litt i underkant av ytelsen av 1080ti. xx80 med litt i overkant av ytelsen til 1080ti. Ikke mer enn 25% ytelsesforbedring. Det er jo bare spekulasjoner. Ingenting er bekreftet ennå. Lenke til kommentar
FrihetensRegn Skrevet 20. mai 2018 Del Skrevet 20. mai 2018 (endret) Alt koker ned til FPS kontra pris. Nvidia konkurrerer i realiteten med seg selv når de lanserer denne serien. Dette kan bety at de priser seg godt over 10 serien for å ikke ødelegge sitt eget profittmarked nå som AMD så og si er ute av gaming markedet for grafikkort. Endret 20. mai 2018 av FrihetensRegn Lenke til kommentar
Allostasis Skrevet 20. mai 2018 Del Skrevet 20. mai 2018 Blir vel som sist kjenner jeg nvidia rett med GTX2080(?) med lik eller hakket bedre ytelse som GTX1080ti. Lenke til kommentar
PgUp Skrevet 20. mai 2018 Del Skrevet 20. mai 2018 Nå trenger vi bare noen gode AAA spill som virkelig kan dra nytte av ytelsen. Lenke til kommentar
Gjest Slettet-QB4VTZbn Skrevet 20. mai 2018 Del Skrevet 20. mai 2018 Nå trenger vi bare noen gode AAA spill som virkelig kan dra nytte av ytelsen. Kingdom Come Deliverance? Lenke til kommentar
Malvado Skrevet 21. mai 2018 Del Skrevet 21. mai 2018 Mange spennende nyheter hos Nvidia nå : De nye G-Sync skjermene med 4K oppløsning og 144Hz fra Asus "PG27UQ Ultra HD" kommer snart til fin prisLitt mer informasjon fra Nvidia her De nye skjermkortene til Nvidia vil være basert på banebrytende ny Nvidia teknologi med helt ekstrem og utrolig ytelse i forhold til Amd sine skjermkort. , samtlige nyvinninger til Nvidia vil revolusjonere spillmarkedet med en opplevelse som spillerne ikke kommer til å glemme.For de som har litt "slappe" lommeboker kan det være at Freesync og Amd med litt billigere alternativer til "langt lavere" ytelse kan være et alternativ. Lenke til kommentar
Gjest Slettet-QB4VTZbn Skrevet 21. mai 2018 Del Skrevet 21. mai 2018 (endret) Klart at Nvidias nye grafikkort vil være som bestilt for de nye 4K/144hz monitorene, men tror dette blir for spesielt interesserte. Disse monitorene har også en skyhøy prislapp. Jeg spiller en del på min iMac Pro i Bootcamp (fungerer overraskende bra), og forskjellen mellom 4K vs 1440p m/SMAA er ikke all verdens. Skulle jeg først ha kjøpt meg en dedikert spillrigg, så hadde jeg mye heller gått for en 34" eller 38" ultrawide monitor. Endret 21. mai 2018 av Slettet-QB4VTZbn Lenke til kommentar
RRhoads Skrevet 21. mai 2018 Del Skrevet 21. mai 2018 For de som har litt "slappe" lommeboker kan det være at Freesync og Amd med litt billigere alternativer til "langt lavere" ytelse kan være et alternativ.Man får lavere yelse til høyere pris med AMD, samtidig som at de trekker mer strøm. Å låse seg til AMD er uansett dumt, for man vet ikke om de kommer til å ha bra skjermkort neste gang man skal oppgradere skjermkortet. Å låse seg til Nvidia er litt tryggere. 2 Lenke til kommentar
Malvado Skrevet 21. mai 2018 Del Skrevet 21. mai 2018 (endret) For de som har litt "slappe" lommeboker kan det være at Freesync og Amd med litt billigere alternativer til "langt lavere" ytelse kan være et alternativ.Man får lavere yelse til høyere pris med AMD, samtidig som at de trekker mer strøm. Å låse seg til AMD er uansett dumt, for man vet ikke om de kommer til å ha bra skjermkort neste gang man skal oppgradere skjermkortet. Å låse seg til Nvidia er litt tryggere. Der tror jeg du må nesten sammenligne produkt for produkt, generelt er kortene til Amd under 580 serien ( 570 og nedover ) ofte billigere enn Nvidia sine tilsvarende og yter noe bedre. Når det gjelder strømforbruk er det ikke den store forskjellen på denne type kort, det blir langt verre når man ser på 580 kontra 1060 der man ser helt grusomme 30 Watt mer strømforbruk på Amd sitt skjermkort, noe som får alvorlige konsekvenser for lommeboka til den som kjøper kortet på kort tid. Edit : Her litt fra Toms : https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html 1060 til 539 kontra 580 til 359.99 RX 570 til 239$. Osv. Endret 21. mai 2018 av Malvado Lenke til kommentar
RRhoads Skrevet 21. mai 2018 Del Skrevet 21. mai 2018 (endret) For de som har litt "slappe" lommeboker kan det være at Freesync og Amd med litt billigere alternativer til "langt lavere" ytelse kan være et alternativ.Man får lavere yelse til høyere pris med AMD, samtidig som at de trekker mer strøm. Å låse seg til AMD er uansett dumt, for man vet ikke om de kommer til å ha bra skjermkort neste gang man skal oppgradere skjermkortet. Å låse seg til Nvidia er litt tryggere. Der tror jeg du må nesten sammenligne produkt for produkt, generelt er kortene til Amd under 580 serien ( 570 og nedover ) ofte billigere enn Nvidia sine tilsvarende og yter noe bedre. Når det gjelder strømforbruk er det ikke den store forskjellen på denne type kort, det blir langt verre når man ser på 580 kontra 1060 der man ser helt grusomme 30 Watt mer strømforbruk på Amd sitt skjermkort, noe som får alvorlige konsekvenser for lommeboka til den som kjøper kortet på kort tid. Edit : Her litt fra Toms : https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html 1060 til 539 kontra 580 til 359.99 RX 570 til 239$. Osv. Er ikke dette en tråd om 4k-skjermer? Hjelper ikke mye med 570 eller 580 da? Endret 21. mai 2018 av RRhoads 1 Lenke til kommentar
Malvado Skrevet 21. mai 2018 Del Skrevet 21. mai 2018 For de som har litt "slappe" lommeboker kan det være at Freesync og Amd med litt billigere alternativer til "langt lavere" ytelse kan være et alternativ.Man får lavere yelse til høyere pris med AMD, samtidig som at de trekker mer strøm. Å låse seg til AMD er uansett dumt, for man vet ikke om de kommer til å ha bra skjermkort neste gang man skal oppgradere skjermkortet. Å låse seg til Nvidia er litt tryggere. Der tror jeg du må nesten sammenligne produkt for produkt, generelt er kortene til Amd under 580 serien ( 570 og nedover ) ofte billigere enn Nvidia sine tilsvarende og yter noe bedre. Når det gjelder strømforbruk er det ikke den store forskjellen på denne type kort, det blir langt verre når man ser på 580 kontra 1060 der man ser helt grusomme 30 Watt mer strømforbruk på Amd sitt skjermkort, noe som får alvorlige konsekvenser for lommeboka til den som kjøper kortet på kort tid. Edit : Her litt fra Toms : https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html 1060 til 539 kontra 580 til 359.99 RX 570 til 239$. Osv. Er ikke dette en tråd om 4k-skjermer? Hjelper ikke mye med 570 eller 580 da? Nei... Det er en tråd om nyhetene til Nvidia og deres kommende skjermkort i 11xx klassen. At jeg påpeker Amd har kun kort i det lavere siktet som vil henge langt etter ytelsemessig, men derimot trolig til en lav pris bør da være innenfor. 1 Lenke til kommentar
RRhoads Skrevet 21. mai 2018 Del Skrevet 21. mai 2018 (endret) Nei... Det er en tråd om nyhetene til Nvidia og deres kommende skjermkort i 11xx klassen. At jeg påpeker Amd har kun kort i det lavere siktet som vil henge langt etter ytelsemessig, men derimot trolig til en lav pris bør da være innenfor. Ok. Ikke mening å kverulere Jeg tenkte feil, ettersom at de nye skjermkortene til Nvidia kommer til å bli litt overkill for 1080p. Men klart, kjører man 1080p, og ser for seg at man kommer til å gjøre det en stund(dvs. man skal kjøpe ny skjerm med Gsync eller Freesync nå), så er det økonomisk å gå for AMD. Skjerm er jo ikke den delen man bytter så ofte. I hvert fall gjør ikke jeg det. Endret 21. mai 2018 av RRhoads Lenke til kommentar
Serpentbane Skrevet 21. mai 2018 Del Skrevet 21. mai 2018 Når jeg begynte å spille på pc var det en veldig utvikling på spillfronten, spesielt når 3D kortene begynte å dukke opp. Hver gang jeg kjøpte et nytt spill måtte jeg også oppgradere maskinen, for å overdrive ørlitegrann. Spilling var da også for entusiasten, gameren. Nå er det nærmest stillstans i utviklingen, fokuset er at spill skal kjøre på maskiner fra midten av nittitallet, og det er svært lite grensesprenging. Fordelen er naturligvis at man ikke behøver kjøpe nytt utstyr så ofte, men jeg synes det har blitt umåtelig lite spennende og se på den tekniske utviklingen. Lenke til kommentar
G Skrevet 21. mai 2018 Del Skrevet 21. mai 2018 Oi, helsikke. Har det gått 2 år allerede? Har ventet lenge på gjerdet med nyinvestering i kraftig maskinvare jeg da Lenke til kommentar
G Skrevet 21. mai 2018 Del Skrevet 21. mai 2018 (endret) På tide å lære seg prosentregning? 63 prosent raskere enn GDDR5X-minnet som benyttes i dagens GTX 1080 og GTX 1080 Ti-kort. Skal du ha en dobling, så må du uttrykke det som 200 % raskere. Sånn du skrev det med 63 % raskere, så går det tregere enn nåværende, altså en redusert hastighet. Endret 21. mai 2018 av G Lenke til kommentar
Vegard O Skrevet 21. mai 2018 Del Skrevet 21. mai 2018 (endret) Nei. 200% raskere = tre ganger raskere. 63% raskere er helt riktig formulert. Ikke at dette har noe med tråden å gjøre. Endret 21. mai 2018 av Vegard O 7 Lenke til kommentar
RRhoads Skrevet 21. mai 2018 Del Skrevet 21. mai 2018 På tide å lære seg prosentregning? 63 prosent raskere enn GDDR5X-minnet som benyttes i dagens GTX 1080 og GTX 1080 Ti-kort. Skal du ha en dobling, så må du uttrykke det som 200 % raskere. Sånn du skrev det med 63 % raskere, så går det tregere enn nåværende, altså en redusert hastighet. Du tenker litt feil. Hvis han hadde skrevet 63% av hastigheten ville det betydd tregere, og 200% av hastigheten ville betydd dobbelt så raskt. 1 Lenke til kommentar
Lilac1 Skrevet 21. mai 2018 Del Skrevet 21. mai 2018 På tide å lære seg prosentregning? 63 prosent raskere enn GDDR5X-minnet som benyttes i dagens GTX 1080 og GTX 1080 Ti-kort. Skal du ha en dobling, så må du uttrykke det som 200 % raskere. Sånn du skrev det med 63 % raskere, så går det tregere enn nåværende, altså en redusert hastighet. Og nok en gang viser det seg at påståelighet ikke trumfer intelligens. 2 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå