magnusavr Skrevet 7. juni 2020 Del Skrevet 7. juni 2020 Flere bilder: https://wccftech.com/nvidia-rtx-3080-3d-renders-all-angles/ 2 Lenke til kommentar
Thor. Skrevet 8. juni 2020 Del Skrevet 8. juni 2020 Ny video fra Moore's Law is Dead Lenke til kommentar
Rambo82 Skrevet 8. juni 2020 Del Skrevet 8. juni 2020 Lurer på hva dette vidunderet vil koste 1 Lenke til kommentar
TheKims Skrevet 8. juni 2020 Del Skrevet 8. juni 2020 Så lenge AMD ikke kommer med kort som kan konkurrere med Nvidia, så tror jeg prisen blir omtrent der den er i dag. 1 Lenke til kommentar
Snuggis Skrevet 8. juni 2020 Del Skrevet 8. juni 2020 Hvis vi er heldige, så blir prisen værende omtrent der den er i dag. Skulle AMD komme med noe som kan konkurrere med Nvidia i high end sjiktet, så er begge parter uansett interessert i å tjene penger. 2 Lenke til kommentar
G Skrevet 9. juni 2020 Del Skrevet 9. juni 2020 On 6/7/2020 at 9:50 PM, magnusavr said: Flere bilder: https://wccftech.com/nvidia-rtx-3080-3d-renders-all-angles/ He even was so kind to add som dust in the rendering Lenke til kommentar
G Skrevet 9. juni 2020 Del Skrevet 9. juni 2020 (endret) On 6/8/2020 at 4:27 PM, Thor. said: Ny video fra Moore's Law is Dead Leser 21 Gbps om GDDR6 VRAM. Hva betyr dette i praksis for en 120 Hz 4K-spillopplevelse montro? Siden HDMI 2.1 kabling kreves for den spilleopplevelsen. Og HDMI 2.1 kjører med 45 Gbps, gitt at den 120 Hz 4K utnytter all båndbredde vel og merke. Vil dette da bli et lavmåls grafikkort for denne bruken? F.eks. med et LG CX gaming-TV? Kan en lese det på denne måten at dersom den VRAM'en, så vil aldri GPU kunne pushe raskere enn 21 Gbps, sannsynligvis lavere med litt overhead? Ser det står noe om 1 Terabyte i parantes, og er det ved parallell computing da, eller? Unnskyld, at jeg sikkert høres litt noob ut her. Endret 9. juni 2020 av G Lenke til kommentar
Theo343 Skrevet 10. juni 2020 Del Skrevet 10. juni 2020 Å kalle det RTX3090 fremfor RTX3080Ti blir litt tullete, men men. Lenke til kommentar
Knutgrus Skrevet 10. juni 2020 Del Skrevet 10. juni 2020 Theo343 skrev (1 time siden): Å kalle det RTX3090 fremfor RTX3080Ti blir litt tullete, men men. Det er ikke første gang Nvidia har hatt det folk flest mener er tullete. Men det er jo i tråd med Intel og usb standarden... Lenke til kommentar
leifeinar Skrevet 10. juni 2020 Del Skrevet 10. juni 2020 Sitat Leser 21 Gbps om GDDR6 VRAM. Hadde sett for meg at HBM2 skulle være standard når vi nærmer oss 2021. Lenke til kommentar
Saint Kalopsia Skrevet 10. juni 2020 Del Skrevet 10. juni 2020 (endret) Rambo82 skrev (På 8.6.2020 den 20.26): Lurer på hva dette vidunderet vil koste 15-16 lapper er vel ikke utenkelig Endret 10. juni 2020 av Saint Kalopsia Lenke til kommentar
Nizzen Skrevet 10. juni 2020 Forfatter Del Skrevet 10. juni 2020 7 minutes ago, leifeinar said: Hadde sett for meg at HBM2 skulle være standard når vi nærmer oss 2021. Folk gidder ikkje å betale for det, derfor blir det ikkje standard i år heller. 1 1 Lenke til kommentar
N o r e n g Skrevet 10. juni 2020 Del Skrevet 10. juni 2020 G skrev (23 timer siden): Leser 21 Gbps om GDDR6 VRAM. Hva betyr dette i praksis for en 120 Hz 4K-spillopplevelse montro? Siden HDMI 2.1 kabling kreves for den spilleopplevelsen. Og HDMI 2.1 kjører med 45 Gbps, gitt at den 120 Hz 4K utnytter all båndbredde vel og merke. Vil dette da bli et lavmåls grafikkort for denne bruken? F.eks. med et LG CX gaming-TV? Kan en lese det på denne måten at dersom den VRAM'en, så vil aldri GPU kunne pushe raskere enn 21 Gbps, sannsynligvis lavere med litt overhead? Ser det står noe om 1 Terabyte i parantes, og er det ved parallell computing da, eller? Unnskyld, at jeg sikkert høres litt noob ut her. Du trenger ikke være bekymret 21 Gbps referer til effektiv klokkefrekvens for dataoverføring, og gjelder per bit på minnebussen. Et kort med 256 bit minnebuss vil da få en båndbredde på: 21 GHz * 256 bit = 5376 Gbps (672 GB/s) HDMI 2.1 operer med 45 Gbps, og det for hele kabelen. 2 Lenke til kommentar
G Skrevet 11. juni 2020 Del Skrevet 11. juni 2020 (endret) Quote 320-bit wide memory bus ??? (rykte) 320 bit * 45 Ghz? blir 14400 Gbps (nære analogmodemtallet ) ? blir 1800 GB/s? @N o r e n g Nok rykter nå? Gi oss kortene Quote Rumor: GeForce RTX 3080 would have 4532 Cuda Cores and 10GB of Graphics Memory by Hilbert Hagedoorn on: 06/09/2020 09:13 AM | source: | 76 comment(s) With the recent set of photos leaked the rumor mill has shifted up a notch. New rumors now indicate that the possible specifications of the GeForce RTX 3080 would have 4532 Shader Cores and 10GB of Graphics Memory. The new chatter (and a loose rumor at best) originates from Twitter user @ kopite7kimi, he however predicted several news about Ampere in the past in a correct fashion. First off, 10GB of VRAM based on GDDR6 would indicate a 320-bit wide memory bus, which, possibly together with higher frequency GDDR6 memories, allows for increased bandwidth. Unfortunately, there is no information on their frequencies or GPUs or memories, or on the number of Tensor Cores or RT Cores at this time. The new RT Cores of these graphics cards are rumored to offer far more performance than those of Turing, and they will also have high-performance Tensor Cores, so we will undoubtedly see a strong advance in what Ray-Tracing is and technologies such as DLSS. You will notice that the tweet holds more information regarding the lineup. Also, in other news word is that NVIDIA has launched an investigation on how the previously released photos have made their way online (Foxconn and BYD), as even most NVIDIa staff would not even have seen the new design. Nvidia undoubtedly has an important announcement on the way, likely after the summer. At this time, this is a tweet, and it is just that at best. That's enough disclaimers ok? https://www.guru3d.com/news-story/rumor-geforce-rtx-3080-would-have-4532-cuda-cores-and-10gb-of-graphics-memory.html Endret 11. juni 2020 av G Lenke til kommentar
Thorbjørn_lien Skrevet 11. juni 2020 Del Skrevet 11. juni 2020 Skal bli deilig å endelig bytte ut 980 med eit 3080ti og 4k skjerm 2 Lenke til kommentar
Mumriken Skrevet 11. juni 2020 Del Skrevet 11. juni 2020 Just now, Thorbjørn_lien said: Skal bli deilig å endelig bytte ut 980 med eit 3080ti og 4k skjerm Skal bli rådigg å bytte 2080Ti oc også ? 2 Lenke til kommentar
G Skrevet 11. juni 2020 Del Skrevet 11. juni 2020 (endret) Ikke det at jeg behøver mer enn 8 til 10-bit farger selv. Men det kunne være interessant om det er en standard som begrenser hva de vil ta i bruk på 3080 og 3090-kortene, eller om det kommer til å legge seg enda høyere med disse kraftpluggene av skjermkort? 10-bit pluss HDR på, kommer det til å følge oss i mange år fra når? En snakker vel om 1 milliard farger på 10-bit? Behøver man flere farger? Er det noe større del av fargerommet å hente som blir synlig nok igjen å ta av? Endret 11. juni 2020 av G Lenke til kommentar
MrMarbles Skrevet 11. juni 2020 Del Skrevet 11. juni 2020 G skrev (10 minutter siden): Ikke det at jeg behøver mer enn 8 til 10-bit farger selv. Men det kunne være interessant om det er en standard som begrenser hva de vil ta i bruk på 3080 og 3090-kortene, eller om det kommer til å legge seg enda høyere med disse kraftpluggene av skjermkort? 10-bit pluss HDR på, kommer det til å følge oss i mange år fra når? En snakker vel om 1 milliard farger på 10-bit? Behøver man flere farger? Er det noe større del av fargerommet å hente som blir synlig nok igjen å ta av? Dolby Vision støtter 12bit. Men det er ingen konsument TVer/konsument monitorer som støtter mer enn 10bit (såvidt jeg vet). For å få skikkelig HDR (altså DCI P3 eller REC2020 (som igjen går til 12bit om jeg husker riktig)), så må man ha 10 bit. Men det støtter alle "high end" TVer fra Sony, Panasonic, Samsung og LG uten problem. På monitor fronten så er det litt mer ymse. Noen støtter HDR ved å bruke 8bit + dithering for å kunne skru på 10bit. Skal man være sikker, så er det beste å lese specs og lese/se reviews av monitorene man er interessert i ? Ville bli kjempeoverrasket om 3000-serien til nvidia ikke støttet HDMI 2.1. Uansett, så støtter dagens GPUer allerde HDR og 10bit via HDMI 2.0b, men da bare med 60Hz. Er vel mulig å få til 120Hz med den LG CX du kjøpte deg, men da må man skorte ned på fargene/kjøre chroma subsampling? Dette er mest synlig på desktop og med tekst. Ser man video og spiller spill, så er det nesten ikke synlig ? Lenke til kommentar
Emile the rat Skrevet 11. juni 2020 Del Skrevet 11. juni 2020 (endret) MrMarbles skrev (40 minutter siden): Dolby Vision støtter 12bit. Men det er ingen konsument TVer/konsument monitorer som støtter mer enn 10bit (såvidt jeg vet). For å få skikkelig HDR (altså DCI P3 eller REC2020 (som igjen går til 12bit om jeg husker riktig)), så må man ha 10 bit. Men det støtter alle "high end" TVer fra Sony, Panasonic, Samsung og LG uten problem. På monitor fronten så er det litt mer ymse. Noen støtter HDR ved å bruke 8bit + dithering for å kunne skru på 10bit. Skal man være sikker, så er det beste å lese specs og lese/se reviews av monitorene man er interessert i ? Ville bli kjempeoverrasket om 3000-serien til nvidia ikke støttet HDMI 2.1. Uansett, så støtter dagens GPUer allerde HDR og 10bit via HDMI 2.0b, men da bare med 60Hz. Er vel mulig å få til 120Hz med den LG CX du kjøpte deg, men da må man skorte ned på fargene/kjøre chroma subsampling? Dette er mest synlig på desktop og med tekst. Ser man video og spiller spill, så er det nesten ikke synlig ? Såvidt jeg vet er det ingen av gaming monitorene med skikkelig HDR som har ekte 10-bit. Så skal du ha gaming monitor må du ta til takke med ymse Fantastisk er det, og vi forbrukere biter på og kjøper Endret 11. juni 2020 av Emile the rat Lenke til kommentar
MrMarbles Skrevet 11. juni 2020 Del Skrevet 11. juni 2020 Emile the rat skrev (2 minutter siden): Ingen av gaming monitorene med skikkelig HDR har ekte 10-bit. Så skal du ha gaming monitor må du ta til takke med ymse Fantastisk er det, og vi forbrukere biter på og kjøper Herlig ^^ Har ikke fulgt så nøye med, siden det er få av monitorene som i hele tatt nærmer seg alle features jeg ønsker meg. Frister bare mer og mer med den CX 48" altså. Tror bare den vil bli litt vel stor for desktop-bruk... sitter og gamer C&C Remastered på 32" nå. Det går helt fint. Men, 48"? Eh, ho. Må sikkert gå til med en egen monitor for desktop og TVen for mer casual gaming med gamepad og evt. single player spill som ikke er så kjappe. 1 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå