Smedsrud Skrevet 4. september 2017 Del Skrevet 4. september 2017 Når kommer den, får den HBM2 og hva vil GTX-serien hete?Dette vet vi om GTX 10-etterfølgeren Volta Lenke til kommentar
Bufe Skrevet 4. september 2017 Del Skrevet 4. september 2017 "Første generasjon GDDR6-minne kan nå hastigheter på inntil 16 Gb/s, nøyaktig dobbelt så raskt som hva det ni år gamle GDDR5-minnet kan vise til." 16GB/s????...skrivefeil?...skjermbildet fra STAND ovenfor proklamerer med 900GB/s for HBM2 minne i Tesla v100???? Virker da veldig lite i forhold til hverandre? Lenke til kommentar
Greddi Skrevet 4. september 2017 Del Skrevet 4. september 2017 GTX 20-serie? hvorfor ikke GTX11-serie? 3 Lenke til kommentar
HKS Skrevet 4. september 2017 Del Skrevet 4. september 2017 (endret) "Første generasjon GDDR6-minne kan nå hastigheter på inntil 16 Gb/s, nøyaktig dobbelt så raskt som hva det ni år gamle GDDR5-minnet kan vise til." 16GB/s????...skrivefeil?...skjermbildet fra STAND ovenfor proklamerer med 900GB/s for HBM2 minne i Tesla v100???? Virker da veldig lite i forhold til hverandre? De mener 16Gbps per I/O pin på en minnebrikke. Med 16Gbps GDDR6 minne vil en potensiell GV104 med 256-bit GDDR6 få en teoretisk båndbredde på 512 GB/s. Til sammenligning har dagens GTX 1080 (11Gbps GDDR5X) en teoretisk båndbredde på 352 GB/s (uten klokking). HBM2 har en mye lavere hastighet per pin, men har mye bredere busser. Vega 10 har 2056-bit minnebus, GP100 og GV100 har 4096-bit minnebus. HBM2 får du i dag med mellom 1,6 Gbps og 2,0 Gbps per pin. Endret 4. september 2017 av HKS 1 Lenke til kommentar
Behemian Skrevet 4. september 2017 Del Skrevet 4. september 2017 (endret) Hvis 2080 og 2080Ti blir de eneste kortene med HBM2 minne, mens 2050, 2060 og 2070 kortene får GDDR5X minne. Vel.. da blir det mitt første AMD-baserte skjermkort på mange år ved neste kjøp.Jeg syns mitt 1070 bruker i grenseland mye strøm slik som det er nå. Så jeg vil heller se mindre strømforbruk neste serie.Hvem bryr seg vel om at et skjermkort har 30Gb minne, hvis det krever dobbelt effekt for å fungere? De fleste "vanlige" dødelige, som har et 1080 pr dags dato, vil nok strengt talt ikke trenge et nytt kort på minst 2 år. Så det er kortene skal bli kraftigere og kraftigere er heller irrelevant.Større effektforbruk er veldig gammeldags, og utviklerne av komponenter burde legge det fra seg.- BEdit: Skriveleif. Endret 4. september 2017 av Behemian Lenke til kommentar
HKS Skrevet 4. september 2017 Del Skrevet 4. september 2017 Hvis 2080 og 2080Ti blir de eneste kortene med HBM2 minne, mens 2050, 2060 og 2070 kortene får GDDR5X minne. Vel.. da blir det mitt første AMD-baserte skjermkort på mange år ved neste kjøp. Jeg syns mitt 1070 bruker i grenseland mye strøm slik som det er nå. Så jeg vil heller se mindre strømforbruk neste serie. Vil tippe på GDDR6 minne, HBM2 er for dyrt i forhold til hva man får igjen.Eneste AMD-baserte skjermkort som yter bedre enn 1070 bruker over 100W mer strøm enn 1070. Lenke til kommentar
Malvado Skrevet 4. september 2017 Del Skrevet 4. september 2017 Hvis 2080 og 2080Ti blir de eneste kortene med HBM2 minne, mens 2050, 2060 og 2070 kortene får GDDR5X minne. Vel.. da blir det mitt første AMD-baserte skjermkort på mange år ved neste kjøp. Jeg syns mitt 1070 bruker i grenseland mye strøm slik som det er nå. Så jeg vil heller se mindre strømforbruk neste serie. Vil tippe på GDDR6 minne, HBM2 er for dyrt i forhold til hva man får igjen.Eneste AMD-baserte skjermkort som yter bedre enn 1070 bruker over 100W mer strøm enn 1070. Nei, det stemmer ikke : http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-6.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-7.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-8.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-10.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-12.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-13.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-14.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-15.html Selv om jeg her har valgt å vise hvor Amd er bedre enn 1070 med Vega 56 så er det en god del titler. Strømforbruket til Vega 56 : Starter på 156 Watt og går opp til 220W avhengig av modus. http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-21.html Så en forskjell på 6Watt til 70 watt på det høyeste, sammenheng også med ytelsemodus. Lenke til kommentar
HKS Skrevet 4. september 2017 Del Skrevet 4. september 2017 100W var nok å runde det opp, men bruker markant mer strøm. Man kan selvsagt plukke tall, undervolte, etc. for begge kort, men ser man på snittverdien så snakker vi 84W delta. https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_56/29.html Ser man på performance per watt så er GTX 1070 (som Behemian allerede har) i en helt annen klasse enn Vega 56, så eier man et 1070 og er allerede bekymret for strømforbruket så kan man per dags dato på ingen som helst måte anbefale et Vega-kort. https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_56/32.html Lenke til kommentar
G Skrevet 4. september 2017 Del Skrevet 4. september 2017 Hva slags kort må man ha for å kjøre 8K-oppløsning? Lenke til kommentar
thomassit0 Skrevet 4. september 2017 Del Skrevet 4. september 2017 Av det som er tilgjengelig i dag så må man nok ha 2-3 1080 eller 1080 Ti for å drive spill i 8K i 30+ fps tror jeg. Lenke til kommentar
bshagen Skrevet 4. september 2017 Del Skrevet 4. september 2017 (endret) Eller mer. 8K er fire ganger så stort som 4K, og enda det er vanskelig å få til å gå bra i 60fps enda, om man drar opp grafikken litt. SLI er ikke der enda, og ikke CF heller. Tror nok vi kan bare drømme om 8K inntil 4K enda er en ordentlig realitet (med det så mener jeg 4K, 120Hz+, "2080Ti" eller Navi SLI/CF osv osv) Men fremtiden er vakker. Om ikke Trump får twitra fra seg noen atombomber innen den tid Endret 4. september 2017 av bshagen 1 Lenke til kommentar
Teodor1979 Skrevet 5. september 2017 Del Skrevet 5. september 2017 Hva slags kort må man ha for å kjøre 8K-oppløsning? Får man tak i 8K monitor? Lenke til kommentar
G Skrevet 5. september 2017 Del Skrevet 5. september 2017 (endret) Nja, men Sharp har jo TV-en klar kan det se ut til. Med 4 HDMI-porter, men det skal visst holde med en HDMI-port/HDMI-kabel på HDMI 2.1 for 60 Hz 8K (alternativ 120 Hz 4K), eller hva det stod skrevet i Tek.no-artikkelen: https://www.tek.no/artikler/na-skal-8k-skjermene-til-europa/404995 Obs! siterer bare artikkel, så kan være litt rykteaktig info. Altså om TV-en takler 60 Hz 8K, eller om det kun er HDMI 2.1 som skal forstås å takle det, men at regnekraften i TV-en kanskje henger noe bak denne ytelsen? Her er det et stort spørsmål selvsagt. Endret 5. september 2017 av G Lenke til kommentar
Malvado Skrevet 5. september 2017 Del Skrevet 5. september 2017 100W var nok å runde det opp, men bruker markant mer strøm. Man kan selvsagt plukke tall, undervolte, etc. for begge kort, men ser man på snittverdien så snakker vi 84W delta. https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_56/29.html Ser man på performance per watt så er GTX 1070 (som Behemian allerede har) i en helt annen klasse enn Vega 56, så eier man et 1070 og er allerede bekymret for strømforbruket så kan man per dags dato på ingen som helst måte anbefale et Vega-kort. https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_56/32.html Nei, det er ikke noe tvil om at Vega trekker mye strøm, spørsmålet er om vi noensinne kommer til å se hele arkitekturens potensiale eller om det blir kun på papiret. Men det er viktig å skille mellom Vega 56 og 64, Vega 56 har faktisk et strømforbruk som er bedre enn de forrige generasjonene med skjermkort (sett i transistorer og watt ) og mens et 7970 trekker hele 196-200 Watt for 1 / 3 del av antall transistorer som Vega 56 har så ser vi at Vega trekker en plass mellom 158 til 220 Watt noe som ikke er urovekkende høyt om man ser på ytelsen opp mot 1070 og 1080 ( Vega 56 vinner noen svært få titler , hovedsakelig i DX12 mot 1080 ) , selv ved å justere ned strømforbruket til omtrent 156 /160 watt ser man at Vega 56 kortet fortsatt greier å yte omtrent like bra som 1070 ( eller bedre ). For Nvidia vil derfor å ta i bruk en bedre produksjonsprossess samt få på plass HBM minne bety en betydelig besparelse på strømforbruket, med riktig teknologi skal det også gå an å få økte ytelsen mer enn det Vega sin HBM2 gir så det er trolig ikke en dårlig investering på lengre sikt. HBM byr jo også på besparelser når det gjelder størrelsen på pcb'en om dette implementeres riktig noe som alle som produserer skjermkort har godt av. Uansett blir det spennende å se hva Nvidia kommer til å satse på og hvordan utviklingen av skjermkortene vil endre seg de kommende årene. Lenke til kommentar
Knutgrus Skrevet 5. september 2017 Del Skrevet 5. september 2017 Hva slags kort må man ha for å kjøre 8K-oppløsning? Vega 64 og Titan Xp. Samt noen andre dyre kort. https://videocardz.com/72331/amd-radeon-rx-vega-64-tested-at-8k-resolution Etter innkjøp er det bare å blåse i vei med minesveiper. (så det kommer an på hva du vil spille og detaljnivå. Det jeg mente å si var at det er ikke mange kortene som støtter oppløsningen ) Lenke til kommentar
Tekking Skrevet 5. september 2017 Del Skrevet 5. september 2017 Hvorfor ikke noe snakk om MCM? Lenke til kommentar
Doge Skrevet 5. september 2017 Del Skrevet 5. september 2017 Hva slags kort må man ha for å kjøre 8K-oppløsning?Får man tak i 8K monitor? Man kan bestille ihvertfall https://www.proshop.no/Skjerm/Dell-32-Skjerm-UltraSharp-UP3218K-Svart-6-ms-/2598054?utm_source=prisjakt&utm_medium=cpc&utm_campaign=pricesite 1 Lenke til kommentar
bshagen Skrevet 5. september 2017 Del Skrevet 5. september 2017 Synd at AMD ikke kom med noe hakket bedre med Vega, de praktisk talt gir dette til Nvidia. Nvidia bare dropper prisene sine bittelitt og kortene selger like godt. Dette er også i en periode hvor kortene til Nvidia har vært lenge på samlebåndet, og antagelig billige å produsere pga høyere yields kontra for 18mnd siden, og det har sikkert fortsatt svært god avanse på hvert kort enda de dropper prisene sine markant, mens AMD går omtrent i null (kanskje minus?) Lenke til kommentar
boundishh Skrevet 8. desember 2017 Del Skrevet 8. desember 2017 Hvis 2080 og 2080Ti blir de eneste kortene med HBM2 minne, mens 2050, 2060 og 2070 kortene får GDDR5X minne. Vel.. da blir det mitt første AMD-baserte skjermkort på mange år ved neste kjøp. Jeg syns mitt 1070 bruker i grenseland mye strøm slik som det er nå. Så jeg vil heller se mindre strømforbruk neste serie. Vil tippe på GDDR6 minne, HBM2 er for dyrt i forhold til hva man får igjen.Eneste AMD-baserte skjermkort som yter bedre enn 1070 bruker over 100W mer strøm enn 1070. Nei, det stemmer ikke : http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-6.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-7.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-8.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-10.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-12.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-13.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-14.html http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-15.html Selv om jeg her har valgt å vise hvor Amd er bedre enn 1070 med Vega 56 så er det en god del titler. Strømforbruket til Vega 56 : Starter på 156 Watt og går opp til 220W avhengig av modus. http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-21.html Så en forskjell på 6Watt til 70 watt på det høyeste, sammenheng også med ytelsemodus. Er det varmeutvikling du er bekymret for mtp høyt strømforbruk? For hvis ikke du spiller døgnet rundt viser det neppe mye på strømregningen hvertfall Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå