Dudz0r Skrevet 9. mai 2016 Del Skrevet 9. mai 2016 Dobbel ytelse pga singelpass rendering på hele VR bildet istedetfor sekvensiell. Dette har vært foreslått lenge, helt på PR kanten Lenke til kommentar
bshagen Skrevet 9. mai 2016 Del Skrevet 9. mai 2016 Må innrømme jeg synes det er rart ingen har påpekt at GTX1080 kommer med DP1.4 enda (var vel bare ventet 1.3?). Nårtid kan vi vente 4K@120Hz monitorene nå? Ellers er det litt rart med spesifikkasjonene. 1080 har 25% flere shadere enn 980, og er boost klokket 42,5% høyere. Potensiell ytelsesforbedring her alene er altså rundt 71% selv uten høyere IPC. Dette bør jo selvfølgelig være nok til å si "raskere enn 980SLI", men det virker på meg som et forsøk på å blåse opp ytelsen (uten at jeg helt skjønner behovet). "Raskere enn 980SLI" betyr jo implisitt: "Raskere enn 100% raskere". Her ser vi at Nvidias egne benchmarks i "The Witcher 3" og "Rise of the tombraider" viser enorm ytelsesforbedring over 980. Men ikke over 100% raskere selvsagt. Også minnebåndbredden er jo nødvendigvis utvidet godt med 320GB/s, men ligger likevel rett under 980TI's 336GB/s, så selv om GPU'en kan potensielt yte en god del bedre enn 980Ti vil jo det kun være så lenge minnebåndbredden ikke setter grensen. Det ser for meg med andre ord ut som en repetisjon av 970 vs 780Ti der 780Ti fremdeles tok hjem seieren i enkelte spill selv om 970 ble roset for å være bedre enn selv 780Ti'en. Det ser altså uansett ikke ut for meg som om det har skjedd mye med IPC ytelsen ettersom ytelsesforbedringen kan sees nesten identisk ut med summen av økt frekvens og høyere shader count. Så uten høyere IPC burde AMD i aller høyeste grad fremdeles være i stand til å levere gode konkurrenter til disse kortene. Slik jeg har tolket det, så vil AMDs fokus være å gjøre VR tilgjengelig for en billigere penge. Om det stemmer vil det kunne si GTX970+ ytelse for rundt GTX960 pris. Absolutt spennende å se hva som kommer fra den leiren nå. Syns også dette var rart det ikke har vært nevnt, det ser også ut som de har hoppet bukk over 1.3, men utifra speccen så ser det ut som det er samme båndbredde det er snakk om? Det baner uansett veien for høyfrekvensskjermer, kanskje får vi 240Hz 1440p? Lurer også på hvordan dette minnet vil klokke i forhold til før, hvis det klokker godt, så kan vi se at GB/s vil kunne overgå det som sitter i 980Ti/Titan X Ikke lenge til hard-launch, denne krympen ser ut til å gjøre underverker for grafikkfronten i år og neste år, samt bedringene på IPC, og det bør kunne gjelde fra begge selskapene - veldig spennede Lenke til kommentar
DJViking Skrevet 9. mai 2016 Del Skrevet 9. mai 2016 (endret) Må innrømme jeg synes det er rart ingen har påpekt at GTX1080 kommer med DP1.4 enda (var vel bare ventet 1.3?). Nårtid kan vi vente 4K@120Hz monitorene nå? - DisplayPort 1.2 Certified, DisplayPort 1.3/1.4 Ready. http://www.geforce.com/hardware/10series/geforce-gtx-1080 Lurer på hva det menes med Ready... Endret 9. mai 2016 av DJViking Lenke til kommentar
Ziff Skrevet 9. mai 2016 Del Skrevet 9. mai 2016 1.4 er uansett bare 1.3 med lossy komprimering. Altså er ikke båndbredden økt, og har man et bilde som er detaljert nok vil man ikke få noe bedre bilde enn med 1.4. Såvidt jeg husker så er ikke 1.3 nok til 4K med HDR og 120hz. Lenke til kommentar
bshagen Skrevet 9. mai 2016 Del Skrevet 9. mai 2016 (endret) 1.4 er uansett bare 1.3 med lossy komprimering. Altså er ikke båndbredden økt, og har man et bilde som er detaljert nok vil man ikke få noe bedre bilde enn med 1.4. Såvidt jeg husker så er ikke 1.3 nok til 4K med HDR og 120hz. Ikke ved 8-bit en gang? Jeg har ikke sett på regnestykket selv, derfor jeg spør EDIT: Sakset ut av artikkelen til iTavisen: SLI og 240 Hz Det bør nevnes at GTX 10180 kommer med en ny SLI-bro, som ikke er kompatibel med andre kort enn de i samme serie. Fordelen er derimot at den nye SLI-broen har dobbelt så høy båndbredde. Dette kan imidlertid omgås med DirectX 12-spill som kan bruke to grafikkort uavhengig av leverandør og SLI/Crossfire. Videre støtter GTX 10-serien DisplayPort 1.3 og HDMI 2.0b, som gir muligheten for HDR-støtte og gjør det mulig for Pascal-GPer å støtte 1080p og 1440p-skjermer på opp til 240 Hz, ultrabrede 1440p-skjermer på 190 Hz og 4K-paneler opp til 120 Hz. Det kan med andre ord komme enda raskere paneler på markedet enn de vi kjenner i dag. Men stusser litt over dette med ny SLI bro, trodde den var det kun for synkronisering, og at det ikke hadde noe med båndbredde å gjøre? Noen med litt insight som har peiling eller kan spekulere på hva de har endret i SLI? Endret 9. mai 2016 av bshagen Lenke til kommentar
TKongen Skrevet 9. mai 2016 Del Skrevet 9. mai 2016 Slik jeg tolker ryktene så slipper AMD TI ytelse for 300 usd, mens 1080 leverer 25% over det for 700 usd? noe som ikke stemmer helt. vi trenger noen benchmarks ASAP..... Det har du helt rett i, det er noe som ikke stemmer her. For det første 1080 koster 600 USD, ikke 700 USD, og AMD har tenkt å satse på mainstream. Altså ikke GTX 1080, men 1070, 1060 og 1050. For Nvidia og AMD er det deres 330 USD kort som selger mest. Altså 970 og R9 390. Det er dette markedet AMD går etter. Toppkortet til Polaris blir nok derfor dyrere enn 300, mest sannsynlig 330 eller høyere. Som jeg skrev tidligere, det er ikke bare AMD som bestemmer prisen her. Av det jeg har sett: http://wccftech.com/amd-polaris-10-polaris-11-launch-event/ Så skal AMD sitt toppkort som de lanserer nå være 110W-130W. 1070 er satt til 150W. Så la oss si at Nvidia og AMD nå stiller likt når det kommer til fps/W, noe som er fult mulig. Hvordan skal et kort med 130W slå et 150W kort i ytelse? Spesielt når Nvidia med 150W TDP kommer til å bruker i overkant av 220-230W i gjennomsnitt. AMD sine tall pleier derimot å være uten boost. Ekstremt urealistisk at AMD sine kort er så ekstremt gode. Om de er gode i forhold til 980 ti kan godt være, men det er irrelevant. De må være gode i forhold til 1070. Lenke til kommentar
-=HellBound=- Skrevet 9. mai 2016 Del Skrevet 9. mai 2016 Jeg lukker ikke øynene for noe, jeg sier jeg ikke har sett noe bevis for påstandene dine. Du viser her benchmarks der 7970 havner over 680 i de fleste tilfeller. I noen tilfeller med mye. 7970 var jo alltid bedre enn 680. Så ytelsen er forskjellig fra 2012 benchmarks. Det er ikke bevis for at Nvidia ikke bryr seg om gamle kort. Det kan like godt bety at AMD har hatt dårlig utnyttelse av sine kort. Noe som egentlig er litt klart av deres rebrand strategi. Det å fikse på de gamle kortene har gjort at de har klart å holde følge. Så hvis du ser tilbake til 2012 og du skulle kjøpe et toppkort som du skal ha i 4 år, så burde du ha kjøpt 7970, men om du skulle ha mest ytelse for pengene, burde du ikke kjøpt 7970 uansett? Det hjelper og lite i dag å vite det nå. 7970 selges ikke lengre, eller jo vent, det gjør det jo faktisk.... navnet er bare nytt. Se på sitatet over. Nvidia støtter fortsatt eldgamle grafikkort med nye drivere, mens AMD kort fra samme tid ikke har blitt oppdatert på 3 år. Ta din Vulkan som du mener er så AMD. Hvor er støtten i Linux for gamle AMD kort? 7000-serien er ikke støttet, men Nvidia støtter sin 600-serie. https://en.wikipedia.org/wiki/Vulkan_(API) AMD sine drivere for Windows virker å ha blitt veldig gode nå, og klarer å utnytte AMD kortene skikkelig, som Nvidia alltid har gjort. Likevel, Nvidia støtter fortsatt kort lengst, støtter mest mulig forskjellige ting, er best på Linux osv. AMD har ikke sjanse der. Det at DX12 har samme prinsipp som Mantle betyr ikke at DX12 har noe med Mantle å gjøre. Derimot kan det bety at AMD har sett på prinsippene for DX12 og laget Mantle etter det. Hjelper AMD lite at de har gitt fra Mantle til de som lagde Vulkan. Vulkan er Vulkan, det er ikke Mantle. AMD hadde ingen fordel når det gjaldt drivere der. De sparte Khronos group muligens noe tid, men det betyr ikke at AMD tjente noe på det. Mantle var jo uansett ubrukelig på det tidspunktet. Ellers viser dine egne benchmarks at påstanden om 390X er feil. Den er og totalt irrelevant. Hvis du bare har lyst å få frem at AMD er bedre enn Nvidia, som er klart med å ta med slik irrelevant informasjon som det, som og er feil med eget bevis, så ser jeg ingen grunn til å fortsette denne diskusjonen. Hva er det du trenger bevis for? Det har da vel kjent veldig lenge. At ikke du har fått det med deg bryr meg ikke. Virker som du har vanskligheter med å gi credit til amd for ting de har gjort. Har aldri sakt at amd har noen fordeler i vulkan. Men at det er bygd på mye fra mantle. At du kommer med at Mantle er tatt fra DX12 forklarer jo egentlig bare ditt lavmål. Du kommer med mange usannheter uten "bevis". Mantle ble laget i samarbeid med Johan Andersson fra DICE. Ser meg ferdig med å diskutere med slik en kverulant som deg. Lenke til kommentar
Gabri3L Skrevet 9. mai 2016 Del Skrevet 9. mai 2016 (endret) 1.4 er uansett bare 1.3 med lossy komprimering. Altså er ikke båndbredden økt, og har man et bilde som er detaljert nok vil man ikke få noe bedre bilde enn med 1.4. Såvidt jeg husker så er ikke 1.3 nok til 4K med HDR og 120hz. Jeg trodde komprimeringen var lossless. Det er ihvertfall slik jeg leser det fra Wikipedia: DisplayPort version 1.4 was published March 1, 2016.[20] No new transmission modes are defined, so HBR3 (32.4 Gbit/s) as introduced in version 1.3 still remains as the highest available mode. DisplayPort 1.4 adds support for Display Stream Compression 1.2 (DSC), Forward Error Correction, HDR extension defined in CTA-861.3, the Rec. 2020 color space, and extends the maximum number of inline audio channels to 32.[21] DSC is a "visually lossless" encoding technique with up to 3:1 compression ratio.[20] Using DSC with HBR3 transmission rates, DisplayPort 1.4 can support 8K UHD (7680×4320) at 60 Hz with 10-bit color and HDR, or 4K UHD (3840×2160) at 120 Hz with 10-bit color and HDR. 4K at 60 Hz with 10-bit color and HDR can be achieved without the need for DSC. On displays which do not support DSC, the maximum limits are unchanged from DisplayPort 1.3 (4K 120 Hz, 5K 60 Hz, 8K 30 Hz).[22] Og fra VESA selv: DSC version 1.2 transport enables up to 3:1 compression ratio and has been deemed, through VESA membership testing, to be visually lossless. Endret 9. mai 2016 av Gabri3L Lenke til kommentar
nessuno Skrevet 10. mai 2016 Del Skrevet 10. mai 2016 holde en presentasjon i en skinnjakke... såpass Lenke til kommentar
Ziff Skrevet 10. mai 2016 Del Skrevet 10. mai 2016 1.4 er uansett bare 1.3 med lossy komprimering. Altså er ikke båndbredden økt, og har man et bilde som er detaljert nok vil man ikke få noe bedre bilde enn med 1.4. Såvidt jeg husker så er ikke 1.3 nok til 4K med HDR og 120hz. Jeg trodde komprimeringen var lossless. Det er ihvertfall slik jeg leser det fra Wikipedia: DisplayPort version 1.4 was published March 1, 2016.[20] No new transmission modes are defined, so HBR3 (32.4 Gbit/s) as introduced in version 1.3 still remains as the highest available mode. DisplayPort 1.4 adds support for Display Stream Compression 1.2 (DSC), Forward Error Correction, HDR extension defined in CTA-861.3, the Rec. 2020 color space, and extends the maximum number of inline audio channels to 32.[21] DSC is a "visually lossless" encoding technique with up to 3:1 compression ratio.[20] Using DSC with HBR3 transmission rates, DisplayPort 1.4 can support 8K UHD (7680×4320) at 60 Hz with 10-bit color and HDR, or 4K UHD (3840×2160) at 120 Hz with 10-bit color and HDR. 4K at 60 Hz with 10-bit color and HDR can be achieved without the need for DSC. On displays which do not support DSC, the maximum limits are unchanged from DisplayPort 1.3 (4K 120 Hz, 5K 60 Hz, 8K 30 Hz).[22] Og fra VESA selv: DSC version 1.2 transport enables up to 3:1 compression ratio and has been deemed, through VESA membership testing, to be visually lossless. Nei, den er dessverre lossy, det der er bare marketing BS. Båndbredden er ikke økt fra 1.3. Altså risikerer man at hvis man har en "vanskelig" bildestrøm så vil den ikke klare komprimeringen, og vil redusere bildekvaliteten merkbart. Det krever også prosessering ved komprimering som vil gi økt forsinkelse av signalet. Lenke til kommentar
IndirectCell Skrevet 10. mai 2016 Del Skrevet 10. mai 2016 Relative gameing performance 1 - 5 hva er det... var litt vauge. Hadde vært bedre å skrive med noen benchmarks og eller spill i test, som kan sammenlignes.. ellers kunne dem jo like godt skrevet 1-9999.. 1 Lenke til kommentar
Gabri3L Skrevet 10. mai 2016 Del Skrevet 10. mai 2016 Relative gameing performance 1 - 5 hva er det... var litt vauge. Hadde vært bedre å skrive med noen benchmarks og eller spill i test, som kan sammenlignes.. ellers kunne dem jo like godt skrevet 1-9999.. Vel, de har jo oppgitt 2 spill med ca. verdi. Lenke til kommentar
DJViking Skrevet 10. mai 2016 Del Skrevet 10. mai 2016 1.4 er uansett bare 1.3 med lossy komprimering. Altså er ikke båndbredden økt, og har man et bilde som er detaljert nok vil man ikke få noe bedre bilde enn med 1.4. Såvidt jeg husker så er ikke 1.3 nok til 4K med HDR og 120hz. Jeg trodde komprimeringen var lossless. Det er ihvertfall slik jeg leser det fra Wikipedia: DisplayPort version 1.4 was published March 1, 2016.[20] No new transmission modes are defined, so HBR3 (32.4 Gbit/s) as introduced in version 1.3 still remains as the highest available mode. DisplayPort 1.4 adds support for Display Stream Compression 1.2 (DSC), Forward Error Correction, HDR extension defined in CTA-861.3, the Rec. 2020 color space, and extends the maximum number of inline audio channels to 32.[21] DSC is a "visually lossless" encoding technique with up to 3:1 compression ratio.[20] Using DSC with HBR3 transmission rates, DisplayPort 1.4 can support 8K UHD (7680×4320) at 60 Hz with 10-bit color and HDR, or 4K UHD (3840×2160) at 120 Hz with 10-bit color and HDR. 4K at 60 Hz with 10-bit color and HDR can be achieved without the need for DSC. On displays which do not support DSC, the maximum limits are unchanged from DisplayPort 1.3 (4K 120 Hz, 5K 60 Hz, 8K 30 Hz).[22] Og fra VESA selv: DSC version 1.2 transport enables up to 3:1 compression ratio and has been deemed, through VESA membership testing, to be visually lossless. Nei, den er dessverre lossy, det der er bare marketing BS. Båndbredden er ikke økt fra 1.3. Altså risikerer man at hvis man har en "vanskelig" bildestrøm så vil den ikke klare komprimeringen, og vil redusere bildekvaliteten merkbart. Det krever også prosessering ved komprimering som vil gi økt forsinkelse av signalet. Hva er da vitsen med DP1.4. Virker som de har tatt snarveier for å kunne bruke UHD@120Hz. Lenke til kommentar
Gabri3L Skrevet 10. mai 2016 Del Skrevet 10. mai 2016 Nei, 4K@120Hz går fint med DP1.3 uten tap i billedkvalitet. Men 8K krever jo 4 ganger så stor båndbredde, så i stedet går de ned til 60Hz, og med komprimering klarer de da 8K@60Hz, men i følge Ziff da med betydelig tap av billedkvalitet. Lenke til kommentar
TKongen Skrevet 10. mai 2016 Del Skrevet 10. mai 2016 Se på Twitch/YouTube og lignende. Komprimering må ikke bety stort tap av bildekvalitet, men det kan. Eksempelvis om du ser noe med masse lys på scenen som blinker og skifter posisjon. Eller regn i et spill. Det blir klart tap, og med youtube og twitch blir det fort veldig firkanta. Har du vanlig belysning på scenen, eller spiller spillet i sollys derimot, vil du ikke se forskjell. Lenke til kommentar
maanemann Skrevet 11. mai 2016 Del Skrevet 11. mai 2016 holde en presentasjon i en skinnjakke... såpass Hehe, tenkte det samme selv. Viktig å se kul ut på scenen. Han svettet overraskende lite også. Skinnjakke har vel kanskje også en fordel ift skjorter. Sistnevnte røper ofte ekstra kilo på oss IT-folk på en tydelig måte. Lenke til kommentar
G Skrevet 11. mai 2016 Del Skrevet 11. mai 2016 (endret) Jeg venter heller til AMD kommer ut med sine grafikk kortene. Jeg trur nok de er kraftigere og har i tillegg bedre drivere en Nivida. Men, vil det hjelpe særlig på hylleprisene av nVidia-produkter, når AMD har fått lansert sine modeller? Endret 11. mai 2016 av G Lenke til kommentar
G Skrevet 11. mai 2016 Del Skrevet 11. mai 2016 Det viser seg gang på gang at de som favoriserer AMD jevnt over har mindre erfaring med PC. Jeg har bygd PC-er i 15 år og prøvd mye forskjellig. Noen ganger har ATI vært best, men de siste årene har det vært ganske klart hva som har fungert best. Søt, men litt Miss Piggy-aktig på det fotoet Jeg synes det at AMD var nødt å vente til etter at Pascal var lansert, at det forteller veldig mye om hvor dårlig det står til. Men, vi ønsker alle konkurranse. Men om nVidia ikke overpriser kortene i for lang tid, så tror jeg at jeg skal gå for nVidia. Synes det er litt stusselig med Intel Core2 Duo, så den er midlertidig parkert nå når jeg benytter en enda verre nyere bærbar greie (med unntak av grafikk da som er ræve på den bærbare, for jeg har et godt men veldig aldrende GeForce-kort som surret sammen med den Core2'en). Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå