Koven Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Vel, da får vi vente til 2017 Hvor mye tid trenger nvidia? Hva blir unnskyldningen i 2017?Jeg vet ikke når det kommer sikkelige spill som støtter DX12... Dagens spill som bruker det er iallefall ikke noe å rope hurra for. De fleste spillene er så vidt jeg vet DX11 spill som har slengt på DX12 som en gimmik. Her er Hardware Canucks sin argumentasjon: - De innebygde testene i AoS gir veldig stor variasjon (standardavvik) i resultatene. - Derfor bruker de et annet verktøy (som tilfeldigvis er åpen kildekode) for å måle framerate. Det eneste det sier meg om siden (Hardware Canucks) er at de tilsynelatende er grundige, og faktisk stiller spørsmål med data de får. Jeg mener det er alt for tidlig å trekke noen konklusjoner her, men klarer ikke å se hvorfor dette er negativt for Hardware Canucks. Her angriper jeg AMD, og forsvarer nvidia... Men ender opp med å forsvare AMD Det du gjør slik jeg tolker det er å angripe Hardware Canucks med beskyldninger om at de er en "nvidia-side" siden de kjører AoS benchmarks på en annen måte enn hva andre sider gjør. Jeg glør det om alle de andre sidene tar feil! Lenke til kommentar
HKS Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Det har vært lenge annonsert at de nye i GP-serien skulle inneholde 17 milliarder transistorer. Det er 7,2 som blir angitt nå.Hva er det du mener? GP104 som er i GTX 1080/1070 har 7,2 milliarder transistorer. GP100 som er i Tesla P100 har 15,3 milliarder transistorer. Dette er to vidt forskjellige brikker... Lenke til kommentar
HKS Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Jeg glør det om alle de andre sidene tar feil!Hva er det du mener med feil? Det er ikke nødvendigvis noe feil her... Det er snakk om to forskjellige måter å måle på. Hardware Canucks bruker PresentMon for å måle bilder per sekund (fps). De fleste andre sidene bruker det innebygde verktøyet i AoS. Ingen her feil. Lenke til kommentar
Koven Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Jeg glør det om alle de andre sidene tar feil!Hva er det du mener med feil? Det er ikke nødvendigvis noe feil her... Det er snakk om to forskjellige måter å måle på. Hardware Canucks bruker PresentMon for å måle bilder per sekund (fps). De fleste andre sidene bruker det innebygde verktøyet i AoS. Ingen her feil. Noen må jo ta feil! Støtte, eller ikke støtte! Ytelsen vil jo ikke bli den samme uansett! Lenke til kommentar
olav-siggen Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Har per dags dato ett GTX 980 (MSI). Har lyst til å oppgradere til enten 980-SLI eller et nytt 1080 kort. Ser at man etterhvert kan få tak i et relativt billig 980 kort på FINN (rundt 3000 kr), mens nytt 1080 er koster over det dobbelte. Noen anbefalinger? Er 1080 kort merkbart bedre enn 980 i SLI? Lenke til kommentar
HKS Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Hva er det du mener med feil? Det er ikke nødvendigvis noe feil her... Det er snakk om to forskjellige måter å måle på. Hardware Canucks bruker PresentMon for å måle bilder per sekund (fps). De fleste andre sidene bruker det innebygde verktøyet i AoS. Ingen her feil. Noen må jo ta feil! Støtte, eller ikke støtte! Ytelsen vil jo ikke bli den samme uansett! Det er to forskellige verktøy for å måle ytelse på. Hardware Canucks mener at det innbygde verktøyet i AoS ikke oppfører seg stabilt nok til at de ønsker å bruke det. De bruker derfor PresentMon som er et åpen kildekode verktøy til å logge. Lenke til kommentar
leifeinar Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 GP104 som er i GTX 1080/1070 har 7,2 milliarder transistorer. GP100 som er i Tesla P100 har 15,3 milliarder transistorer. Dette sier vel muligens at GTX 1080 er et mellomklasse kort Lenke til kommentar
HKS Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 GP104 som er i GTX 1080/1070 har 7,2 milliarder transistorer. GP100 som er i Tesla P100 har 15,3 milliarder transistorer. Dette sier vel muligens at GTX 1080 er et mellomklasse kort Tja, man trenger vel ikke være rakettforsker for å forstå at det kommer "raskere" brikker i Pascal-familien. Du har blant annet GP102 som ikke er annonsert og GP100 som en annonsert og i produksjon. GP100 er foreløpig reservert for HPC-bruk (Tesla P100). Gx104 passer tradisjonelt mellom entusiast og mainstream... Gx106 pleier å være mainstream-brikken. Lenke til kommentar
Martin H Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Hvordan utfører dere egentlig benchmarkene? F.eks Witcher 3, hvor i spillet har dere testet? Hadde vært kjekt om dere opplyste om dette, slik at det er mulig å reprodusere situasjonen og sammenlikne med eget oppsett 1 Lenke til kommentar
Koven Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Hva er det du mener med feil? Det er ikke nødvendigvis noe feil her... Det er snakk om to forskjellige måter å måle på. Hardware Canucks bruker PresentMon for å måle bilder per sekund (fps). De fleste andre sidene bruker det innebygde verktøyet i AoS. Ingen her feil. Noen må jo ta feil! Støtte, eller ikke støtte! Ytelsen vil jo ikke bli den samme uansett! Det er to forskellige verktøy for å måle ytelse på. Hardware Canucks mener at det innbygde verktøyet i AoS ikke oppfører seg stabilt nok til at de ønsker å bruke det. De bruker derfor PresentMon som er et åpen kildekode verktøy til å logge. Da har Hardware Canucks svaret på DX12.. La denne diskusjonen bli død, før 2017 viser seg! Lenke til kommentar
C64C Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Dette er 1080 Founders Edition, når kommer de andre utgavene av 1080? Senere? Lenke til kommentar
Christian Thork Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Dette er 1080 Founders Edition, når kommer de andre utgavene av 1080? Senere? I juni engang. 1 Lenke til kommentar
TKongen Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Jeg forstår ikke folk som mener at GTX 1080 har høy pris, eller har dårlig ytelse i forhold til pris. I 4K har det samme ytelse/USD som GTX 970. Selvfølgelig får du ikke den samme ytelsen i forhold til pris som du gjør med billigere kort. Det er tross alt et 80-serie kort. Til den prisen det gis ut med, med tanke på at det er et 80 serie kort, og spesielt med tanke på at det kommer til å ha monopol så lenge, så er det en veldig god pris. Ja, FE koster mye, men det blir useriøst å mene at 1080 koster 7600 kr. Det er jo sånn sett mange som kjøper det for den prisen, men de fleste vil betale langt mindre. Ingen tvinger deg til å kjøpe derfor 7600 kr heller. Det er bare for de som har lyst, penger og kribler etter å få et 1080 i hendene. (Jeg synes ikke det er noe galt med dette altså, jeg synes bare det er kjipt av Nvidia å "straffe" entusiaster, siden de vet mange kommer til å kjøpe uansett). Ellers har jeg her en artikkel som sier at GTX 1070 skal slå titan, som noen lurte på tidligere her: http://www.techspot.com/news/64871-nvidia-releases-geforce-gtx-1070-specifications.html Med ordleggingen her så vil jeg tippe at kortet legger seg på ca 980 Ti/titan X nivå i ytelse, for 380 USD. Jeg forstår ikke hvorfor folk sier en må vente på hva AMD kommer med. De har plan for Vega i 2017. Når ble det noen gang lurt å vente på noe som skal komme ut så langt i fremtiden innenfor teknologi? Hvis du skal ha et kjapt kort som GTX 1080 i nærmeste fremtid og er prisbevist er det bare en ting å gjøre. Vent på 3. part kortene av GTX 1080. Hvis du venter på AMD kortene så trenger du enten ikke ny GPU, eller du har egentlig ikke lyst på ny GPU. 1070 blir mer interessant. Ryktene iser jo at AMD kommer til å ta 300 USD for sitt dyreste kort. Samtidig som de sier det skal yte litt over R9 390X. Så blir spørsmålet om 1070 har nok ytelse til å forsvare 70 USD høyere pris i så fall. Det er jo der den skikkelige konkurransen kommer til å komme. Hvis du og er ute etter budsjettkort så har jo ikke Nvidia noen kort der lengre. Blir vel litt over 4000 kr for GTX 1070. Samtidig havner AMD i overkant av 3000 kr i så fall. Rundt en 800 kr forskjell? Sweetspot har jo vært rundt R9 390/GTX 970, og 960/380 har solgt flere enn 980/390X. Så når Nvidia øker prisen litt, kommer kundene til å følge etter? De har jo ingen 1060 enda. AMD har jo en stor andel av markedet der som de kommer til å levere gode kort til. Nvidia virker ikke å ha gjort så mye i arkitekturen for Pascal mtp ytelsesforbedringer. Dermed vil AMD kunne gi mange gode mid-end valg. Blir og spennende å se hvordan 1070 klarer seg mot AMD Polaris (10?) sin toppmodell. Jeg forstår ikke hvorfor folk bruker så mye tid på Ashes of the Singularity. La meg først komme med et eksempel. Hår blir viktigere og viktigere i spill. Vi beveger oss nærmere og nærmere realistiske grafikk, og mange spill ser utrolig gode ut. Et stort problem derimot er hår. Det er vanskelig å modellere og rendere store mengder hår som beveger seg skikkelig og realistisk. Det er derimot teknologier som får til nettopp dette. Det er åpenbart fremtiden med slik hår, og noe som kommer til å være i alt av spill. Det er og åpenbart fra tester av dette at Nvidia sin arkitektur er rett og slett mye mer fremtidsrettet. Det er ingenting AMD kan gjøre med det SW messig. Nvidia sin arkitektur klarer seg rett og slett mye bedre med hår enn AMD. Så hvis du tenker fremtidsrettet på alle de store tunge trippel-A titlene fremover bør du virkelig skaffe deg et NVidia kort. Ellers kan du aldri spille spillene med bra hår, mens alle som har Nvidia sitter og koser seg med nydelig hår. Her er ellers det eneste benchmarket som trengs for å bekrefte dette: Hvem som helst kan lage et spill som er custom tailored for en spesifikk arkitektur. Bare se på Project: CARS. Vet du hva som skjer hvis du nevner det? Du blir oversvømmet over hvor slemme Nvidia er med Gameworks ol. Hairworks også. Disse er liksom bare spill som med vilje er "ødelagt" for AMD kort og betalt av NVidia. Så kommer vi til Ashes of the Singularity. De var liksom bare på AMD sin launch av Fury og bare viste hvor bra fury var med spillet. De har åpenbart ekstremt tette bånd til AMD. Mye mer enn Project: CARS sine devs. Men hva forteller AotS oss? At AMD åpenbart er ekstremt bra i DX12 og kommer til å knuse Nvidia. Beklager, det blir bare dumt. Hvis dette ikke er favoriseringing og fanboying for AMD, så vet ikke jeg hva som er. Hvis folk mener AotS er et skikkelig benchmark, da er også Hairworks enabled i Witcher 3 og Project: CARS også helt legitime benchmarks for å finne ytelse. Du kan ikke si at det ene custom lagde greiene er, og det andre ikke er. Ikke overraskende derimot så viser HC sine benchamrks med en annen måte å måle på at 980 Ti og Fury X ligger likt i AotS. Hva var det jeg skrev i tidligere tråder om at AotS var et "syntetisk benchmark-spill" ? I det minste har Hairworks noe for seg. Jeg klarer ikke å forstå hvordan en test i AotS gjør at AMD kommer til å yte bedre enn Nvidia i alle spill fremover. Det er jo ekstremt vanlig med spill der den ene har bedre ytelse enn den andre. Hvorfor denne forskjellsbehandlingen? Når Nvidia yter bedre er det slemme gameworks som ødelegger spill. Når AMD yter bedre er det en strålende fremtid med DX12..... Blir svært lite objektivt å argumentere slik. Folk tro av en eller annen grunn at async compute også er noe magisk. Noe som liksom bare gjør GPUen bedre, som AMD har og ikke Nvidia. Jeg så den videoen med jernbanevognene. Åpenbart noen som ikke vet hvordan async compute fungerer. Han viste og det store problemet med async, selvsagt uten å vite det selv. Du skal liksom bare ha 3 jernbanespor som går inn i et, der alle vognene stiller seg fint på rad uten gaps. Det finnes ingen trafikklys. Han tenkte ikke på at det er en grunn til at alle jernbaner har lys og kontroll i virkeligheten? OG at alt av GPUer og CPUer osv er bygd opp synkront? Det er så utrolig vanskelig å lage det slik at alle de vognene bare faller sammen perfekt. Så vanskelig at det bare gjør ting verre. Jeg har enda til gode å se en test av async compute der Nvidia ikke går ned i ytelse. Når du ser på hvilken teknisk kvalitet det er på spill i dag, og hvor mye de prioriterer det... selv om det er devs som kan få det til får de nok ikke tid og penger av de store selskapene de jobber hos til å lage skikkelig async compute. Som også må gjøres individuelt per kort. AotS viser bra async compute boost for Fury X i sine spesiallagde tester med egen framcounting. Ikke overraskende med tanke på hvor mye tid de har brukt på å få til nettopp dette. Likevel, om det liksom blir det ene spillet i året som brukes som AMD tech demo, hvorfor kjøpe et kort som kan få en liten boost med async compute? Spesielt hvis du bare kan kjøpe et Nvidia kort som bare yter bedre i alt annet.... Async compute er ikke magi. Det er reelt, og det kan være utrolig bra, men det er utrolig komplekst, avansert og vanskelig. Sannsynligheten for å gjøre en stor forskjell er ikke stor. Du kan alltids vise hva det kan oppnå i teorien (AotS), men noe annet er hva det gjør i praksis (skikkelige, ikke lanserte, DX 12 titler). 2 Lenke til kommentar
Andrull Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Betale ekstra for å få ting raskt er jo noe du finner i alle markeder. Alt fra Søndagsbutikker (nær ingen salgsvarer/billige alternativer), ekspress post, til drivstoff på populære tidspunkter, til det meste i juletider osv... Entusiastene som ikke bryr seg får ting raskere enn andre (få ting raskt/før andre er verdt det), og de prisbevisste sparer penger. Win win? Men at prisen generelt sett øker, og kundene får mindre fordeler er jo seff sant i et monopol. Er ikke å vinne for en forbruker å måtte betale mer. Uansett hvordan man vrir og vender på det er 1000 kr ekstra 1000 kroner ekstra. At andre bransjer gjør tilsvarende er heller ikke noe en forbruker "vinner" på. Nvidia er kjent for å være flinke, men akkurat like kyniske i sin markedsføring. G-sync, løgner om full DX 12 støtte, samt minnemengde i tidligere generasjoner og listen fortsetter. Founders ed. føyer seg fint inn i dette. Setter pris på kortene, men man trenger ikke forsvare alt de tar seg til!Forsvarer og forsvarer. At nvidia delvis eller tidvis har et nesten monopol kan nok sies. Og sånnsett så er et av deres største konkurrenter seg selv. Ala. Intel. Og da vil prisene de setter være satt slik at de ikke ødelegger for seg selv, men fortsatt gir kjøpelyst, samt at de tjener penger på det (mest mulig uten at det går på for stor bekostning av det andre jeg nevnte). Founders ed. Vil i likhet kunne "subsidiere" de andre for å få opp inntjeningen. Et annet alternativ er å sette prisen høyere, eller bare vente med å lansere noe overhode (selge mer av eldre enheter som 980/980ti). Sånnsett er vi kunder (de av oss som er villige) tjent med å ha et alternativ som koster mer, men som betyr å få det tidligere. Alternativet til det er absolutt ikke bare lavere pris. I tillegg så vil man i bransjen kunne opprette flere kunstige modeller for å dele markedet etter hvor mye man er villig å betale. Metodene er mange. Og det er noe alle gjør i dag. Jævelig, eller greit for noen (alt etter som hva de gjør for å tjene mest). 1 Lenke til kommentar
ThreePinkApples Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Det må da ha vært noe galt med deres Fury kort når dere testet? Gir lite mening at Fury blir slått av 390X helt nede i 1080p. Kanskje i 2160p pga. VRAM problemer, men ikke i 1080p Lenke til kommentar
Kistesnekker Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 ... Pff, sitter selv med 660 Drar nå 60 fps på alle spill jeg spiller Eneste grunnen til at jeg skal oppgradere nå er h265 støtte som savnes stort. Ja du sier noe der. Bruker fortsatt en 1080p skjerm og er ikke helt på fronten av nye spill de siste par åra pga jobb og slikt. Så denne 670 kortet duger vel noen år til for mitt bruk Lenke til kommentar
LoveAmiga Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 ... Pff, sitter selv med 660 Drar nå 60 fps på alle spill jeg spiller Eneste grunnen til at jeg skal oppgradere nå er h265 støtte som savnes stort. Ja du sier noe der. Bruker fortsatt en 1080p skjerm og er ikke helt på fronten av nye spill de siste par åra pga jobb og slikt. Så denne 670 kortet duger vel noen år til for mitt bruk Bruker selv en 22' med 1680x1050. Behovet for ny skjerm er lik 0. Men kommer til å kjøpe ett 1060 da jeg trenger h265 støtte. Lenke til kommentar
TKongen Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Forsvarer og forsvarer. At nvidia delvis eller tidvis har et nesten monopol kan nok sies. Og sånnsett så er et av deres største konkurrenter seg selv. Ala. Intel. Og da vil prisene de setter være satt slik at de ikke ødelegger for seg selv, men fortsatt gir kjøpelyst, samt at de tjener penger på det (mest mulig uten at det går på for stor bekostning av det andre jeg nevnte). Founders ed. Vil i likhet kunne "subsidiere" de andre for å få opp inntjeningen. Et annet alternativ er å sette prisen høyere, eller bare vente med å lansere noe overhode (selge mer av eldre enheter som 980/980ti). Sånnsett er vi kunder (de av oss som er villige) tjent med å ha et alternativ som koster mer, men som betyr å få det tidligere. Alternativet til det er absolutt ikke bare lavere pris. I tillegg så vil man i bransjen kunne opprette flere kunstige modeller for å dele markedet etter hvor mye man er villig å betale. Metodene er mange. Og det er noe alle gjør i dag. Jævelig, eller greit for noen (alt etter som hva de gjør for å tjene mest). Du har mange gode poenger her angående prissettingen for FE. Hadde ikke tenkt over disse alternativene. Så da må jeg nesten trekke tilbake min påstand om at dette er dårlig gjort av Nvidia. Som du skriver her er det jo flere forklaringer her annet en ren ekstra profitt. Ikke at jeg er overbevist om at dette stemmer helt da. Jeg tror fortsatt at den viktigste motivasjonen her er å få ekstra penger ut av entusiaster og at de kunne bare begynt på normal pris. Jeg kan derimot ikke utelukke at du har rett, eller at deler av det du sier også er rett. Lenke til kommentar
Andrull Skrevet 19. mai 2016 Del Skrevet 19. mai 2016 Helt greit det. Uansett hva det er, så setter jeg i alle fall pris på at de er såpass straight med prissettingen, at de gjør det passe klart at rimeligere saker kommer senere. De kunne jo bare driti i å sagt noe, og droppa prisen når de har fått ribba oss entusiaster. XD Lenke til kommentar
iR' BR34K Skrevet 20. mai 2016 Del Skrevet 20. mai 2016 Definitivt kjøp. Har både 1080p144hz skjerm, og 4k-skjerm, så den store forskjellen mot 980-kortet mitt verkar verdt 6-7K. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå