cannibalguppy Skrevet 19. februar 2014 Del Skrevet 19. februar 2014 De priser det slikt pga effektforbruket, noe som faktisk gir den verdi over et liktytende kort som er mye større, støyete og varmere. Eller er du uenig i dette argumentet? Og nei du kan sist jeg sjekket skru det på selv med batteri. Poenget mitt er at dette kortet hadde vært langt mer relevant for budsjettbyggere om de hadde lagt prislappen fra 999 istedet for 1199 Det er forøvrig 100% umulig å skru på Nvidia-GPUen i min M14x R2 som jeg selv ønsker, og jeg har ikke sett noe som helst tegn på at dette har endret seg med nyere laptoper heller. Det blir aktivert på batteri når jeg starter spill, men problemet da er at Nvidia har funnet ut at det er mer hensiktsmessig å throttle kortet ned til 400 MHz og dermed levere elendig spillytelse istedet for å ofre batterilevetid og gi brukbar spillytelse. Mistenker at med dette effektforbruket kan du spare inn de 200kr på en annen psu Men vil tro prisen går ned en del når maxwell faktisk blir lansert. Ja har hatt samme issue med optimus dritten på en annen laptop jeg hadde men det problemet skal være løst(og er ikke en feature så vidt jeg vet). Lenke til kommentar
hqonline Skrevet 19. februar 2014 Del Skrevet 19. februar 2014 Er det ingen som leverer kortet like "lite" som Nvidia sitt referansekort da tro. Det hadde passet perfekt i mITX maskina mi. Lenke til kommentar
N o r e n g Skrevet 19. februar 2014 Del Skrevet 19. februar 2014 Mistenker at med dette effektforbruket kan du spare inn de 200kr på en annen psu Men vil tro prisen går ned en del når maxwell faktisk blir lansert. Ja har hatt samme issue med optimus dritten på en annen laptop jeg hadde men det problemet skal være løst(og er ikke en feature så vidt jeg vet). Går ikke an å spare penger når man allerede klarer seg med CX 430W til 359 kr Sannsynligvis vil prisen gå ned når AMD får lansert en ny serie skjermkort de også, inntil det skjer mener nok Nvidia at de kan sette prisen akkurat der de selv ønsker å ha den. Optimus har ikke blitt fikset, og det er fortsatt meningsløst å bruke Nvidia-GPUen på batteri når Intel-GPUen har lavere strømforbruk. Lenke til kommentar
cannibalguppy Skrevet 19. februar 2014 Del Skrevet 19. februar 2014 Mistenker at med dette effektforbruket kan du spare inn de 200kr på en annen psu Men vil tro prisen går ned en del når maxwell faktisk blir lansert. Ja har hatt samme issue med optimus dritten på en annen laptop jeg hadde men det problemet skal være løst(og er ikke en feature så vidt jeg vet). Går ikke an å spare penger når man allerede klarer seg med CX 430W til 359 kr Sannsynligvis vil prisen gå ned når AMD får lansert en ny serie skjermkort de også, inntil det skjer mener nok Nvidia at de kan sette prisen akkurat der de selv ønsker å ha den. Optimus har ikke blitt fikset, og det er fortsatt meningsløst å bruke Nvidia-GPUen på batteri når Intel-GPUen har lavere strømforbruk. Er ikke akkuratt meningsløst å få en time mindre batteritid enn 3 når du får dedikert grafikk, relativt lite logisk ting å si. Anngående prisen har du nok helt rett derimot. Lenke til kommentar
Pop Skrevet 19. februar 2014 Del Skrevet 19. februar 2014 Hvordan yter dette i forhold til grafikkdelen på Haswell (Intel HD5000)? Lenke til kommentar
Gjest bruker-293283 Skrevet 19. februar 2014 Del Skrevet 19. februar 2014 Hvordan yter dette i forhold til grafikkdelen på Haswell (Intel HD5000)? HD5000 har en 3Dmark 11 score på ca. 1070 mot GTX 750 Ti på ca. 6040 Lenke til kommentar
leifeinar Skrevet 19. februar 2014 Del Skrevet 19. februar 2014 Utrolig spennende, det er sånn en lav TDP at man nesten skulle tro at det er krympet. Blr stor stas når high-end 20nm kommer Lenke til kommentar
PHCTF Skrevet 19. februar 2014 Del Skrevet 19. februar 2014 Det er jo et bra kort, men jeg skulle ønske Nvidia hadde priset kortene likt med tilsvarende ytende AMD-kort istedet for å leve på Geforce-navnet... Hvorfor testes ikke kortet i BF4? Skjønner at dere bruker BF3 som sammenligningsgrunnlag slik at dere slipper å ta opp alle testene på nytt, men hadde vært fint å fått med ytelsen i BF4 også. Spillmotor og ytelsesprofilen for BF3 og BF4 er jo den samme, hvorfor bry seg? Riktignok litt forskjellige oppløsninger, men det er en del forskjell. Hvor man måler FPSen har også litt å si, men det er som sagt en del forskjell, spesielt når man skrur opp oppløsningen over 1920x1200. BF4 er også mye mer aktuelt. Ser ingen grunn til å ikke legge med BF4 resultater i hvertfall. Lenke til kommentar
N o r e n g Skrevet 19. februar 2014 Del Skrevet 19. februar 2014 Det er jo et bra kort, men jeg skulle ønske Nvidia hadde priset kortene likt med tilsvarende ytende AMD-kort istedet for å leve på Geforce-navnet... Hvorfor testes ikke kortet i BF4? Skjønner at dere bruker BF3 som sammenligningsgrunnlag slik at dere slipper å ta opp alle testene på nytt, men hadde vært fint å fått med ytelsen i BF4 også. Spillmotor og ytelsesprofilen for BF3 og BF4 er jo den samme, hvorfor bry seg? Riktignok litt forskjellige oppløsninger, men det er en del forskjell. Hvor man måler FPSen har også litt å si, men det er som sagt en del forskjell, spesielt når man skrur opp oppløsningen over 1920x1200. BF4 er også mye mer aktuelt. Ser ingen grunn til å ikke legge med BF4 resultater i hvertfall. Kjør opp med 4xMSAA i BF4 også, så blir utjevner det seg, av en eller annen grunn takler Nvidia-kortene MSAA langt bedre enn Radeon-kortene i Frostbite-spill. Lenke til kommentar
PHCTF Skrevet 19. februar 2014 Del Skrevet 19. februar 2014 Det er jo et bra kort, men jeg skulle ønske Nvidia hadde priset kortene likt med tilsvarende ytende AMD-kort istedet for å leve på Geforce-navnet... Hvorfor testes ikke kortet i BF4? Skjønner at dere bruker BF3 som sammenligningsgrunnlag slik at dere slipper å ta opp alle testene på nytt, men hadde vært fint å fått med ytelsen i BF4 også. Spillmotor og ytelsesprofilen for BF3 og BF4 er jo den samme, hvorfor bry seg? Riktignok litt forskjellige oppløsninger, men det er en del forskjell. Hvor man måler FPSen har også litt å si, men det er som sagt en del forskjell, spesielt når man skrur opp oppløsningen over 1920x1200. BF4 er også mye mer aktuelt. Ser ingen grunn til å ikke legge med BF4 resultater i hvertfall. Kjør opp med 4xMSAA i BF4 også, så blir utjevner det seg, av en eller annen grunn takler Nvidia-kortene MSAA langt bedre enn Radeon-kortene i Frostbite-spill. Ah, så ikke den forskjellen. Da vil det nok utjevne seg ganske mye, ja, men det er som sagt ingen grunn til å ikke ta med BF4 resultater. Det kan plutselig være uforventete forskjeller, og artikkelforfatter kan muligens kommer over noe interessant. Lenke til kommentar
Pop Skrevet 20. februar 2014 Del Skrevet 20. februar 2014 Hvordan yter dette i forhold til grafikkdelen på Haswell (Intel HD5000)? HD5000 har en 3Dmark 11 score på ca. 1070 mot GTX 750 Ti på ca. 6040 Oi, det var jo enorm forskjell da. Kan jo faktisk forsvare prisen på 1200kr på 750-kortet. Trodde virkelig ikke at Haswellgrafikken skulle være så lav nå. Lenke til kommentar
N o r e n g Skrevet 20. februar 2014 Del Skrevet 20. februar 2014 Hvordan yter dette i forhold til grafikkdelen på Haswell (Intel HD5000)? HD5000 har en 3Dmark 11 score på ca. 1070 mot GTX 750 Ti på ca. 6040 Oi, det var jo enorm forskjell da. Kan jo faktisk forsvare prisen på 1200kr på 750-kortet. Trodde virkelig ikke at Haswellgrafikken skulle være så lav nå. Nå har jo ikke HD 5000 eDRAM som Iris Pro (HD 5200) har, og det utgjør det en voldsom forskjell opp til P2500 i 3DMark11... Videre får Nvidia kunstig høye scores i 3DMark11 som betyr at ytelsesforskjellen på Iris Pro og 750 Ti i praksis er nærmere 2x enn 3x... Lenke til kommentar
Pop Skrevet 20. februar 2014 Del Skrevet 20. februar 2014 Hvordan yter dette i forhold til grafikkdelen på Haswell (Intel HD5000)? HD5000 har en 3Dmark 11 score på ca. 1070 mot GTX 750 Ti på ca. 6040 Oi, det var jo enorm forskjell da. Kan jo faktisk forsvare prisen på 1200kr på 750-kortet. Trodde virkelig ikke at Haswellgrafikken skulle være så lav nå. Nå har jo ikke HD 5000 eDRAM som Iris Pro (HD 5200) har, og det utgjør det en voldsom forskjell opp til P2500 i 3DMark11... Videre får Nvidia kunstig høye scores i 3DMark11 som betyr at ytelsesforskjellen på Iris Pro og 750 Ti i praksis er nærmere 2x enn 3x... Så for stue-pc med hovedvekt på film og surf burde det ikke være stor forskjell altså... Lenke til kommentar
N o r e n g Skrevet 20. februar 2014 Del Skrevet 20. februar 2014 Hvordan yter dette i forhold til grafikkdelen på Haswell (Intel HD5000)? HD5000 har en 3Dmark 11 score på ca. 1070 mot GTX 750 Ti på ca. 6040 Oi, det var jo enorm forskjell da. Kan jo faktisk forsvare prisen på 1200kr på 750-kortet. Trodde virkelig ikke at Haswellgrafikken skulle være så lav nå. Nå har jo ikke HD 5000 eDRAM som Iris Pro (HD 5200) har, og det utgjør det en voldsom forskjell opp til P2500 i 3DMark11... Videre får Nvidia kunstig høye scores i 3DMark11 som betyr at ytelsesforskjellen på Iris Pro og 750 Ti i praksis er nærmere 2x enn 3x... Så for stue-pc med hovedvekt på film og surf burde det ikke være stor forskjell altså... 750 Ti støtter ikke 23.976Hz oppdateringsfrekvens i motsetning til HD 5000 og Radeon-kort, og maskinvareaksellerering av filmmateriale støttes av alle GPUer fra de siste 5 åra. Forskjellen i 3DMark-score betyr bare at Nvidia-kortet takler 3D--grafikk bedre. Lenke til kommentar
Pop Skrevet 20. februar 2014 Del Skrevet 20. februar 2014 Som da er irrelevant om maskinen ikke skal spilles på. Men hvordan vite om Haswellprosessoren har HD5000, HD51000 eller HD52000 (iris pro)? Det er jo til og med Haswell med HD4600... Virker litt kaotisk og man må virkelig sjekke grundig hva man får. På mange av produktene står det til og med kun HD graphics.... Beklager litt OT. Lenke til kommentar
leifeinar Skrevet 20. februar 2014 Del Skrevet 20. februar 2014 (endret) Men hvordan vite om Haswellprosessoren har HD5000, HD51000 eller HD52000 (iris pro)? Letteste er å google navnet så kommer så kommer man inn på ark.intel så står det der. men helt enig, er jo helt latterlig å kutte info om grafikk chip i produkt info Men ingen haswell desktop har kraftigere en HD4600 pr i dag. Endret 20. februar 2014 av leifeinar Lenke til kommentar
N o r e n g Skrevet 20. februar 2014 Del Skrevet 20. februar 2014 Men ingen haswell desktop har kraftigere en HD4600 pr i dag. http://ark.intel.com/products/76640 http://ark.intel.com/products/76642 1 Lenke til kommentar
ATWindsor Skrevet 20. februar 2014 Del Skrevet 20. februar 2014 750 Ti støtter ikke 23.976Hz oppdateringsfrekvens i motsetning til HD 5000 og Radeon-kort, og maskinvareaksellerering av filmmateriale støttes av alle GPUer fra de siste 5 åra. Forskjellen i 3DMark-score betyr bare at Nvidia-kortet takler 3D--grafikk bedre. Det støtter vel 23.97 Hz, men det er ikke helt presist riktig frekvens, noe som kan være ett ltie problem eller ikke noe problem, avhengig av oppsett. AtW Lenke til kommentar
N o r e n g Skrevet 20. februar 2014 Del Skrevet 20. februar 2014 750 Ti støtter ikke 23.976Hz oppdateringsfrekvens i motsetning til HD 5000 og Radeon-kort, og maskinvareaksellerering av filmmateriale støttes av alle GPUer fra de siste 5 åra. Forskjellen i 3DMark-score betyr bare at Nvidia-kortet takler 3D--grafikk bedre. Det støtter vel 23.97 Hz, men det er ikke helt presist riktig frekvens, noe som kan være ett ltie problem eller ikke noe problem, avhengig av oppsett. AtW Det nærmeste du kommer er 23.91Hz, det er ganske kritisk om du skal se en film i 23.976Hz, Lenke til kommentar
ATWindsor Skrevet 20. februar 2014 Del Skrevet 20. februar 2014 750 Ti støtter ikke 23.976Hz oppdateringsfrekvens i motsetning til HD 5000 og Radeon-kort, og maskinvareaksellerering av filmmateriale støttes av alle GPUer fra de siste 5 åra. Forskjellen i 3DMark-score betyr bare at Nvidia-kortet takler 3D--grafikk bedre. Det støtter vel 23.97 Hz, men det er ikke helt presist riktig frekvens, noe som kan være ett ltie problem eller ikke noe problem, avhengig av oppsett. AtW Det nærmeste du kommer er 23.91Hz, det er ganske kritisk om du skal se en film i 23.976Hz, 23.971 er det vel, ikke 23.91, jeg vil ikke si det er spesielt kritisk i ett saklig oppsett (dvs, i praksis irrelevant), men det er jo selvfølgelig noe å ha i mente om man har ett oppsett der det er relevant. AtW Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå