knopflerbruce Skrevet 30. desember 2012 Del Skrevet 30. desember 2012 Det blir ikke bedre når du kommer med påstander du ikke en gang klarer å forklare i det her tilfellet så nekter du å fokalere meg det jeg etterlyser dagens PCi tilkoblinger fungerer ikke sammen med ceron prosessoren . Da blir det bare tull å dra inn den prosessoren inn i diskusjonene Det jeg spurtete etter er hvordan en moderne prosesserer kan være til sinke for skjermkortet. i stedet for å svare på det driver dere å drar inn gammel teknologi bare for å sette meg i et dårlig lys Det trodde jeg ikke det var lov å gjøre Dagens PCI-variant (pcie, om det er gen 2 eller 3 er fullstendig irrelevant da båndbredden er høy nok uansett) kan utmerket godt brukes sammen med alle highend-skjermkort som selges pdd. Pcie 2.0-slotter finner du på sokkel 775-kort og nyere til Intel, som ergo kan brukes med nye skjermkort. Med flaskehals i enkelte spill som resultat. At det er inkompatibilitet ute og går kan du godt dokumentere, da jeg selv har kjørt 570 sammen med celerons på 775 under benchmarking av pcmark. Såvidt jeg kan se har ikke du nevnt noe om moderne CPUer, du kommenterte Celerons generelt - og Celeron-navnet har Intel brukt i over 10 år, og det brukes den dag i dag. Gammel teknologi trekkes inn her fordi du snakker om noe som ofte er gammel teknologi (Celeron), men som også kan være dagsaktuell teknologi (Celeron G530 for eksempel). Du spør om hvordan? Det svaret står i en post fr ameg et par hakk opp, med en noenlunde fornuftig analogi. CPUen vil ikke greie å utføre oppgavene sine kjapt nok til at GPUen blir foret med sine arbeidsoppgaver, og den er avhengig av at CPUen henger med på det den gjør. Det motsatte tilfellet er jo og vanlig - GPUen kjører med full belastning, mens CPUen ikke gjør det, siden det er GPUen som ikke jobber raskt nok til at CPUen kan utnytte sitt potensiale. Det er dette som ER flaskehalser, og flaskehalser oppstår når flere komponenter er avhengige av hverandre. Da vil det til enhver tid være minst en som er årsaken til at ikke ytelsen er høyere, og med en svak prosessor sammen med et sterkt skjermkort vil det ofte være et problem å ha svak prosessor. Lenke til kommentar
sinnaelgen Skrevet 30. desember 2012 Del Skrevet 30. desember 2012 (endret) Nå innførte man egne databusser kun beregnet til skjermkortet for at de ikke skulle bli hindret av andre komponenter men så har man funnet ut man likevel kan lan enkelte andre komponerer også bruke samme databuss for de skal angivelig være rask nok likevel. lit rart at man ikke fikk de til da AGP sporet ble brukt jeg forstår forsatt ikke helt hvorfor en moderne CPU ( intel core serie og senere ) skal funger for de raskeste skjermkortene De ter jo ingen oppegående gamer som bruker celeron lenger Hvorfor oppstår det flaskehalser her når CPU-en kun skal tilegne GPU-en oppgaver , ikke gjøre dem selv ? Da er det ikke CPU-en som er problemet men driverne Endret 30. desember 2012 av den andre elgen Lenke til kommentar
keramikklampe Skrevet 30. desember 2012 Del Skrevet 30. desember 2012 Hei, Sjekket litt her på HW.no sine tester, se vedlagte linker hvor de har testet forskjellige hovedkort, minne moduler og cpuer. CPU Hovedkort Minne Er litt usikker på om dette hjelper noe, men virker som både hovedkort og minne har mindre å si, hvor CPU har litt mer å si for FPS, men helt klart ligger hovedvekten på hvilken GPU en har installert Lenke til kommentar
knopflerbruce Skrevet 30. desember 2012 Del Skrevet 30. desember 2012 Nå innførte man egne databusser kun beregnet til skjermkortet for at de ikke skulle bli hindret av andre komponenter men så har man funnet ut man likevel kan lan enkelte andre komponerer også bruke samme databuss for de skal angivelig være rask nok likevel. lit rart at man ikke fikk de til da AGP sporet ble brukt jeg forstår forsatt ikke helt hvorfor en moderne CPU ( intel core serie og senere ) skal funger for de raskeste skjermkortene De ter jo ingen oppegående gamer som bruker celeron lenger Hvorfor oppstår det flaskehalser her når CPU-en kun skal tilegne GPU-en oppgaver , ikke gjøre dem selv ? Da er det ikke CPU-en som er problemet men driverne CPUen gjør noen oppgaver selv også, det er ikke alt av regneoperasjoner som er effektivt på en GPU. Hvis en GPU er avhengig av en utregningden får fra CPUen, og CPUen ikke har den klar idet GPUen trenger det må GPUen pent vente på dette tallet. 2 Lenke til kommentar
sinnaelgen Skrevet 30. desember 2012 Del Skrevet 30. desember 2012 CPUen gjør noen oppgaver selv også, det er ikke alt av regneoperasjoner som er effektivt på en GPU. Hvis en GPU er avhengig av en utregningden får fra CPUen, og CPUen ikke har den klar idet GPUen trenger det må GPUen pent vente på dette tallet. Det er lett å anta det , så kan man stille spørmål hvor man da ikke lar GPU-en også gjøre den oppgaven for de må den da vær like god egnet til , spesielt når det står om tid Jeg ser ingen grunn til at man ikke kan få det til hvis programvaren som styrer det prioriterer riktig Lenke til kommentar
N o r e n g Skrevet 30. desember 2012 Del Skrevet 30. desember 2012 Det jeg spurtete etter er hvordan en moderne prosesserer kan være til sinke for skjermkortet. Fordi det er en stor forskjell i arbeidsbelastning for et skjermkort med denne grafikken der et GTX 680 lett ville klart 400 fps og mer: mot denne grafikken der et GTX 680 sikkert hadde stoppet på rundt 100 fps: Det er dessverre slik at en 2600k stopper opp på rundt 100 fps i Crysis, og dette ødelegger da muligheten for et GTX 680 å levere 400 fps om man kjører på laveste innstillinger. Nå innførte man egne databusser kun beregnet til skjermkortet for at de ikke skulle bli hindret av andre komponenter men så har man funnet ut man likevel kan lan enkelte andre komponerer også bruke samme databuss for de skal angivelig være rask nok likevel. lit rart at man ikke fikk de til da AGP sporet ble brukt Nei, Peripheral Component Interconnect Express er ikke en databuss laget for kun skjermkort, den var designet for å erstatte PCI, PCI-X og AGP. Accelerated Graphics Port derimot, var kun for skjermkort. Hvorfor oppstår det flaskehalser her når CPU-en kun skal tilegne GPU-en oppgaver , ikke gjøre dem selv ? Output av nåværende tilstand i spillet til directX, directX -> driver, alt dette må CPU gjøre før skjermkortet kan sette igang. Da er det ikke CPU-en som er problemet men driverne Nei, det er DirectX. 1 Lenke til kommentar
N o r e n g Skrevet 30. desember 2012 Del Skrevet 30. desember 2012 Det er lett å anta det , så kan man stille spørmål hvor man da ikke lar GPU-en også gjøre den oppgaven for de må den da vær like god egnet til , spesielt når det står om tid Jeg ser ingen grunn til at man ikke kan få det til hvis programvaren som styrer det prioriterer riktig Da anbefaler jeg deg å melde deg til Apple, for du kan tydeligvis mer om programmering enn alle som er ansatt der. 1 Lenke til kommentar
MarcusH_ASUS Skrevet 30. desember 2012 Del Skrevet 30. desember 2012 (endret) (ursäkta svenskan) Hej alla, mitt namn är Marcus Hultin och är representant för ASUS Nordic. Jag har läst igenom testet och förstår att något inte står rätt till med vårt skjermkort som vi skickat till Hardware.no för test. Min slutsatts är att turbo/boost-frekvensen inte aktiverats och samtliga tester har genomförts utan aktiv boost. Detta säger jag med stor säkerhet då effektförbrukningen är lägre än GTX 670 med 2GB minne. I och med att det är jul och nyårsledigheter skriver jag här för att upplysa om att vi har kontaktat hardware.no för att undersöka vad som orsakat den låga uppmätta prestandan, för att förhoppnings få förståelse i ärendet. Mvh, Marcus Hultin EDIT: Vill även tillägga att detta fel med inaktiv boost kan bero på fel i vårat vbios (firmware) alternativt felaktighet i drivrutinen. Fel i driver-installationen kan uppstå när man byter mellan olika kort utan att installera om. Alternativt även om man har överklockat (justerat boost-frekvensen eller "powerlimit") med andra kort tidigare på samma installation. Endret 30. desember 2012 av MarcusH_ASUS 3 Lenke til kommentar
knopflerbruce Skrevet 30. desember 2012 Del Skrevet 30. desember 2012 Det er lett å anta det , så kan man stille spørmål hvor man da ikke lar GPU-en også gjøre den oppgaven for de må den da vær like god egnet til , spesielt når det står om tid Jeg ser ingen grunn til at man ikke kan få det til hvis programvaren som styrer det prioriterer riktig Det kan være flere grunner, for eksempel at GPUen rett og slett er direkte uegnet til nevnte beregning. Ville ikke forbause meg et øyeblikk om en utvikler antar at en har et noenlunde balansert system, hvor en ikke blander svake og sterke komponenter ukritisk, også - og dermed bevisst lar koden bestemme at CPUen skal ta seg av ulike typer beregninger. Jeg kan ikke detaljene rundt hvordan en GPu er bygd opp helt fra scratch, men det er ikke i nærheten av det samme som en CPU. Basisen er transistorer, men så mye mer likt er det heller ikke. Lenke til kommentar
efikkan Skrevet 31. desember 2012 Del Skrevet 31. desember 2012 Siden dette kortet er identisk klokket med et referansekort, må formålet med ytelsetestene å vise om minnestørrelsen har innvirkning. Da er det en tabbe å unnlate diagrammer over 2560x1600-oppløsning der forskjellen skal være størst. Siden dette kortet kommer såpass mye dårligere ut enn referansekortet er det noe galt, og testen burde ikke blitt publisert i denne tilstanden. I tillegg til å oppdatere spillutvalget så burde testen inkludert en måling av bildeflyt, ikke bare gjennomsnittlig bildefrekvens. Driverspørsmålet: Nvidias og AMDs skjermkort må åpenbart testes med samme driver på tvers av hele utvalget. Jeg mener det er urimelig å kreve at dere til en hver tid bruker siste driver, men når det kommer større driveroppdateringer (som både AMD og Nvidia har gjort i høst), så blir det nødvendig med en omtest av skjermkortstallen med den nye driveren. Innstillinger: Dere bør alltid oppgi hvordan dere har satt AA-innstillinger, er det gjort gjennom driver eller i spillet? Er det snakk om "8xAA" satt i spillet? Er det MSAA, SSAA, CSAA, osv? Mange spill kan lyve om hvilken innstilling de bruker, og kan dermed medføre at skjermkortene konkurrerer på ulikt grunnlag. Relatert til dette bør dere også med jevne mellomrom teste bildekvaliteten til ulike AA-modi, slik dere gjorde før. Dette bør i det minste gjøres når nye generasjoner skjermkort kommer og nye drivere blir tatt i bruk i tester. Testrigg: i7-3930K burde være et minimum i testriggen, men jeg mener at den ikke skal være overklokket, slik at den representerer en high-end-rigg som kan kjøpes uten å bryte garantien. Prøv å legge til 8gb ekstra systemminne, kanskje verdt et forsøk? Litt usikker på om de 4gb'ene med videominne påvirker systemminnet eller ikke, så er vel et longshot. Det har ingen innvirkning. Lenke til kommentar
sinnaelgen Skrevet 31. desember 2012 Del Skrevet 31. desember 2012 Det kan være flere grunner, for eksempel at GPUen rett og slett er direkte uegnet til nevnte beregning. Ville ikke forbause meg et øyeblikk om en utvikler antar at en har et noenlunde balansert system, hvor en ikke blander svake og sterke komponenter ukritisk, også - og dermed bevisst lar koden bestemme at CPUen skal ta seg av ulike typer beregninger. Jeg kan ikke detaljene rundt hvordan en GPu er bygd opp helt fra scratch, men det er ikke i nærheten av det samme som en CPU. Basisen er transistorer, men så mye mer likt er det heller ikke. Den eneste grunne den ene kan vær mindre egne en den andre er at den mangler funksjoner som den andre har ( det er sikkert det du forsøker å si her ) Men så har man det med hvor raskt en beregning kan utføres. hvis man kan velg mellom en avansert beregning gjort i et sveip eller delt opp i mindre oppgaver så vil det være mest fornuftig å gjøre det på en måte som tar minst tid Da kan det godt hende at GPU en gjør de små oppgavene til sammen kjappere unna CPU en gjur med den store oppgaven selv om utregningen blir den samme For å gjør de i små oppgaver må man ha en kode som styrer det hele Det som er litt pussig er jo at det heter at GPU-en skal være tallknuseren så derfor burde den stå for så mange beregninger som over hode mulig. Derfor synes jeg at det er litt rart at de ikke får det bedre till Så lenge dataflyten er optimal og vel så det virker det lit merkelig at man likevel får en flaskehals jeg kan forsatt ikke se at det ikke er noe annen en programvaren som skaper disse problemene Lenke til kommentar
knopflerbruce Skrevet 31. desember 2012 Del Skrevet 31. desember 2012 Med din logikk burde man jo ikke trenge en GPU (evt CPU) overhodet, da disse kan gjøre de eksakt samme beregningene like effektivt. Det skulle da holdt i massevis med bare en av disse to. Det er jo åpenbart feil. Lenke til kommentar
sinnaelgen Skrevet 31. desember 2012 Del Skrevet 31. desember 2012 Med din logikk burde man jo ikke trenge en GPU (evt CPU) overhodet, da disse kan gjøre de eksakt samme beregningene like effektivt. Det skulle da holdt i massevis med bare en av disse to. Det er jo åpenbart feil. Her har du misforstått hele poenget mit så mye som det går an å gjøre Det jeg vil frem til var at GPU-en prosessoren på skjermkorte brukes for lite til mange av oppgaven pcen må gjøre problemet var jo at CPu-en gjør oppgaver som forsinker grafikk prosessoren Lenke til kommentar
N o r e n g Skrevet 31. desember 2012 Del Skrevet 31. desember 2012 Her har du misforstått hele poenget mit så mye som det går an å gjøre Det jeg vil frem til var at GPU-en prosessoren på skjermkorte brukes for lite til mange av oppgaven pcen må gjøre problemet var jo at CPu-en gjør oppgaver som forsinker grafikk prosessoren Problemet er bare det at på tida det tar å sende oppgavene over med PCIe til GPU, utregne dem, og så sende dem tilbake, er ofte flere ganger så lang tid som tida det hadde tatt for CPU å utregne dette. Det finnes enkelte typer arbeid en GPU er egnet til å aksellerere, av de jeg vet om: Enkoding/dekoding av video Rendering/CAD Kompresjon Enkel tallknusing (multipliser alle verdier over X i en stor Y-dimensjonell matrise Z med P) Felles for alle disse er at det er enkel/lite logikk, en annen fellesnevner er at de fleste profesjonelle programmer allerede støtter aksellerering av disse oppgavene gjennom OpenCL/CUDA. Så hvilke områder er det du mener vi burde bruke GPUen mer på? Lenke til kommentar
sinnaelgen Skrevet 31. desember 2012 Del Skrevet 31. desember 2012 så lenge resultat skal presenteres på skjermen så burde oppgaven først og fremst overlates GPU-en Du sier : Problemet er bare det at på tida det tar å sende oppgavene over med PCIe til GPU, utregne dem, og så sende dem tilbake jeg bare spør hvorfor må de sendes tilbake hvis de likevel ska vises på skjermen ? Da er det jo PCIexpress bussen som er flaskehalsen her hvis beregningen ikke skal brukes av GPU hvordan kan den da forsikre prosesseringen på skjermkortet Nå er man komme på et mere detaljert nivå her men poenget mit står forsatt med lag litt omskrevet så kan man si at balansen mellom hvilke oppgaver GPU og CPU bør gjøre er ikke slik den burde være Dette må da være en oppgave for de som skriver alle driverene Det ble nevnt at dirextx også vår en del av problemet her . hvis det stemmer hvorfor er da ikke pecene tregere ? Lenke til kommentar
RamGuy Skrevet 31. desember 2012 Del Skrevet 31. desember 2012 Unnskyld meg, men aner du i det hele tatt hva du prater om? Lenke til kommentar
aleksanderro Skrevet 31. desember 2012 Del Skrevet 31. desember 2012 Tror det er bare er å gi opp, er som å snakke til en stein. 1 Lenke til kommentar
sinnaelgen Skrevet 31. desember 2012 Del Skrevet 31. desember 2012 Unnskyld meg, men aner du i det hele tatt hva du prater om? jeg vet ihvertfall hvor problemet ligger hen Lenke til kommentar
Nizzen Skrevet 31. desember 2012 Del Skrevet 31. desember 2012 Det var vel svensken fra Asus som visste hvor problemet lå henne, om man snakker ON topic ? 1 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå