Gå til innhold

Test: Gigabyte GeForce GTX 560 Ti SO


Anbefalte innlegg

Hva koster 50w ekstra i måneden da? :p Under 40 NOK... Hvorfor skulle du bry deg om en liten femtilapp? Det har ingenting å si, fatter ikke hvorfor folk er så hysteriske for slike ubetydelige ting... Når begynte folk å bry seg om sånt, egentlig?

Endret av StianAarskaug (S10QaN)
Lenke til kommentar
Videoannonse
Annonse

AMD taper stort på å ikke komme ut med ny teknologi til HD 6000 serien... det er vel få som heller hadde kjøpt et "nytt" AMD HD 6000 skjermkort, enn et nytt Nvidia GTX 500 serie skjermkort

De har jo det, i likhet med NVIDIA. Det de taper på er derimot at GTX 460 og GTX 560 har bedre utvalg av kort, med høyere klokk og bedre kjølere en referansekortet.
Lenke til kommentar

Som jeg har nevnt et par ganger før er dette noe som helt klart står på topp tre over viktige ting som skal på plass når vi nå oppdaterer rutinene for skjermkort. Vi har en skikkelig grom rigg for å måle støynivå som nå skal tas i bruk. Slusene har blitt åpnet for at vi kan kjøpe inn nye testmidler, noe som defintivt vil gjøre dette mulig.

 

Det jeg i samme slengen kan nevne er at vi har gått på en midlertidig smell ifht. skjermkort-testbenken. Planen er å bruke et Sandy-Brige oppsett, men Intel har nå trukket alt av hovedkort fra markedet. Vi jobber daglig med å få tak i noen produsenter som er villig til å selge hovedkort selv om de har den nå kjente feilen. Vi skal tross alt ikke benytte SATA-portene som er påvirket, men at hovedkortene nå er trukket fra merkedet gjør at vi sliter litt med å sette sammen testbenken. Uansett, det jobbes iherdig med å få løst dette! :-)

Gleder meg stort til dere får det aspektet på plass. Det er nemlig ikke særlig mange som gjør det (annet med støyende videoopptak som ikke gir noe godt inntrykk), som vil plassere dere i en posisjon foran mange testpublikasjoner.

 

Hva koster 50w ekstra i måneden da? :p Under 40 NOK... Hvorfor skulle du bry deg om en liten femtilapp? Det har ingenting å si, fatter ikke hvorfor folk er så hysteriske for slike ubetydelige ting... Når begynte folk å bry seg om sånt, egentlig?

Først og fremst ift. støy og er det aspektet bra så er det veldig få som bryr seg.

Lenke til kommentar

Det er jo bare å ta av seg hatten for dette kortet. Knuser alt av AMD kort, og Nvidia korta en klasse over seg. ytelse og pris = dette er verdens beste kort helt enkelt. Men som alltid savner jeg 2 slike kort i SLI-tester,

Endret av Bulletus
Lenke til kommentar

Nilsen:

"I Norge varmer vi opp huset/leiligheten/hybelen 6-8 måneder i året, naturlig nok avhengig av hvor man bor, men hvor denne varmen kommer fra er ett fett. Watt er watt, og om dette kommer fra skjermkortet, panelovner eller varmekabler har lite å si. Varmen trenger man uansett."

 

 

NEI, NEI og atter NEI!! Nilsen, du er håpløst på jordet og tar feil. En stor andel (og økende) av norske husholdninger har etterhvert fått moderne oppvarming i form av feks luft-til-luft varmepumper. Derfor er ikke watt det samme som watt lengre. Om varmepumpen trekker 500 watt varmer den gjerne opptil 4 ganger mer. Selv på vinterstid ned mot -20 grader vil varmepumper gi mer effektiv bruk av strøm.. Tilsvarende på en varm sommerdag: jo mer varmeutvikling i PC dess mer må en eventuell aircondition jobbe for å kjøle...

 

Så om du representerer MediehusetTek sin offisielle holdning og kunnskapsnivå til strømbruk og enøk blir jeg litt bekymret.

 

 

Aarskaug:

"Hva koster 50w ekstra i måneden da? Under 40 NOK... Hvorfor skulle du bry deg om en liten femtilapp? Det har ingenting å si, fatter ikke hvorfor folk er så hysteriske for slike ubetydelige ting... Når begynte folk å bry seg om sånt, egentlig?"

 

En ting er målet om bruke energien vår effektivt, en annen ting er problemet rundt systemtemperatur om grafikkortet utvikler for mye varme i forhold til systemkjøleløsning.

Derfor er effektbruk og varmeutvikling et veldig viktig element å belyse, for mange kjøpere kan et varmt grafikkort gi forhøyet systemtemperatur og medfølgende støyproblemer.

Endret av torfinns
Lenke til kommentar

Nilsen:

"I Norge varmer vi opp huset/leiligheten/hybelen 6-8 måneder i året, naturlig nok avhengig av hvor man bor, men hvor denne varmen kommer fra er ett fett. Watt er watt, og om dette kommer fra skjermkortet, panelovner eller varmekabler har lite å si. Varmen trenger man uansett."

 

 

NEI, NEI og atter NEI!! Nilsen, du er håpløst på jordet og tar feil. En stor andel (og økende) av norske husholdninger har etterhvert fått moderne oppvarming i form av feks luft-til-luft varmepumper. Derfor er ikke watt det samme som watt lengre. Om varmepumpen trekker 500 watt varmer den gjerne opptil 4 ganger mer. Selv på vinterstid ned mot -20 grader vil varmepumper gi mer effektiv bruk av strøm.. Tilsvarende på en varm sommerdag: jo mer varmeutvikling i PC dess mer må en eventuell aircondition jobbe for å kjøle...

 

Så om du representerer MediehusetTek sin offisielle holdning og kunnskapsnivå til strømbruk og enøk blir jeg litt bekymret.

 

Ro deg nå...

 

Vi er sikkert alle enige i at vermepumper er fine ting og er meget effektive - men faktum er nå det at varmepumper ikke er i nærheten til å være noen standard i norske hjem enda. Det beste jeg fannt av statistiskk på det var desverre bare fra 2006, men da var dekningen på skarve 6% i følge norsk sentralbyrå.

 

Og for de andre 94% (ja, sikkert flere nå, men jeg har ikke nyere tall å forholde meg til her) så er faktisk Nilsen helt korrekt. Da synes jeg virkelig ikke du har noen voldsom grunn til et slikt raseriutbrudd. Det er kjekkt at DU fikk deg varmepumpe og er hypet på det, men aksepter det faktum at du er enda i det overvelmende mindretall i befolkningen, og da er det helt naturlig at tester på en side som hw.no legges opp til å være mest relevant til den mest typiske kjøperen - som sansynligvis varmer hovedsakelig med strøm da det enda er mest normalt.

 

For ordens skyld: Ja, det er noen som også fyrer med olje eller lignende brensel. Mange av disse er så langt jeg vet litt mer kosteffektivt for varme enn strøm, men det koster penger det også, og strømforbruk gir deg som regel ihvertfall noe tilbake for det i tillegg til den rene varmen det er snakk om.

 

PS: Jeg er helt for varmepumper, og synes alle hjem burde hatt det om det var mulig, spesiellt nybygde hjem som kunne bli lagt opp med smarte ventilasjonkanaler for varmefordeling.

 

-Stigma

Endret av Stigma
Lenke til kommentar

Nilsen:

"I Norge varmer vi opp huset/leiligheten/hybelen 6-8 måneder i året, naturlig nok avhengig av hvor man bor, men hvor denne varmen kommer fra er ett fett. Watt er watt, og om dette kommer fra skjermkortet, panelovner eller varmekabler har lite å si. Varmen trenger man uansett."

 

 

NEI, NEI og atter NEI!! Nilsen, du er håpløst på jordet og tar feil. En stor andel (og økende) av norske husholdninger har etterhvert fått moderne oppvarming i form av feks luft-til-luft varmepumper. Derfor er ikke watt det samme som watt lengre. Om varmepumpen trekker 500 watt varmer den gjerne opptil 4 ganger mer. Selv på vinterstid ned mot -20 grader vil varmepumper gi mer effektiv bruk av strøm.. Tilsvarende på en varm sommerdag: jo mer varmeutvikling i PC dess mer må en eventuell aircondition jobbe for å kjøle...

 

 

En ting er målet om bruke energien vår effektivt, en annen ting er problemet rundt systemtemperatur om grafikkortet utvikler for mye varme i forhold til systemkjøleløsning.

Derfor er effektbruk og varmeutvikling et veldig viktig element å belyse, for mange kjøpere kan et varmt grafikkort gi forhøyet systemtemperatur og medfølgende støyproblemer.

Tror du alle har varmepumper i Norge? Og at alt som heter panelovn og varmekabler er borte? Jeg vil tro at en gjennomsnittlig bolig ikke har varmepumpe. De fleste har også varmekabler, og vanlige ovener. Og Nilsen brukte panelovner og varmekabler som relevante eksempler. Og det jeg har hørt fra folk jeg kjenner, er at varmepumpen ikke er god nok når det er -20. De må ha ovner i tillegg. Dessuten kommer det lite varme fra PCen i forhold.

 

Hvis et slikt kort øker systemtemperaturen så mye at det blir et problem, så burde eieren av systemet investere i bedre kjølersystem i kabinett. Fordi da har han ikke godt nok kjølesystem til og med ved svakere skjermkort. Det er meget sjeldent at dette er noe problem uansett. De fleste kabinetter og PC-system kommer med et godt nok kjølesystem som kjøler tilstrekkelig for at du kan bruke high-end kort i maskinen. Jeg synes også det er en viktig test, men det har ikke så mye å si, fordi disse kortene er allerede ganske effektive, og de blir bare mer og mer effektive etter hvert som årene går. Og det koster deg omtrent ingenting å holde et skjermkort gående i måneden.

 

[EDIT]

Er enig med Stigma her.

Endret av StianAarskaug (S10QaN)
Lenke til kommentar

Først og fremst ift. støy og er det aspektet bra så er det veldig få som bryr seg.

Jeg bryr meg faktisk mye om støy. De tiltakene jeg har gjort i mitt system er å bytte ut alt av vifter, CPU- og GPU-kjøler og montert litt virbasjonsdempning. Støy er noe jeg setter veldig høyt og derfor vil ikke dette kortet være aktuelt for meg. Støtter forøvrig "anbefales-stempelet" og ulempen om støy.

 

Det finnes nok av eksempler på kjølere som kjøler mye bedre enn referansedesignet og samtidig er mye mer stillegående. Har selv Artic Cooling GTX Pro, så kan bekrefte dette.

  • Liker 1
Lenke til kommentar

Angående kortet:

Det er en imponerende klokk, samtidig som at det ikke er det beste ved kortet. Det er uten tvil prisen. Det at den faktisk yter like godt som GTX 570 er veldig imponerende til den prisen. Dette er uten tvil noe av det beste du får per krone. Ville ikke ha nølt et sekund med å kjøpe dette fremfor referansekortet! Men må si jeg er skuffet over støyen, det kunne definitivt ha blitt gjort bedre. Det er på ingen måte umulig å lage en kjøler som er mer stillegående og kjøler like godt (eller tom. bedre). Men dette har ikke GIGABYTE prioritert, dessverre.

 

Er det noen som vet hvordan denne factory overklokken sammenligner mot hva som er relativt standard å få til ved manuell overklokk på 560, 570 og 580? Det er en imponerende overklokk, men for de av oss som har den tekniske ekspertisen til å overklokke selv så er det jo egentlig ikke like imponerende om vi kan nå lignende resultater selv med litt tweaking.

 

-Stigma

Du kan jo overklokke GTX 560 enda mer enn dette. Vet ikke om du kan dra GTX 570/GTX 580 så langt, prosentvis. Endret av StianAarskaug (S10QaN)
Lenke til kommentar

NEI, NEI og atter NEI!! Nilsen, du er håpløst på jordet og tar feil. En stor andel (og økende) av norske husholdninger har etterhvert fått moderne oppvarming i form av feks luft-til-luft varmepumper. Derfor er ikke watt det samme som watt lengre. Om varmepumpen trekker 500 watt varmer den gjerne opptil 4 ganger mer. Selv på vinterstid ned mot -20 grader vil varmepumper gi mer effektiv bruk av strøm.. Tilsvarende på en varm sommerdag: jo mer varmeutvikling i PC dess mer må en eventuell aircondition jobbe for å kjøle..

 

Den varmer kansje 4 ganger mer, men man kan ikke spille på den.

En PCs brukosmråder gjør den SVÆRT egnet som varmovn for miin del.

Den står på 24/7 uansett, den folder når jeg ikke bruker PCn og den fungerer som server for filene mine.

 

OG den gir varme.

 

En panelovn gir bare varme, så selvfølgelig vil en Varmepumpe være bedre enn denne, men varmepumpen er ikke nødvendigvis bedre enn en PC, om man ser på andre faktorer enn effekt inn vs effekt ut.

Lenke til kommentar
Du kan jo overklokke GTX 560 enda mer enn dette. Vet ikke om du kan dra GTX 570/GTX 580 så langt, prosentvis.

 

Ja jeg er egentlig ute etter å få en idè om klokkemarginen på de forskjellige modellene. Jeg er nemmelig mest keen på å unngå en SLI løsning for denne gang, men samtidig er kanskje et enkelt overklokket 560 litt i det nedre sjiktet for det jeg hadde vært interessert i investere i.

 

570 er det jo (stock i forhold til dette kortet) ingen poeng i VED MINDRE denne også overklokker bra prosentmessig - i hvilket tilfelle den kunne vært intressant for meg.

 

580 virker for lav ytelse i forhold til prisen.

 

For meg blir noe (lett ihvertfall) overklokking sansynligvis et must uansett, man jeg mangler litt info. Om du (eller andre som leser dette) tilfeldigvis kjenner et godt sted der man har en liste over hvilke resultater folk har fått til så hadde jeg vært meget interessert i det :)

 

-Stigma

Endret av Stigma
Lenke til kommentar

[

 

Hei,

 

Hvor stor vekt vi skal legge på et skjermkorts erffektforbruk er en diskusjon vi har hatt flere ganger det siste året internt i redaksjonen. Det er lenge vært og er fortsatt slik at Nvidias arkitekturer trekker mer strøm enn AMD sine over hele fjøla. Effektforbruket går til syvende og sist over til varme. I Norge varmer vi opp huset/leiligheten/hybelen 6-8 måneder i året, naturlig nok avhengig av hvor man bor, men hvor denne varmen kommer fra er ett fett. Watt er watt, og om dette kommer fra skjermkortet, panelovner eller varmekabler har lite å si. Varmen trenger man uansett.

 

Vi har derfor valgt å ikke legge så alt for stor vekt på effektforbruket, så lenge det ikke er av den ekstreme karakteren. Det vi derimot ser på med argusøyne er hvordan skjermkortet, mer bestemt kjøleren, takler effektforbruket. Har skjermkortet et noe høyt effektforbruk, slik som i dag, men en kjøler som holder det relativt kaldt og med et lavt støynivå, har lite imot det totale intrykket fra side 3 i testen (effektforbruk, temperatur og støy). Trekker kortet mye strøm og lager mye lyd, er dette noe vi da vil henge oss opp i. Det blir en vurdering fra gang til gang.

 

Jeg er så klart helt åpen for videre diskusjon rundt dette emnet, så fyr løs med argumenter du og andre måtte ha. Dette er som sagt en diskusjon vi har kjørt lenge internt :-)

 

 

Nå har jeg personlig ikke noe problem med selve hovedvurderingen av kortet og om det anbefales eller ei (men har lagt merke til at dette kan være et kort i begrenset opplag da det ikke fantes på noen av butikkene jeg søkte på i prisguiden) , men det er uansett viktig utifra et forbrukers perspektiv at det kommer klart fram at kortet har en minus pga den lave effektiviteten per Watt.

 

Klart det, argumentasjonene for at vi bor i et kaldt land og at Watt'en ville uansett brukes til oppvarming er riktig så lenge det dreier seg om eldre leiligheter, nyere leiligheter er dog bygd med høyere kvalitetskrav som gjør at langt mindre watt behøves for å holde leiligheten oppvarmet.

Ser man på dette på et globalt perspektiv så vil et salg på 1 Million skjermkort føre til et merforbruk i forhold til konkurrenten på hele 130.000KWT under last , om det har betydning for noen andre enn de som diskuterer i AGW tråden er vanskelig å si, men jeg antar de fleste klimabeviste menneskene kan ha ønske om å kunne vurdere dette selv.

 

Personlig er ytelse selvsagt et must men jeg føler også at hvis forbrukerne presser på selskap som Amd og Nvidia (+ Intel) til å produsere kort som er mer effektive i forhold til forbrukte watt så er dette noe vi alle tjener på.

Lenke til kommentar

Det som man bør være litt obs på er at både Nvidia og Amd har forskjellig kvalitet på avspilling av for eksempel video , noe som kommer godt fram i denne testen :

 

 

Tomshardware : Video Quality tested Geforce vs Radeon in HQV 2.0

 

Tomshardware : Video Transcoding Examined: AMD, Intel, And Nvidia In-Depth

 

Nå vil ikke dette berøre Nvidia 560 / 580 kortene noe spesielt i forhold til eldre kort, men det er i alle fall verdt å kjenne til disse forskjellene , har man faktisk bra nok cpu er det godt mulig at det kan være greit å bruke den om det lar seg gjøre i noen tilfeller

 

Ellers så var dette en grei test og det viser godt at Nvidia har et bra grep over å kunne tilby de kortene som yter best i forhold til pris på de mest brukte oppløsningene , har man planer om å ta i bruk flere skjermer så må man sannsynligvis investere i 2x kort i motsettning til Amd.

 

 

En liten digresjon :

 

Ytelse Per Watt :

Nvidia Gigabyte Geforce Gtx 560 Ti S0 = 13.46 3dMark 11 ytelse per watt.

Amd Radeon 6950 = 20.35 3dMark 11 dvs 34?% Bedre ytelse pr watt.

Tatt utgangspunkt i at Geforce 560 kortet bruker maks 364 watt full load vs Radeons maks på 232 watt full load.

Edit 2 :

Et lite ankepunkt på anmeldelsen :

Under negative punkter burde i mine øyne effektforbruket være et minus (om det er nok til å fjerne en anbefales får være opp til artikelforfatter).

gud hjelpe meg!

Lenke til kommentar

Og hvordan er overheaden på 570 og 580 modellene i forhold?

-Stigma

 

 

 

Virker som det er litt mer variabelt i forhold til hvor heldig du er med gpuen du får og hvor bra kjøling du har. De fleste greier minst 850mhz. Har sett opp mot 1ghz på luft, men da tror jeg du skal ha bra flaks med kortet ditt.

Lenke til kommentar

Veldig bra klokk på dette kortet, og når kjøleren er så god og prisen så lite høyere enn et standardkort, er jeg enig i at dette absolutt bør anbefales til de som ikke er interessert i å klokke selv. Men det er synd at dere har sluttet å overklokke kortene i testene deres. For det hadde vært interessant å se hvor mye bedre enn standard GTX 560 dette kortet klokker, og det hadde vært minst like interessant å sammenligne dette kortet med et overklokket og opplåst HD 6950. Det er mange som klarer å klokke sine HD 6950 opp mot (og over) 1 GHz, og i tillegg klarer å låse opp hele kjernen. Dette gir enda mer for pengene enn et overklokket GTX 560, men du må gjøre arbeidet selv, da skikkelig fabrikkoverklokk på AMD-kort er en mangelvare. (Digresjon: er det noen som vet om AMD setter en stopper for dette?)

 

Jeg ser det er mange som klager på effektforbruket på dette kortet. Personlig synes jeg effektforbruket er overraskende lavt en så høy klokk tatt i betraktning. Det er tross alt en 21,6% overklokk, og effektforbruket til kortet er vel rundt 30% høyere i Furmark. Effektforbruket er heller ikke stort høyere enn GTX 570 under load, og betydelig lavere i idle. Og som de fleste vet, står de fleste kort mye oftere i idle enn under load.

 

Og en ting til om effektforbruk: hvorfor måler dere under Furmark, og ikke under et spill? Forbruket under Furmark har ingenting å gjøre med hvordan skjermkortet fungerer i praksis, og dets eneste formål er å vise et worst case scenario. Dette er for øvrig også grunnen til at HD 69XX kommer så godt ut her. Powertune senker klokkehastigheten og begrenser forbruket, mens hverken Nvidia eller eldre AMD-kort har tilsvarende teknologi.

Lenke til kommentar

Enig i at klokking bør gjennomføres i testene, samt at effektforbruket måles i spill.

 

Og når det gjelder lydopptak/støymåling. En ting er å måle dB(A) som faktisk veldig mange gjør, men jeg ønsker også at man tar et lydopptak og legger ut lydsporet så man kan lytte på det under idle, load, klokk-load. Da begynner dere å skille dere kraftig ut i kvaliteten forbrukeren får igjen av testene.

 

Sitter akkurat med 2stk 580 som skal sendes tilbake fordi lydkarakteristikken på viftene var helt bak mål. (ikke referansedesign). Hadde jeg kunne lyttet på opptak av disse kortene hadde jeg unngått feilkjøpet. (Gainward "GOOD")

Endret av Theo343
Lenke til kommentar

 

Enig i at dette er nyttig. Selv om man ikke (uten mye kalibrering) kan få en korrekt avspilling når det gjelder selve volumet, så sier det mye om støynivået og TYPEN støy. Spesiellt nyttig er det om man kan holde målingene konsistente og dermed samenlignbare med hverandre. Om støy er irriterende har ofte vel så mye å gjøre med andre lydfaktorer som selve desibelnivået.

 

-Stigma

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...