Gå til innhold

Test: Gigabyte GeForce GTX 560 Ti SO


Anbefalte innlegg

Videoannonse
Annonse

AMD taper stort på å ikke komme ut med ny teknologi til HD 6000 serien... det er vel få som heller hadde kjøpt et "nytt" AMD HD 6000 skjermkort, enn et nytt Nvidia GTX 500 serie skjermkort

Ny teknologi som hva da?? :ermm::roll: Endret av Dudeson
Lenke til kommentar

AMD taper stort på å ikke komme ut med ny teknologi til HD 6000 serien... det er vel få som heller hadde kjøpt et "nytt" AMD HD 6000 skjermkort, enn et nytt Nvidia GTX 500 serie skjermkort

Det var en særdeles tåpelig kommentar... hvorfor sier du "nytt" HD6000 ??? er det nyeste som finns. Tror du at alle 6xxx er rebrandet?? :whistle:

Lenke til kommentar

Er det noen som vet hvordan denne factory overklokken sammenligner mot hva som er relativt standard å få til ved manuell overklokk på 560, 570 og 580? Det er en imponerende overklokk, men for de av oss som har den tekniske ekspertisen til å overklokke selv så er det jo egentlig ikke like imponerende om vi kan nå lignende resultater selv med litt tweaking.

 

-Stigma

Lenke til kommentar

Det som man bør være litt obs på er at både Nvidia og Amd har forskjellig kvalitet på avspilling av for eksempel video , noe som kommer godt fram i denne testen :

 

 

Tomshardware : Video Quality tested Geforce vs Radeon in HQV 2.0

 

Tomshardware : Video Transcoding Examined: AMD, Intel, And Nvidia In-Depth

 

Nå vil ikke dette berøre Nvidia 560 / 580 kortene noe spesielt i forhold til eldre kort, men det er i alle fall verdt å kjenne til disse forskjellene , har man faktisk bra nok cpu er det godt mulig at det kan være greit å bruke den om det lar seg gjøre i noen tilfeller

 

Ellers så var dette en grei test og det viser godt at Nvidia har et bra grep over å kunne tilby de kortene som yter best i forhold til pris på de mest brukte oppløsningene , har man planer om å ta i bruk flere skjermer så må man sannsynligvis investere i 2x kort i motsettning til Amd.

 

 

En liten digresjon :

 

Ytelse Per Watt :

Nvidia Gigabyte Geforce Gtx 560 Ti S0 = 13.46 3dMark 11 ytelse per watt.

Amd Radeon 6950 = 20.35 3dMark 11 dvs 34?% Bedre ytelse pr watt.

Tatt utgangspunkt i at Geforce 560 kortet bruker maks 364 watt full load vs Radeons maks på 232 watt full load.

Edit 2 :

Et lite ankepunkt på anmeldelsen :

Under negative punkter burde i mine øyne effektforbruket være et minus (om det er nok til å fjerne en anbefales får være opp til artikelforfatter).

Endret av Malvado
  • Liker 1
Lenke til kommentar

Er det noen som vet hvordan denne factory overklokken sammenligner mot hva som er relativt standard å få til ved manuell overklokk på 560, 570 og 580? Det er en imponerende overklokk, men for de av oss som har den tekniske ekspertisen til å overklokke selv så er det jo egentlig ikke like imponerende om vi kan nå lignende resultater selv med litt tweaking.

 

-Stigma

 

 

 

 

De fleste gtx 560 kortene greier vel 1ghz på gpu om du modifiserer bios for å øke max volt til 1.2+ i alle fall. Å øke spenningen på minnet er litt verre, men jeg tror det går an å fysisk modifisere kortet for å få det til.

 

 

 

Lenke til kommentar

Er det noen som vet hvordan denne factory overklokken sammenligner mot hva som er relativt standard å få til ved manuell overklokk på 560, 570 og 580? Det er en imponerende overklokk, men for de av oss som har den tekniske ekspertisen til å overklokke selv så er det jo egentlig ikke like imponerende om vi kan nå lignende resultater selv med litt tweaking.

 

-Stigma

 

 

 

 

De fleste gtx 560 kortene greier vel 1ghz på gpu om du modifiserer bios for å øke max volt til 1.2+ i alle fall. Å øke spenningen på minnet er litt verre, men jeg tror det går an å fysisk modifisere kortet for å få det til.

 

Og hvordan er overheaden på 570 og 580 modellene i forhold?

 

-Stigma

Lenke til kommentar

Ganske fornøyd med mitt HD6870, selv om det sitter på en ganske annen rigg enn tester sitt.I ettertid ser jeg jo at Nvidia lager gode kort, men leser meg frem til at AMD er bedre på video. En annen ting er strømforbruket, Nvidia krever sitt og jeg tørr påstå det kan være en viktig faktor i en billig og effektiv PC. Var derfor jeg valgte AMD denne gangen.

Lenke til kommentar

Støy?

Det jeg alltid synes mangler i disse testene er en nogenlunde god støyreferanse. Jeg forstår ikke hvorfor de eks. ikke kan foreta lydopptak av støyen ved forskjellige belastninger etc. slik at vi kan lytte på den i øreklokker. Rommene man tester i er oftest lukkede uten særlig ekstern støy og selv om åpne testbenker ikke vil gi noe representativt bilde for hvordan det vil høres ut i et kabinett av ymse sort så gir det oss muligheten til å sammenligne støyen og lydkaraktistikkene på kortene.

 

Dette bør komme på plass i 2011 hos de som tester skjermkort og kjølere.

 

Da kunne man klikket seg nedover på forskjellige lydspor som var lagt ut og sammenlignet kortene på dette aspektet.

Endret av Theo343
  • Liker 1
Lenke til kommentar

En liten digresjon :

Ytelse Per Watt :

Nvidia Gigabyte Geforce Gtx 560 Ti S0 = 13.46 3dMark 11 ytelse per watt.

Amd Radeon 6950 = 20.35 3dMark 11 dvs 34?% Bedre ytelse pr watt.

Tatt utgangspunkt i at Geforce 560 kortet bruker maks 364 watt full load vs Radeons maks på 232 watt full load.

Edit 2 :

Et lite ankepunkt på anmeldelsen :

Under negative punkter burde i mine øyne effektforbruket være et minus (om det er nok til å fjerne en anbefales får være opp til artikelforfatter).

 

Hei,

 

Hvor stor vekt vi skal legge på et skjermkorts erffektforbruk er en diskusjon vi har hatt flere ganger det siste året internt i redaksjonen. Det er lenge vært og er fortsatt slik at Nvidias arkitekturer trekker mer strøm enn AMD sine over hele fjøla. Effektforbruket går til syvende og sist over til varme. I Norge varmer vi opp huset/leiligheten/hybelen 6-8 måneder i året, naturlig nok avhengig av hvor man bor, men hvor denne varmen kommer fra er ett fett. Watt er watt, og om dette kommer fra skjermkortet, panelovner eller varmekabler har lite å si. Varmen trenger man uansett.

 

Vi har derfor valgt å ikke legge så alt for stor vekt på effektforbruket, så lenge det ikke er av den ekstreme karakteren. Det vi derimot ser på med argusøyne er hvordan skjermkortet, mer bestemt kjøleren, takler effektforbruket. Har skjermkortet et noe høyt effektforbruk, slik som i dag, men en kjøler som holder det relativt kaldt og med et lavt støynivå, har lite imot det totale intrykket fra side 3 i testen (effektforbruk, temperatur og støy). Trekker kortet mye strøm og lager mye lyd, er dette noe vi da vil henge oss opp i. Det blir en vurdering fra gang til gang.

 

Jeg er så klart helt åpen for videre diskusjon rundt dette emnet, så fyr løs med argumenter du og andre måtte ha. Dette er som sagt en diskusjon vi har kjørt lenge internt :-)

 

Støy?

Det jeg alltid synes mangler i disse testene er en nogenlunde god støyreferanse. Jeg forstår ikke hvorfor de eks. ikke kan foreta lydopptak av støyen ved forskjellige belastninger etc. slik at vi kan lytte på den i øreklokker. Rommene man tester i er oftest lukkede uten særlig ekstern støy og selv om åpne testbenker ikke vil gi noe representativt bilde for hvordan det vil høres ut i et kabinett av ymse sort så gir det oss muligheten til å sammenligne støyen og lydkaraktistikkene på kortene.

 

Dette bør komme på plass i 2011 hos de som tester skjermkort og kjølere.

 

Da kunne man klikket seg nedover på forskjellige lydspor som var lagt ut og sammenlignet kortene på dette aspektet.

 

Som jeg har nevnt et par ganger før er dette noe som helt klart står på topp tre over viktige ting som skal på plass når vi nå oppdaterer rutinene for skjermkort. Vi har en skikkelig grom rigg for å måle støynivå som nå skal tas i bruk. Slusene har blitt åpnet for at vi kan kjøpe inn nye testmidler, noe som defintivt vil gjøre dette mulig.

 

Det jeg i samme slengen kan nevne er at vi har gått på en midlertidig smell ifht. skjermkort-testbenken. Planen er å bruke et Sandy-Brige oppsett, men Intel har nå trukket alt av hovedkort fra markedet. Vi jobber daglig med å få tak i noen produsenter som er villig til å selge hovedkort selv om de har den nå kjente feilen. Vi skal tross alt ikke benytte SATA-portene som er påvirket, men at hovedkortene nå er trukket fra merkedet gjør at vi sliter litt med å sette sammen testbenken. Uansett, det jobbes iherdig med å få løst dette! :-)

 

 

 

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...