Nilsen Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 Gigabyte drar virkelig på når de lager deres tolkning av GTX 560 Les mer Lenke til kommentar
LoveAmiga Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 Og plutselig fikk jeg vanvittig lyst til å bytte ut mitt GeForce 460 Lenke til kommentar
Qweel Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 AMD taper stort på å ikke komme ut med ny teknologi til HD 6000 serien... det er vel få som heller hadde kjøpt et "nytt" AMD HD 6000 skjermkort, enn et nytt Nvidia GTX 500 serie skjermkort Lenke til kommentar
Dudeson Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 (endret) AMD taper stort på å ikke komme ut med ny teknologi til HD 6000 serien... det er vel få som heller hadde kjøpt et "nytt" AMD HD 6000 skjermkort, enn et nytt Nvidia GTX 500 serie skjermkort Ny teknologi som hva da?? Endret 8. februar 2011 av Dudeson Lenke til kommentar
Kent -amdme- Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 AMD taper stort på å ikke komme ut med ny teknologi til HD 6000 serien... det er vel få som heller hadde kjøpt et "nytt" AMD HD 6000 skjermkort, enn et nytt Nvidia GTX 500 serie skjermkort Det var en særdeles tåpelig kommentar... hvorfor sier du "nytt" HD6000 ??? er det nyeste som finns. Tror du at alle 6xxx er rebrandet?? Lenke til kommentar
Greddi Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 Rofl, physx på igjen i vantage? Trodde dere hadde lært samme feil på forrige tester. :!: Lenke til kommentar
Stigma Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 Dette er jo MEGET gode testresultater med tanke på pris. Dette kortet står jo i en veldig god posisjon i forhold til 570 referanse, og i ytelse/pris til 580 også. Fristende ... -Stigma Lenke til kommentar
Dr.Satan Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 (endret) Veldig imponerende fabrikkoverklokk! Og med den ytelsesøkningen det gir blir jo dette veldig mye for pengene. Endret 8. februar 2011 av Dr.Satan Lenke til kommentar
Stigma Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 Er det noen som vet hvordan denne factory overklokken sammenligner mot hva som er relativt standard å få til ved manuell overklokk på 560, 570 og 580? Det er en imponerende overklokk, men for de av oss som har den tekniske ekspertisen til å overklokke selv så er det jo egentlig ikke like imponerende om vi kan nå lignende resultater selv med litt tweaking. -Stigma Lenke til kommentar
hardkjerne Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 Noen som vet hvordan yter dette sammenlignet med et unlocket Radeon HD 6950? Lenke til kommentar
Pytagoras Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 DustinHome har allerede fått inn dette kortet og det er underveis. Gleder meg stort til å bytte ut mitt GTX 260 Lenke til kommentar
Malvado Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 (endret) Det som man bør være litt obs på er at både Nvidia og Amd har forskjellig kvalitet på avspilling av for eksempel video , noe som kommer godt fram i denne testen : Tomshardware : Video Quality tested Geforce vs Radeon in HQV 2.0 Tomshardware : Video Transcoding Examined: AMD, Intel, And Nvidia In-Depth Nå vil ikke dette berøre Nvidia 560 / 580 kortene noe spesielt i forhold til eldre kort, men det er i alle fall verdt å kjenne til disse forskjellene , har man faktisk bra nok cpu er det godt mulig at det kan være greit å bruke den om det lar seg gjøre i noen tilfeller Ellers så var dette en grei test og det viser godt at Nvidia har et bra grep over å kunne tilby de kortene som yter best i forhold til pris på de mest brukte oppløsningene , har man planer om å ta i bruk flere skjermer så må man sannsynligvis investere i 2x kort i motsettning til Amd. En liten digresjon : Ytelse Per Watt : Nvidia Gigabyte Geforce Gtx 560 Ti S0 = 13.46 3dMark 11 ytelse per watt. Amd Radeon 6950 = 20.35 3dMark 11 dvs 34?% Bedre ytelse pr watt. Tatt utgangspunkt i at Geforce 560 kortet bruker maks 364 watt full load vs Radeons maks på 232 watt full load. Edit 2 : Et lite ankepunkt på anmeldelsen : Under negative punkter burde i mine øyne effektforbruket være et minus (om det er nok til å fjerne en anbefales får være opp til artikelforfatter). Endret 8. februar 2011 av Malvado 1 Lenke til kommentar
Philophobe Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 Er det noen som vet hvordan denne factory overklokken sammenligner mot hva som er relativt standard å få til ved manuell overklokk på 560, 570 og 580? Det er en imponerende overklokk, men for de av oss som har den tekniske ekspertisen til å overklokke selv så er det jo egentlig ikke like imponerende om vi kan nå lignende resultater selv med litt tweaking. -Stigma De fleste gtx 560 kortene greier vel 1ghz på gpu om du modifiserer bios for å øke max volt til 1.2+ i alle fall. Å øke spenningen på minnet er litt verre, men jeg tror det går an å fysisk modifisere kortet for å få det til. Lenke til kommentar
Stigma Skrevet 9. februar 2011 Del Skrevet 9. februar 2011 Er det noen som vet hvordan denne factory overklokken sammenligner mot hva som er relativt standard å få til ved manuell overklokk på 560, 570 og 580? Det er en imponerende overklokk, men for de av oss som har den tekniske ekspertisen til å overklokke selv så er det jo egentlig ikke like imponerende om vi kan nå lignende resultater selv med litt tweaking. -Stigma De fleste gtx 560 kortene greier vel 1ghz på gpu om du modifiserer bios for å øke max volt til 1.2+ i alle fall. Å øke spenningen på minnet er litt verre, men jeg tror det går an å fysisk modifisere kortet for å få det til. Og hvordan er overheaden på 570 og 580 modellene i forhold? -Stigma Lenke til kommentar
andylove Skrevet 9. februar 2011 Del Skrevet 9. februar 2011 Ganske fornøyd med mitt HD6870, selv om det sitter på en ganske annen rigg enn tester sitt.I ettertid ser jeg jo at Nvidia lager gode kort, men leser meg frem til at AMD er bedre på video. En annen ting er strømforbruket, Nvidia krever sitt og jeg tørr påstå det kan være en viktig faktor i en billig og effektiv PC. Var derfor jeg valgte AMD denne gangen. Lenke til kommentar
DeepW Skrevet 9. februar 2011 Del Skrevet 9. februar 2011 god damn! får virkelig lyst å bytte ut mitt 5850 toxic nå^^ får prøve å holde ut litt lenger,er ikke bra for lommeboken å bytte ut for ofte Lenke til kommentar
Theo343 Skrevet 9. februar 2011 Del Skrevet 9. februar 2011 Et interessant kort, men støyen gjør at jeg ikke vet helt. Lenke til kommentar
Theo343 Skrevet 9. februar 2011 Del Skrevet 9. februar 2011 (endret) Støy? Det jeg alltid synes mangler i disse testene er en nogenlunde god støyreferanse. Jeg forstår ikke hvorfor de eks. ikke kan foreta lydopptak av støyen ved forskjellige belastninger etc. slik at vi kan lytte på den i øreklokker. Rommene man tester i er oftest lukkede uten særlig ekstern støy og selv om åpne testbenker ikke vil gi noe representativt bilde for hvordan det vil høres ut i et kabinett av ymse sort så gir det oss muligheten til å sammenligne støyen og lydkaraktistikkene på kortene. Dette bør komme på plass i 2011 hos de som tester skjermkort og kjølere. Da kunne man klikket seg nedover på forskjellige lydspor som var lagt ut og sammenlignet kortene på dette aspektet. Endret 9. februar 2011 av Theo343 1 Lenke til kommentar
Nilsen Skrevet 9. februar 2011 Forfatter Del Skrevet 9. februar 2011 En liten digresjon : Ytelse Per Watt : Nvidia Gigabyte Geforce Gtx 560 Ti S0 = 13.46 3dMark 11 ytelse per watt. Amd Radeon 6950 = 20.35 3dMark 11 dvs 34?% Bedre ytelse pr watt. Tatt utgangspunkt i at Geforce 560 kortet bruker maks 364 watt full load vs Radeons maks på 232 watt full load. Edit 2 : Et lite ankepunkt på anmeldelsen : Under negative punkter burde i mine øyne effektforbruket være et minus (om det er nok til å fjerne en anbefales får være opp til artikelforfatter). Hei, Hvor stor vekt vi skal legge på et skjermkorts erffektforbruk er en diskusjon vi har hatt flere ganger det siste året internt i redaksjonen. Det er lenge vært og er fortsatt slik at Nvidias arkitekturer trekker mer strøm enn AMD sine over hele fjøla. Effektforbruket går til syvende og sist over til varme. I Norge varmer vi opp huset/leiligheten/hybelen 6-8 måneder i året, naturlig nok avhengig av hvor man bor, men hvor denne varmen kommer fra er ett fett. Watt er watt, og om dette kommer fra skjermkortet, panelovner eller varmekabler har lite å si. Varmen trenger man uansett. Vi har derfor valgt å ikke legge så alt for stor vekt på effektforbruket, så lenge det ikke er av den ekstreme karakteren. Det vi derimot ser på med argusøyne er hvordan skjermkortet, mer bestemt kjøleren, takler effektforbruket. Har skjermkortet et noe høyt effektforbruk, slik som i dag, men en kjøler som holder det relativt kaldt og med et lavt støynivå, har lite imot det totale intrykket fra side 3 i testen (effektforbruk, temperatur og støy). Trekker kortet mye strøm og lager mye lyd, er dette noe vi da vil henge oss opp i. Det blir en vurdering fra gang til gang. Jeg er så klart helt åpen for videre diskusjon rundt dette emnet, så fyr løs med argumenter du og andre måtte ha. Dette er som sagt en diskusjon vi har kjørt lenge internt :-) Støy? Det jeg alltid synes mangler i disse testene er en nogenlunde god støyreferanse. Jeg forstår ikke hvorfor de eks. ikke kan foreta lydopptak av støyen ved forskjellige belastninger etc. slik at vi kan lytte på den i øreklokker. Rommene man tester i er oftest lukkede uten særlig ekstern støy og selv om åpne testbenker ikke vil gi noe representativt bilde for hvordan det vil høres ut i et kabinett av ymse sort så gir det oss muligheten til å sammenligne støyen og lydkaraktistikkene på kortene. Dette bør komme på plass i 2011 hos de som tester skjermkort og kjølere. Da kunne man klikket seg nedover på forskjellige lydspor som var lagt ut og sammenlignet kortene på dette aspektet. Som jeg har nevnt et par ganger før er dette noe som helt klart står på topp tre over viktige ting som skal på plass når vi nå oppdaterer rutinene for skjermkort. Vi har en skikkelig grom rigg for å måle støynivå som nå skal tas i bruk. Slusene har blitt åpnet for at vi kan kjøpe inn nye testmidler, noe som defintivt vil gjøre dette mulig. Det jeg i samme slengen kan nevne er at vi har gått på en midlertidig smell ifht. skjermkort-testbenken. Planen er å bruke et Sandy-Brige oppsett, men Intel har nå trukket alt av hovedkort fra markedet. Vi jobber daglig med å få tak i noen produsenter som er villig til å selge hovedkort selv om de har den nå kjente feilen. Vi skal tross alt ikke benytte SATA-portene som er påvirket, men at hovedkortene nå er trukket fra merkedet gjør at vi sliter litt med å sette sammen testbenken. Uansett, det jobbes iherdig med å få løst dette! :-) 1 Lenke til kommentar
VinterUlv Skrevet 9. februar 2011 Del Skrevet 9. februar 2011 (endret) Nilsen. Hva skjer med den gamle testbenken når dere bytter over til ny? Sitter selv med en Gigabyte P5-DS4 og en Q6600.. hint hint. Edit: Herregud tidlig på morran! Skriveleif! Endret 9. februar 2011 av VinterUlv Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå