Blazer Skrevet 19. oktober 2012 Del Skrevet 19. oktober 2012 nevn ett av amd kortene som kostet mindre enn tilsvarende nvidia kort ved lansering. er kun etter at nvidia lanserte konkurrende kort at de skrudde ned prisene... så der er det sagt. og fordi 7970 hadde lik eller litt bedre score i 3 spill er det ikke et dårligere kort? bf3 var ganske viktig denne generasjonen da millioner faktisk spiller det(metro er bra men ikke i nærheten av å være så populært) og det eneste amd kortet som yter greit i bf3(ut ifra dine egne krav til fps da du har sagt flere ganger at 45 frames min ikke er bra nok i et fps spill som bf3) er 7970ghz edition. du må slutte å vise til spill og ting som til sammen ikke står for halvparten av den massen du har i et spill som bf3... men greit skal si at det er et bedre valg men ikke på absolutt alt og på compute er amd så sykt mye råere at det ikke er konkuranse. Jeg har kun påpeket at ditt utsagn "680 er et bedre kort på alle måter enn 7970" er feil, kan du være så snill og slutte å legge ord i min munn? Det er ikke millioner som spiller BF3 på PC, det er ca 50 millioner mennesker som bruker Steam og det er ikke snakk om at mer enn 2% av disse mennesker spiller BF3 når selv ikke Team Fortress 2 eller CS overstiger 150 000 spillere regelmessig, jeg vil tro at BF3 har en aktiv spillerbase på rundt 4-800 000 mennesker. Om man ikke får god nok ytelse på maksimale innstillinger er det heldigvis en meny kalt "graphics settings" i de fleste PC-spill der man på magisk vis kan få langt bedre ytelse, om man ikke klarer å bevege seg inn og gjøre noe her bør man ærlig talt bare kjøpe en Xbox 360. Hvorfor må du motsi meg, med mye feil informasjon, og så rette deg selv opp i samme post? Har du ikke bommet litt da? men i mid range og low end har nvidia gått på en bommert denne gangen og det skal jeg ikke prøve å si noe imot. men er dumt å si at dette er som mac vs pc da amd grovt utnyttet de 3 månedene de var først. de hadde mye høyere priser en nvidia og faktisk ikke bedre produkter enn det som kom senere. HD 7750 var ikke bedre enn GTS 450? HD 7770 var ikke bedre enn GTX 550 Ti? HD 7850 var ikke bedre enn GTX 560 Ti? HD 7870 var ikke bedre enn GTX 570? det jeg ikke skjønner her er hvordan det ikke har blitt priskrig, ser jo at amd priser så agressivt på en del kort at de kaster bort mye av fortjenesten og at nvidia ikke gidder det(7950 prisen er så lav at det er lav profitt per kort..bra for kunder men ikke bra for AMD på lang sikt) 560ti hadde en pris som var uslåelig bra men 660ti enda er for dyr til å kunne hevde seg. En mulig forklaring er at prisene for 28nm er rimelig høye, det koster visstnok bortimot $6000 for en wafer med 100 brikkekandidater av GK110. En annen forklaring kan være at det økte salget ikke vil være tilstrekkelig for å gi økt profitt, eller at salget av brikker er på samme nivå som TSMC klarer å produsere dem. Vi sitter heller ikke med nok informasjon for å forklare hvorfor vi har produkter som 7950 priset så lavt, det kan godt hende at de billige "ikke-boost" 7950-kortene ikke er brukbare for annet. Du påpeker at 560 Ti hadde en "uslåelig bra" pris, da må jeg påpeke at HD 6870 stort sett alltid var priset 300 kr (eller 20%) lavere med 95% av ytelsen, og hva med 7850 som koster 1500 kr nå? er litt lattis å lese at arni90 ikke tåler å ta feil. ikke at jeg skal blande meg inn i akkuratt det dere diskuterte der, men har sett flere diskusjoner der arni90 absolutt MÅ ha rett. er latterlig å se på Lenke til kommentar
N o r e n g Skrevet 19. oktober 2012 Del Skrevet 19. oktober 2012 (endret) det er B shit. har testet mange heavy kjørte spill som metro 2033 og heaven f.eks. og alle de drar godt nytte av boost. Når får du mest boost? Kepler Boost er ikke konstant på noen måte. er litt lattis å lese at arni90 ikke tåler å ta feil. ikke at jeg skal blande meg inn i akkuratt det dere diskuterte der, men har sett flere diskusjoner der arni90 absolutt MÅ ha rett. er latterlig å se på I dette tilfellet er det vel heller Cannibalguppy som tar feil, og MÅ ha rett? Eventuelt kan det være jeg som har dårlige norskkunnskaper, det forklarer jo hvorfor jeg alltid slet med Norsk skriftlig. Endret 19. oktober 2012 av arni90 1 Lenke til kommentar
cannibalguppy Skrevet 19. oktober 2012 Del Skrevet 19. oktober 2012 (endret) arni poenget mitt var at 560ti hadde den desidert beste pris/ytelse i hele 2011. hvis du sioer imot kan du bare se til faen å gå å se hvorfor ALLE anbefalte dette kortet. sorry men det pisset om at 6870 var like bra gjelder ikke ass. og det kostet ikke mindre før i november lol. altså maaaaange måneder etter lansering så det gjelder faktisk ikke. er faktisk 3 millioner som har kjøpt bf3 på pc.. sikkert de tallene du sier som spiller det aktivt men det er nok 10-20 ganger mer enn antallet som spiller metro og sniper elite. og angående tidlige priser. les hva jeg skrev. de er ikke bra nok til den dyrere prisen for de kortene som kom 3 måneder senere. les før du snakker. og arni er nok du som absolutt skal ha rett da du tar feil info fra sitater og klarer å bomme på svaret selv da og boost er kjempebra. det gjelder ved alle tilfeller og desto mer når det er tungt... Endret 19. oktober 2012 av cannibalguppy Lenke til kommentar
Blazer Skrevet 19. oktober 2012 Del Skrevet 19. oktober 2012 (endret) det er B shit. har testet mange heavy kjørte spill som metro 2033 og heaven f.eks. og alle de drar godt nytte av boost. Når får du mest boost? Kepler Boost er ikke konstant på noen måte. er litt lattis å lese at arni90 ikke tåler å ta feil. ikke at jeg skal blande meg inn i akkuratt det dere diskuterte der, men har sett flere diskusjoner der arni90 absolutt MÅ ha rett. er latterlig å se på I dette tilfellet er det vel heller Cannibalguppy som tar feil, og MÅ ha rett? Eventuelt kan det være jeg som har dårlige norskkunnskaper, det forklarer jo hvorfor jeg alltid slet med Norsk skriftlig. vel ifølse msi afterburner så ligger kjernen på 1241 hele tiden. så virker som boost er konstant med mindre jeg har gått glipp av noe ? eneste jeg vet er at HVIS kjernen går over 70 grader så klokker den ned til 1228, men det skjer så å si aldri. jeg sier ikke at du altid har feil, men ikke altid rett heller. jeg er ikke en så veldig god "diskutere" person, men jeg har registrert noen tillfeller der jeg vet at jeg har hatt rett men du har også "ment" det samme. men mye som diskuteres her er ikke fakta, men heller hva hver og en syns. men du er vel av den "nye" generasjonen som sikkert holder mer følge på ting, men jeg var sånn for 10 år siden sa jeg joinet forumet hehe. Endret 19. oktober 2012 av Blazer Lenke til kommentar
N o r e n g Skrevet 19. oktober 2012 Del Skrevet 19. oktober 2012 arni poenget mitt var at 560ti hadde den desidert beste pris/ytelse i hele 2011. hvis du sioer imot kan du bare se til faen å gå å se hvorfor ALLE anbefalte dette kortet. sorry men det pisset om at 6870 var like bra gjelder ikke ass. og det kostet ikke mindre før i november lol. altså maaaaange måneder etter lansering så det gjelder faktisk ikke. er faktisk 3 millioner som har kjøpt bf3 på pc.. sikkert de tallene du sier som spiller det aktivt men det er nok 10-20 ganger mer enn antallet som spiller metro og sniper elite. og angående tidlige priser. les hva jeg skrev. de er ikke bra nok til den dyrere prisen for de kortene som kom 3 måneder senere. les før du snakker. og arni er nok du som absolutt skal ha rett da du tar feil info fra sitater og klarer å bomme på svaret selv da og boost er kjempebra. det gjelder ved alle tilfeller og desto mer når det er tungt... http://www.prisjakt.no/product.php?pu=794819 Merkelig, her står det at det kostet 1300 kr fra 30. mars 2011. Mener også å huske at GTX 560 Ti lanserte på 1900-2000 kr, og at det først var utpå høsten i fjor at det kom ned på 1600 kr, men du må gjerne oppgi kilder som motsier meg Hvis du ikke tror meg angående ytelsen 6870 mot 560 Ti, kan du alltids se på benchmarkene selv, jeg gidder nemlig ikke oppgi flere kilder nå ettersom du overser dem totalt. Hva i alle dager har det å si hvor mange som spiller BF3 i forhold til Metro 2033, Crysis, eller andre spill som kjører bedre på 7970? Påstanden min står fortsatt: 680 er ikke bedre enn 7970 på alle måter. Lese hva du skriver? Jeg leser så absolutt hva du skriver, det er dog forvirrende å forstå deg når du motsier deg selv i samme post. Kan du komme med eksempler på når jeg tar feil informasjon fra sitater? Slik det står nå påpeker jeg bare mye av det du skriver som er feil. Kan du ikke være så snill å ta et skjermbilde av MSI Afterburner eller EVGA Precision som viser grafen til både framerate, GPU usage, og GPU clock? Så kan vi få et endelig bevis på om Boost hjelper mer ved høy eller lav framerate. Lenke til kommentar
efikkan Skrevet 19. oktober 2012 Del Skrevet 19. oktober 2012 det er B shit. har testet mange heavy kjørte spill som metro 2033 og heaven f.eks. og alle de drar godt nytte av boost. Har du den minste anelse om hvordan rendering-pipeline fungerer på en moderne GPU? Boost hjelper når lasten er lett og pumper effektivt opp bilderaten når den allerede er høy, men hjelper lite eller ingenting når lasten er tung, dvs. når du allerede har minimal bilderate. Gjennomsnittlig FPS (som så godt som samtlige tester bruker) er langt mindre viktig enn minimal FPS og jevnheten til bilderaten. Et hvert oppegående menneske vil klart se at f.eks. en jevn bilderate på 30 FPS er langt mer spillbart enn en bilderate som sporadisk faller ned på 20 FPS men plutselig hopper opp i 40-50 FPS. Lenke til kommentar
Ruarcs Skrevet 20. oktober 2012 Del Skrevet 20. oktober 2012 Hvorfor bare 192 og 128 bits ram? Er ikke det litt idiotisk i grunn? Fysiske begrensninger. Billige kort er ofte billige fordi de bruker lite silisium, dette fordi kjernene er små. Små kjerner kan ikke knyttes stor minnebussbredde til pga liten plass. Så nei, det er ikke idiotisk i grunn. Hum. Men vil ikke dette få problemer med å slå et gtx 460 med så liten minnebredde eller hva det nå heter? Lenke til kommentar
Ruarcs Skrevet 20. oktober 2012 Del Skrevet 20. oktober 2012 (endret) Hvorfor bare 192 og 128 bits ram? Er ikke det litt idiotisk i grunn? Fysiske begrensninger. Billige kort er ofte billige fordi de bruker lite silisium, dette fordi kjernene er små. Små kjerner kan ikke knyttes stor minnebussbredde til pga liten plass. Så nei, det er ikke idiotisk i grunn. Hum. Men vil ikke dette få problemer med å slå et gtx 460 med så liten minnebredde eller hva det nå heter? " er litt lattis å lese at arni90 ikke tåler å ta feil. ikke at jeg skal blande meg inn i akkuratt det dere diskuterte der, men har sett flere diskusjoner der arni90 absolutt MÅ ha rett. er latterlig å se på" Du må skive noe slik som: Det er litt komisk å lese osv. Ordet lattis er jo helt latterlig. Det samme med lol,omfg osv, dette hører ikke hjemme i daglitale, eller hur?hehe Beklager for dobbelt post, det var meningen å redigere inn på den andre posten, men det er vel for tidelig på morgenen,hehe Endret 20. oktober 2012 av Ruarcs Lenke til kommentar
Blazer Skrevet 20. oktober 2012 Del Skrevet 20. oktober 2012 det er B shit. har testet mange heavy kjørte spill som metro 2033 og heaven f.eks. og alle de drar godt nytte av boost. Har du den minste anelse om hvordan rendering-pipeline fungerer på en moderne GPU? Boost hjelper når lasten er lett og pumper effektivt opp bilderaten når den allerede er høy, men hjelper lite eller ingenting når lasten er tung, dvs. når du allerede har minimal bilderate. Gjennomsnittlig FPS (som så godt som samtlige tester bruker) er langt mindre viktig enn minimal FPS og jevnheten til bilderaten. Et hvert oppegående menneske vil klart se at f.eks. en jevn bilderate på 30 FPS er langt mer spillbart enn en bilderate som sporadisk faller ned på 20 FPS men plutselig hopper opp i 40-50 FPS. pipeline eller ikke pipeline. er enkel matte, jo høyere klokkefrekvens jo høyere fillrate osv osv, jo mer fps. jeg har selv testet forskjellige frekvenser og boost frekvenser og får høyere fps jo høyere boost frekvensen er. så her hos meg fungerer boost fint. så får du heller mene det du vil. Lenke til kommentar
oOleE Skrevet 20. oktober 2012 Del Skrevet 20. oktober 2012 (endret) Hum. Men vil ikke dette få problemer med å slå et gtx 460 med så liten minnebredde eller hva det nå heter? Vet ikke helt, har ikke lest tester på dette kortet, men 650 Ti har mindre minnebåndsbredde enn et gtx 460 pga liten minnebusbredde. Dette slår mest ut når du skrur på høye oppløsninger og AA/AF og andre ting som krever stor minnebåndbredde. Endret 20. oktober 2012 av oOleE Lenke til kommentar
N o r e n g Skrevet 20. oktober 2012 Del Skrevet 20. oktober 2012 Hvorfor bare 192 og 128 bits ram? Er ikke det litt idiotisk i grunn? Fysiske begrensninger. Billige kort er ofte billige fordi de bruker lite silisium, dette fordi kjernene er små. Små kjerner kan ikke knyttes stor minnebussbredde til pga liten plass. Så nei, det er ikke idiotisk i grunn. Hum. Men vil ikke dette få problemer med å slå et gtx 460 med så liten minnebredde eller hva det nå heter? Vel, det er to viktige faktorer her: Minnekontrolleren til Fermi er rimelig dårlig, den klarer ikke komme i nærheten av teoretisk ytelse og har problemer med å komme opp i høye klokkefrekvenser. Det er ikke så viktig med AA- og AF-ytelse når kortet knapt takler 1920x1080. pipeline eller ikke pipeline. er enkel matte, jo høyere klokkefrekvens jo høyere fillrate osv osv, jo mer fps. jeg har selv testet forskjellige frekvenser og boost frekvenser og får høyere fps jo høyere boost frekvensen er. så her hos meg fungerer boost fint. så får du heller mene det du vil. Ikke så enkelt som du tror tydeligvis. Efikkan påpeker at belastningen av en grafikkprosessor har mye å si på strømforbruket. Kepler Boost er basert på fysiske målinger av strømtrekk og spenningen, derfor vil belastningen av hver enkelt programmerbar enhet i en grafikkprosessor (og variansen for hver brikke) påvirke hvor mye boost du får. Om du får en konstant boost på +250MHz over stock frekvens på ditt 670 uten å ha rotet med overklokkingsprogram fungerer ikke Kepler Boost som den skal. Lenke til kommentar
Blazer Skrevet 20. oktober 2012 Del Skrevet 20. oktober 2012 poenget var at boost fungerer slik jeg vil. Om det var slik nvidia mente det skulle fungere bryr jeg meg lite om. Lenke til kommentar
efikkan Skrevet 21. oktober 2012 Del Skrevet 21. oktober 2012 (endret) pipeline eller ikke pipeline. er enkel matte, jo høyere klokkefrekvens jo høyere fillrate osv osv, jo mer fps. jeg har selv testet forskjellige frekvenser og boost frekvenser og får høyere fps jo høyere boost frekvensen er. så her hos meg fungerer boost fint. så får du heller mene det du vil.Det er ingen tvil om at høyere frekvens gir høyere ytelse, poenget er at belastningen under spilling varierer og derfor er ofte bilderaten ustabil. Du tenker kanskje at boost vil være genialt og utjevne denne variasjonen, men boost gjør faktisk situasjonen verre. I de aller fleste tilfeller der bilderaten er lav skyldes dette tunge beregninger, og tunge beregninger betyr mer effektforbruk som betyr at boost ikke vil kunne hente ut noe mer ved satt power target. Hvis det ved et punkt under spillingen blir mindre intensive regneoperasjoner (gjerne pga. dårlig parallelisering på GPUen i shaderne) så vil GPUen trekke mindre effekt og det er her turbo slår inn. Dermed er turbo faktisk den motsatte funksjonen av det som du faktisk trenger, den hjelper når grafikklasten er lettest og helper minimalt eller ingenting når du faktisk trenger hjelp. For f.eks. GTX 680 sin del bidrar turbo til at gjennomsnittsverdien for bilderaten blir cirka 5% høyere enn realiteten. Turbo gir dermed et falskt inntrykk, men det er verre enn som så siden variasjoene mellom hvert eksemplar av skjermkort vil bidra til at to eksemplar kan ha flere prosent forskjellig ytelse. Men dette er ikke bare et problem for kjøpere, det vil også bli vanskligere for utviklere siden et kort sin faktiske regnekraft vil variere under spilling. Utviklere ønsker å tilby høyest mulig visuell kvalitet med en jevn og akseptabel bildeflyt, jeg er redd at en konsekvens av dette vil bli at spill blir dårligere til å skalere. Techpowerup har målt hvordan ytelsen også faller under bruk: Endret 21. oktober 2012 av efikkan 1 Lenke til kommentar
Rudde Skrevet 22. februar 2013 Del Skrevet 22. februar 2013 Ifølge nVIDIA skal denne støtte 4 skjermer, hvordan kan den gjøre det med kun 3 porter? Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå