CFD Skrevet 3. april 2003 Del Skrevet 3. april 2003 SKJERP DERE! Der får økt ytelse hvis dere bruker det integrerte skjermkortet og det er det mange OEM`s som bruker og dermed så får dere økt ytelse. Dette var da en fryktelig generel utalelse. At mange OEM's bruker det integrerte grafikkortet gir da ikke meg bedre ytelse med Dual ram? Er fult klar over at man med IGP får betydelig ytelsesøkning med Dual ram som vist her, men dette går da godt fram i kommentarene? Har gitt denne ytelsestesten før, men repetering skader ingen. Oppsumering: -Bruker du det integrerte grafikkortet er dual ram en nødvendighet. Eller kansje det er på tide å kjøpe seg et grafikkort. -For en uten IGP og som kjører minnet synnkront eller raskere en Fsb er ytelsesøkningen minnimal.(0-3% -se link over) Vell jeg kjører en rimelig lav FSB (162fsb i skrivende øyeblikk) Men det er pga at jeg har en Shuttle XPC og der kan jeg ikke stille multiplier eller Vcore. Har prøvd og lukke de forskjellige broene ,men uten hell ,men over til det jeg egentlig skulle si. Var kanskje en litt forhastet konklusjon og poste etter bare og ha sett side nr1 av denne posten. Jeg er bra så sinsykt lei av at personer ikke tenker på at man øker minnetilgangen fra 64bit til 128bit. Og 128bit SDram er jo raskere en 64bit DDRram så det sier vell litt om hvor stor forskjell det egentlig er. (Det var ihvertfall slik med de gamle GF2mxène , har ikke sett noe skjermkort med 64bit minnetilgang siden den gang) Jeg fikk økt mem bandwith med omkring 150poeng og jeg synes det er ganske bra jeg. Det integrerte skjermkortet tar jo litt av båndbredden og det blir det jo kompensert for når man bruker 128bit minnetilgang. Og Simen1: Jeg har testet MYE med Single VS Dual og diverse timings og hastigheter. Har vell omkring 100 resultater hvor jeg har kjørt 3dmark hver eneste gang. Hvis du gir meg noen timer så skal jeg finne dem fram. Og dette om at det er dokumentert hvilke minnekanaler som gir 128bit ram tilgang er det ikke slik på alle Nforce2 HK`er da? Jeg har iallefall 2stk MSI Nforce2 kort og der står det hvilke slots jeg skal bruke for og få 128bit og hva jeg skal bruke for og få 64bit,.. Lenke til kommentar
Simen1 Skrevet 3. april 2003 Del Skrevet 3. april 2003 Var kanskje en litt forhastet konklusjon og poste etter bare og ha sett side nr1 av denne posten. Jeg er bra så sinsykt lei av at personer ikke tenker på at man øker minnetilgangen fra 64bit til 128bit. Og 128bit SDram er jo raskere en 64bit DDRram så det sier vell litt om hvor stor forskjell det egentlig er. (Det var ihvertfall slik med de gamle GF2mxène , har ikke sett noe skjermkort med 64bit minnetilgang siden den gang) Et godt eksempel på potensialet til dobbel båndbredde er de gamle Geforce GTS SDR og Geforce GTS DDR, men ikke helt sammenlignbart siden GPU'en hadde full tilgang til hele båndbredden og ikke strupes av en FSB. Eksemplet med 128bitSDR vs. 64bitDDR er ikke helt korrekt da det er minimale forskjeller mellom de to dersom de er likt klokket osv. Jeg fikk økt mem bandwith med omkring 150poeng og jeg synes det er ganske bra jeg. Det integrerte skjermkortet tar jo litt av båndbredden og det blir det jo kompensert for når man bruker 128bit minnetilgang. 150 poeng i hva da? og hvor mange % vil det si? Og Simen1: Jeg har testet MYE med Single VS Dual og diverse timings og hastigheter. Har vell omkring 100 resultater hvor jeg har kjørt 3dmark hver eneste gang. Hvis du gir meg noen timer så skal jeg finne dem fram. Supert! Og dette om at det er dokumentert hvilke minnekanaler som gir 128bit ram tilgang er det ikke slik på alle Nforce2 HK`er da? Jeg har iallefall 2stk MSI Nforce2 kort og der står det hvilke slots jeg skal bruke for og få 128bit og hva jeg skal bruke for og få 64bit,.. Jo, akkurat det er vel dokumentert, men så vidt jeg forstår er det ikke så bra dokumentert hva som skjer med "rare" kombinasjoner som f.eks 2x256MB på den ene kanalen og 512MB på den andre, og 1x256MB på den ene og 1x512MB på den andre, og om minnekanalene er så uavhengige at man man kjøre den ene på 166MHz og den andre på 200MHz, om man kan ha forskjellige timinger på de to kanalene osv. Lenke til kommentar
P@rm@nn Skrevet 3. april 2003 Del Skrevet 3. april 2003 Jo, akkurat det er vel dokumentert, men så vidt jeg forstår er det ikke så bra dokumentert hva som skjer med "rare" kombinasjoner som f.eks 2x256MB på den ene kanalen og 512MB på den andre, og 1x256MB på den ene og 1x512MB på den andre, og om minnekanalene er så uavhengige at man man kjøre den ene på 166MHz og den andre på 200MHz, om man kan ha forskjellige timinger på de to kanalene osv. Med 2*256 i ene minnekanalen og 512mb i den andre får du 512Mb i dual ram og 512 i single ram. Med 1*256 i ene sloten og 512 i en annen slik at de danner dual ram så får du 512Mb dual ram(2*"laveste brikke=2*256=512Mb) og 256 på single ram). Man kan ikke ha forskjellige timinger og klokkefrekvens på de forskjellige kanalene. Kilder er Anandtech og egen testing. Lenke til kommentar
CFD Skrevet 3. april 2003 Del Skrevet 3. april 2003 Jeg fikk økt mem bandwith med omkring 150poeng og jeg synes det er ganske bra jeg. Det integrerte skjermkortet tar jo litt av båndbredden og det blir det jo kompensert for når man bruker 128bit minnetilgang. 150 poeng i hva da? og hvor mange % vil det si? Vell det betyr 150mbs i ekstra Membandwith i sandra.. Det er det programmet jeg bruker til og teste hva som er mest efektivt. Lenke til kommentar
frans Skrevet 4. april 2003 Del Skrevet 4. april 2003 Det ville vært veldig interresant om noen av dere med Nforce2 hovedkort kunne gjort en mini-test* og postet resultatet her. * Test flest mulig kombinasjoner av følgende (med ellers samme oppsett og CPU-hastighet): A. 133 vs. 166 vs. 200 MHz FSB. B. PC2100 vs. PC2700 vs. PC3200 (med samme timinger) C. Dual vs. Single channel (f.eks 2x256MB vs 1x512MB) Så kunne vi sett hva folk her klarer å finne ut. Oj. Det er ikke lite å be om. Vil tru det tar uker, hvis man skal bruke forskjellige benchmark-programmer. Har selv kjørt tester på -Test CPU -Wintune (noe dårlig på 3D og kanskje noe unøyaktig på memory?) -Winbench 99 (disk winmark) -Sisoft Sandra 2000 -Sisoft Sandra 2003 -3DMark 2000 -3DMark 2001SE -PCMark 2002 De 4 første +3DMark2000 har jeg brukt for å sammenligne med min gamle datamaskin. Som jeg her nevnt tidligere i tråden, måler ikke Sisoft Sandra 2003 den faktiske minnebåndbredden, men måler faktisk bare CPU båndbredden når det gjelder memorytestene. Man kan si at Sisoft Sandra kun støtter synkron minnebuss. Programmet er derfor ikke det beste til å teste de ulike kombinasjoner som etterspørres. Tror derfor ikke at en med sandra vil få målbar forskjell mellom PC2100, PC2700 og PC3200 dersom FSBen er på 133 mhz. Det er kun de rene CPU testprogrammene og 3DMark som ikke er helsyntetisk benchmark program. Et relevant spørsmål er "hvilket testprogram skal brukes?" Lenke til kommentar
frans Skrevet 4. april 2003 Del Skrevet 4. april 2003 Forresten, tråden startet med om det er poeng med dobble minne kanaler på AMD-platformen? Nå har vi brukt mye krefter på å diskutere om det er forskjell på dual-ram vs. singel eller ikke. Noen har klart å måle målbare forskjeller, andre ikke under visse forutsetninger (som bruk av ulike testprogrammer). Man kan også ta i betrakning hva man skal bruke datamaskinen til. Skal den bare brukes til vanlige kontorapplikasjoner blir svaret et klart NEI da dette krever først og fremst stiller krav til nok minne og harddisk. Under disse forhold er selv en AMD XP2500+ å betrakte som og skyte "spurv med kanoner". Mens for tunge 3D applikasjoner og heftig multimedia bruk stiller seg annerledes med større krav til hele datamaskinen. Man kan også dra inn kostnader. Hvis dual ddr ikke koster mer, så hvorfor ikke kjøpe det kan man spørre? Det vil være fremtidsrettet i tilfelle AMD kommer med en mer intelligent K7 prosessor (ala Intels HT). Kan hende AMD har mer på lur enn "bare" Barton på 200 mhz FSB. Lenke til kommentar
Simen1 Skrevet 4. april 2003 Del Skrevet 4. april 2003 Forresten, tråden startet med om det er poeng med dobble minne kanaler på AMD-platformen? Jo, det var der det startet, og svaret på det var at det kun lønner seg når man skal bruke det integrerte skjermkortet. Men tråden har jo utviklet seg til en debatt om det er noe mer poeng med doble minnekanaler. Man kan også dra inn kostnader. Hvis dual ddr ikke koster mer, så hvorfor ikke kjøpe det kan man spørre? Det vil være fremtidsrettet i tilfelle AMD kommer med en mer intelligent K7 prosessor (ala Intels HT). Kan hende AMD har mer på lur enn "bare" Barton på 200 mhz FSB. Doble minnekalaler vil alltid koste mer fordi både chipsettene og hovedkortene vil koste mer å produsere enn de med enkle minnekanaler, men har du først kjøpt et kort med doble kanaler så koster det selvfølgelig ikke noe ekstra å kjøpe to halvparten så store minnebrikker. Ellers så tror jeg ikke K7-plattformen blir utviklet videre. K8 /hammer er jo på trappene, og da ser vi nok samme "utvikling" som K6-serien hadde da K7 ble lanser. (dvs. det stoppet nesten helt og selv om det ble lagd et fåtall K6-2+ og K6-III+ så var det ikke mange som så noe til de på markedet) Lenke til kommentar
Simen1 Skrevet 4. april 2003 Del Skrevet 4. april 2003 Oj. Det er ikke lite å be om. Vil tru det tar uker, hvis man skal bruke forskjellige benchmark-programmer. Vel jeg sa bare "flest mulig" og om man tester alle så er det ikke mer enn 18 tester. Det beste er vel å teste Sisoft sandra's Minne-tester (int/FP/cache), PCmark 2002 memory og 3Dmark2001SE siden de to førstnevnte vil måle den største økningen og sistnevnte vil måle en mer representativ økning i minne-intensive programmer (spill). Hver test-serie tar vel omentrent 20 minutter, og hver restart tar ca 5 minutter med endring av innstillinger i bios og ut og inn med minnemoduler. Om man da tester alle 18 kombinasjonene vil det ta ca 7,5 timer. (ikke uker) Som jeg her nevnt tidligere i tråden, måler ikke Sisoft Sandra 2003 den faktiske minnebåndbredden, men måler faktisk bare CPU båndbredden når det gjelder memorytestene. Alle programmer (inkl Sisoft Sandra) kjører i selve CPU'en. (Hvor ellers skulle de blitt kjørt?) Dvs. at minnebåndbredden mellom ram og programmene aldri kan overstige båndbredden til hverken FSB eller ram. Hvis man kjører synkron FSB/ram, har en minnekanal og har integrert skjermkort som bruker system-minnet, så "spiser" skjermkortet av minnebåndbredden som CPU'en ellers kunne brukt. Når man da får doble minnekanaler så får skjermkortet en hel minnekanal for seg selv, og vil ikke "spise" av båndbredden til CPU på samme måten. DET er grunnen til ytelseøkningen ved bruk av integrert grafikk. Når man ikke bruker integrert grafikk, så vil forbedringen bli mye mindre (ala 5% pga litt flere buffere osv, IKKE pga økt båndbredde mellom minnet og programmene, fordi den har egentlig ikke økt i det hele tatt) Lenke til kommentar
frans Skrevet 4. april 2003 Del Skrevet 4. april 2003 PS! ikke alle kan sitte 7,5t i strekk for å teste forskjellige konfigurasjoner, men må gjøre det over flere dager hvis man skal gjøre noe annet også (lese e-post, surfe osv, og da må man bruke scandisk og system-restore for å få ellers like testforhold). Ellers så tror jeg ikke K7-plattformen blir utviklet videre. K8 /hammer er jo på trappene, og da ser vi nok samme "utvikling" som K6-serien hadde da K7 ble lanser. (dvs. det stoppet nesten helt og selv om det ble lagd et fåtall K6-2+ og K6-III+ så var det ikke mange som så noe til de på markedet) Har selv ventet lenge på Hammer-plattformen. Men når man stiller spørsmålet: Har vi egentlig bruk for Hammer? er ikke svaret like opplagt om man egentlig bør vente på Hammer. Man kommer langt med en PII 300 mhz med 512 MB ram og 6G harddisk til å kjøre kontorapplikasjoner. Og kontordatamaskinmarkedet utgjør en vesentlig størrelse av total markedet. Avstanden her øker imidlertid mht. krav til hardware i forhold til 3D-applikasjoner, multimedia, spill mm. Skal man ha det nyeste av det nye (winXP/OfficeXP) for å skrable ned bokstaver vil det være behov for oppgraderinger. Man kan også spørre hva Hammer-plattformen vil være egnet til? Til kontorapplikasjoner vil det være å skyte spurv med kanoner. Da vil dagens K7 plattform holde i mange år framover. Ut fra dette vil det etter mitt syn være lite strategisk lurt å satse alt på Hammer-plattformen og fase ut dagens K7-plattform umiddelbart. For potensielle Hammer-brukere vil det jo være optimalt om alle gikk over til Hammer pga. lavere produksjonskostnader på sikt. Det vil være liv for Barton i mange år fremover, dersom AMD også kan hoste opp en HT-prosessor teknologi som Intel, i sær for nForce2 plattformen. Lenke til kommentar
Simen1 Skrevet 4. april 2003 Del Skrevet 4. april 2003 Det vil være liv for Barton i mange år fremover, dersom AMD også kan hoste opp en HT-prosessor teknologi som Intel, i sær for nForce2 plattformen. Det vil sikkert være noen som vil oppgradere sine SocketA-systemer det nærmeste året, men bortsett fra det for jeg overgangen skal gå ganske raskt. Det er jo en jevn strøm av folk som kjøper nytt så hvorfor gå for et gammelt SocketA-system når det kommer Socket 754-hovedkort som er bedre på mange måter, særlig med tanke på oppgraderingsmuligheter? Athlon (Tbred/barton) vil nok bli solgt i en overgangsperiode (særlig til vanlige sluttbrukere), men jeg regner med de fleste her på forumet kommer til å velge Opteron eller Athlon 64 ved neste innkjøp. Som du sa tidligere: Jeg ser ikke noen grunn for å gå for noe dårligere når det ikke koster stort mere å gå for noe bedre. Når det gjelder HyperThreading (antar det var det du mente med HT), så kommer det neppe på Athlon-serien. Grunner: Nforce 2 har fortsatt kun offisiell støtte for 166MHz FSB (og vil derfor aldri få mer offisiell minnebåndbredde enn 166MHz DDR-ram kan gi) Det blir ingen Nforce3 for SocketA, men Nvidia "Crush" for Hammer kan muligens bli kalt Nforce3. Hverken VIA kommer jo med KT600 med støtte for 200MHz FSB men jeg regner med det blir et "duron-produkt" ut dette året. Utviklingen av arkitekturen på selve K7-kjernen er så så godt som død. Det er kun prosess-optimaliseringer for å tyne ut litt flere MHz som har skjedd de siste 6-8 mnd, siden barton-kjernen var ferdig utviklet av ingeniørene. HyperThreading krever også en god del ingeniører, tid(minst ~1år?) og endringer av K7-kjernen, og det gidder ikke AMD. Levetiden til den eventuelle K7-HT CPU'en vil bli svært begrenset, og da kan man spørre seg om det er verd pengene å utvikle HT på K7 når likevel alle entusiast-kundene likevel kommer til å kjøpe Opteron pga minnebåndbredden, x86-64 osv. Bedriftskunder og ola nordmann kommer til å kjøpe det som har de feteste slagordene (les: 64-bit støtte) og som har best oppgraderingsmuligheter. Jeg er enig i at HyperThreading er en genial teknologi, som kan gjøres enda mer effektiv, men den eneste fornuftige vil være å utvikle dette for Opteron. En annen genial ting ville jo også vært å lage to CPU'er per chip, slik som SUN "Niagara" (UltraSparc VII?) kommer til å få. På en opteron vil det forresten være mye enklere å implementere dual-CPU pga HyperTransport (HT). Lenke til kommentar
ØysteinI Skrevet 4. april 2003 Del Skrevet 4. april 2003 Masse greier, som jeg ikke vil gjenta siden posten da blir veeeldig lang. Men HT på vil gi et betydelig mindre utslag Opteron/Athlon64 nettopp pga. den integrerte minnekontrolleren( heretter IM ). Grunn ? Bakgrunnen for HT og IM er jo som forklart tidligere i tråden at CPU bruker store deler av tiden sin på å vente på data som ikke ligger i cachen (dvs leses fra minne / disk). Og der er ikke så rent lite tid som blir sløst bort pga dette. Faktisk er vel noe sånt som 50% av tiden bare sløst bort... La oss ta følgende eksempel : Vi har en CPU X hvor cachen har en hit-rate på 99%( = i 99% av tilfellene ligger de nødvendige dataene i cachen) og vi skal utfør 100 instruksjoner på denne. For enkelhetens skyld, så ser vi ikke noe forskjell på L1 og L2 cachene og at det er 2 hz latency mot cachen. Hver instruksjon tar så 1hz å utføre. De 99 første instruksjonene tar da 99x 2hz = 198hz å utføre. Den siste derimot, den bommer vi med ... og må hente data fra minnet. Da blir det en hz ut til FSB, 1hz på å traversere FSB, 1hz for å traversere gjennom NB. Så har vi CAS-lantecy/RAS/osv osv, 7-9hz. Data sendes tilbake til NB på 1hz og vi har i tillegg en hz forsinkelse fra NB mottar data fra minnet til det kan gjøres klar på FSB. 1 hz på å traversere FSB tilbake og 1 hz inn til kjerna. Sum = 14-16hz . Men husk at dette er hz sett ut i fra FSB's frekvens ... IKKE kjernas. La oss si at dette var en AMD XP2600+, som kjører på 15,5x166Mhz = 2.083Mhz. Da ville kjerna måtte vente |15,5x14| + 1 hz = 218 hz på at den siste instruksjonen skulle bli utført, mot 198hz for de 99 første !! Med andre ord tok 1 instruksjon like lang tid som 99 andre. Noen som ser hvorfor cachene er så enormt viktige for ytelsen til IA32-cpuer idag? (Dette er en veldig forenkling, men det blir bortimot umulig å si noe som helst om slike emner uten kraftig generalisering og forenklinger. Det er prinsippene som teller her.) DETTE er bakgrunnen for at HT og IM ble kokt i hop, og begge har som mål å redusere dette sløseriet. HT gjør det enkelt og greit bytte tråd den eksekverer, så når Tråd1 venter på data, kan Tråd2 kjøre (veldig enkelt forklart). IM gjør det ved at det tar kortere tid for Tråd1 å få svar tilbake fra ram'en. Hvis vi implementerer HT og IM i samme kjerne, vil jo Tråd2 få langt kortere tid å eksekvere på, før Tråd1 er klar igjen => dårligere utnyttelse. NB: jeg sier ikke at IM vil fullstendig negere effekten av HT, men den vil begrense kraftig. En annen ting som vil suge litt om vi hadde hatt HT og IM på samme brikke er strømforbruket. Vi ser jo at P4 3,06Ghz har et effektforbruk på ca 25% høyere enn en tilsvarende klokket P4 uten HT. Dette pga at kjerna står mindre og kokkelimonker. Med IM i tillegg ville jo den vært aktiv enda mer => enda større effektforbruk. Da begynner det å bli hissige vifter man må ha montert på for å ikke få en "kjerne-nedsmelting" i PC'n Jeg er enig i at HyperThreading er en genial teknologi, som kan gjøres enda mer effektiv, men den eneste fornuftige vil være å utvikle dette for Opteron. En annen genial ting ville jo også vært å lage to CPU'er per chip, slik som SUN "Niagara" (UltraSparc VII?) kommer til å få. På en opteron vil det forresten være mye enklere å implementere dual-CPU pga HyperTransport (HT). Jeg tror ikke noen av dagens x86 eller x86-64 ville vært spesielt brukbare med multiple kjerner. Grunnen? Rett og slett så er de designet for å være helt råe på single tråder. Videre er IA32-spesifikasjonen så gammel og egentlig mangelfull for dagens prosessorteknologi, at AMD og Intel har måtte gjøre helt sinnsyke ting for å få opp ytelsen. Blant annet OOO(=OutOfOrder)-execution er et godt eksempel på dette. Man tar x86 instruksjoner inn, gjør de om til en mengde RISC-lignende operasjoner, utfører dem og transformerer resultatet av dem slik at det ser ut som om en vanlig x86 instruksjon ble utført. Det er da ENORMT mye transistorer som brukes på dette og andre ting... og som vi vet bruker transistorer strøm. Mange transistorer => mye strøm => mye varme. En kjerne bruker 70-100W .. to kjerner bruker da 140-200W, 4 kjerner; 280-400W. Dette begynner å bli MYE. Skulle likt å se den kjølern som klarer å ta unna for 400W. DET er jetflyvifte det Lenke til kommentar
Simen1 Skrevet 5. april 2003 Del Skrevet 5. april 2003 Vel, nå er ikke Hz og klokkesykluser det samme, men bortsett fra det er jeg helt enig. Forresten hadde vært en fristende ide for fremtiden å ha en maskin med disse to prosessorene: SUN UltraSpark VII og Opteron. Og samtidig hadd et operativsystem som takler begge de to, og kan styre x86-programmer til den ene og UltraSpark-programmer til den andre. Det blir nok aldri gjennomført, men ytelsen og arkitekturen til Ultraspark VII frister voldsomt! Tenk å ha en sånn maskin med støtte for populære spill... Kunne sikkert kjørt 3Dmark2003 i software-emulering og likevel grusebanket en P4/Opteron med Geforce XF og Radeon 9700 i ytelse:D Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå