Fenixen Skrevet 30. november 2009 Del Skrevet 30. november 2009 føler ikke det er som før.. Det at kkonsollene nå har høyest inntjening har bremset grafikkutviklingen på pc noe helt enormt. Før var det jo 2 helt forskjellige ligaer. Har en kraftmaskin selv og i feks Batman: Arkham asylum er jo pcen suveren.... så jeg er jo enig at pc er bedre.. Lenke til kommentar
ArneJ. Skrevet 30. november 2009 Del Skrevet 30. november 2009 Crysis er et veldig dårlig eksempel. Grafikken der er ikke spesielt god, men spillet er veldig ressurskrevende.Nyeste CryEngine har ikke mulighet til å kjøre gode detaljer på dagens konsoller. Hvordan kan du si at Crysis spillene og da spesielt Crysis Warhead ikke har spesielt bra grafikk når en unison spill og hardwareverden er enig i at det enda ikke er noen andre spill som har i nærheten så god grafikk? Det blir ikke brukt som referanse for maskinvare bare fordi det er tungt å kjøre men fordi de har best grafikk av spillene på markedet. De er litt for dårlig optimalisert, men som sagt så er det ikke noen spill som ser så bra ut på mitt 5870 kort som disse spilla den dag i dag når man slår alt på fullt. Farcry 2 feks. ser jo elendig ut i forhold, blasse farger, lav oppløsning på teksturer osv. Dog er det veldig mye bedre programmert for flere kjerner og sli og crossfire enn Crysis. Det nye Cod Mw2 ser utrolig mye dårligere ut enn Crysis, men her har man tydeligvis gått for et kompromiss mellom ok grafikk og kjørbarhet/skalering på eldre maskinvare. Lenke til kommentar
Theo343 Skrevet 30. november 2009 Del Skrevet 30. november 2009 (endret) "Bra grafikk" og en buggy og unødvendig tung engine er tilfellet med Crysis. Endret 30. november 2009 av Theo343 Lenke til kommentar
ATWindsor Skrevet 30. november 2009 Del Skrevet 30. november 2009 Cell var veldig oppskrytt før den kom, så at det nå har vist seg at den ikke levde opp til forventningene er ingen overraskelse. Om man forventer det sony lirer av seg, så vil ingen playstationer leve opp til forventnigene, slik var det når PS1 kom, når PS2 kom, og når PS3 kom, latterlige påstander om enormt høy ytelse fra Sonys side, når produktet kommer er det omtrent på linje med konkurrentene og dårligere enn de beste PCene på spillfronten. Som du sier, det var det samme med Cell, folk amste om en revolusjon og greier, det ble det ikke overraskende ikke. AtW Lenke til kommentar
Sajkow Skrevet 30. november 2009 Del Skrevet 30. november 2009 Skjønner ikke helt hva som er feil med Crysis. Det funket på min oldings pc med pentium 4, 7600GT og 2GB DDR 333MHz ram, men at jeg hadde 23+fps med alt på max på min nye rigg betyr vel enkelt og greit at spillet var fremtidsrettet angående hardware. Man må jo skjønne at Crysis er et banebrytende spill. Det har instillinger for alt av gamle drittpcer til og med de nyeste monstrene. Det at det ikke funket ved 60+fps på mitt GTX280 og qx6850 er vel i bunn og grunn en indikasjon på at max instillingene ikke er ment for slik hardware Lenke til kommentar
Revox Skrevet 30. november 2009 Del Skrevet 30. november 2009 Bør vel egentlig ikke komme som noen bombe at motoren i Crysis er temmelig upolert. Dårlig optimalisert for ATI. Og som nevnt over meget tung å drive iforhold til hva den gir tilbake. De fleste reviews av nyere dato spesiellt TH og Anandtech sine presiserer dette når de sammenligner ATI/Nvidia i dette spillet. Lenke til kommentar
TheMaister Skrevet 30. november 2009 Del Skrevet 30. november 2009 (endret) Dere tolker denne artiklen helt feil. Her er det IBM sin HPC-avdeling som ikke kommer til å videreutvikle Cell for HPC. Cell ble i utganggspunktet laget som en multimedia-prosessor, bestilt av Sony og Toshiba. I HPC-markedet kommer nok Cell til kort mot den nye generasjonen av GPUer fokusert mot HPC, som for eksempel nVIDIA Fermi. fikk de utnyttet alle 8 kjernene i denne cpuen tro?? Jeg har iallefall skrevet programmer som utnytter alle 6 SPE'ene tilgjengelig i PS3... Tolker dette som om PS3 feil valg av innmat er offisiell. Kort sagt: Phail on paper. Hadde PS3'en blitt mer populær for spillutviklere, er det mulig at Cell ville fått en annen ending (evt. en senere ende.) Langt derifra. Hva spilleutviklere mener spiller ingen rolle for HPC-markedet. Cell kommer fortsatt til å bli produsert for PS3, og hvis Sony bestiller en ny variant av Cell til en eventuell PS4 så ser jeg ikke noen problemer for IBM å lage dette. Det var tross alt Sony som bestilte den originale Cell prosessoren til PS. Hvordan utnytter du SPE'ene i PS3? Er det et spesielt interface du må jobbe opp mot, eller kan du programmere noe ala C/pthreads som om PC-en din bare var multicore? Hvis det er tilfelle har jeg lyst å torturere den med litt kode jeg har liggende . Endret 30. november 2009 av TheMaister Lenke til kommentar
HKS Skrevet 30. november 2009 Del Skrevet 30. november 2009 Hvordan utnytter du SPE'ene i PS3? Er det et spesielt interface du må jobbe opp mot, eller kan du programmere noe ala C/pthreads som om PC-en din bare var multicore? Hvis det er tilfelle har jeg lyst å torturere den med litt kode jeg har liggende . For Linux sin del så bruker jeg libspe, som er en del av Cell SDK. Trådene du oppretter som kjører på SPEene ligner veldig på pthreads. Jeg skriver i C, men det er også fult mulig å bruke C++. Programmet du ønkser å kjøre på en eller flere SPEer blir lastet opp i en SPE, og det startes en såkalt SPE context. På PPE pleier jeg å ha en egen tråd som deler ut arbeid til SPEene, kan for eksempel bruke hardware mailboxer, også flere metoder. Du initierer derfra DMA-operføringer inn i SPEene, utfører beregninger på data, og kopierer tilbake. Kan slenge inn kode for hvordan man starter SPEene... static void init_cell(mjpeg_config_t *config, int num_spus) { int i; unsigned int createflags = SPE_EVENTS_ENABLE; /* Create Event handler */ event_handler = spe_event_handler_create(); spe_program_handle_t* program = spe_image_open("spu_mjpeg"); for (i=0; i<num_spus; ++i) { speargs[i].config = config; speargs[i].spe = spe_context_create(createflags, NULL); spe_program_load(speargs[i].spe, program); int ret = pthread_create(&sputhread[i], 0, run_mjpeg_spe, &speargs[i]); if(ret) { perror("pthread_create"); exit(1); } spe_event_unit_t eu = { .events = SPE_EVENT_OUT_INTR_MBOX, .spe = speargs[i].spe .data.ptr = 0, }; spe_event_handler_register( event_handler, &eu ); } } Lenke til kommentar
MistaPi Skrevet 1. desember 2009 Del Skrevet 1. desember 2009 Grafikk generelt er i dag langt bedre på PC. Man kan få en god del bedre bildekvaliet med høyere oppløsning, AA og AF, men ellers er så og si alle stor budsjett PC spill i dag dessverre multiplattform med som oftes lite ekstra grafikk innhold på PC versjonen. Crysis er et veldig dårlig eksempel. Grafikken der er ikke spesielt god, men spillet er veldig ressurskrevende. Selv mener jeg at Crysis er meget pent og er ikke tungdrevet i forhold til hva det gir/gjør. Lenke til kommentar
ATWindsor Skrevet 1. desember 2009 Del Skrevet 1. desember 2009 Grafikk generelt er i dag langt bedre på PC. Man kan få en god del bedre bildekvaliet med høyere oppløsning, AA og AF, men ellers er så og si alle stor budsjett PC spill i dag dessverre multiplattform med som oftes lite ekstra grafikk innhold på PC versjonen. Crysis er et veldig dårlig eksempel. Grafikken der er ikke spesielt god, men spillet er veldig ressurskrevende. Selv mener jeg at Crysis er meget pent og er ikke tungdrevet i forhold til hva det gir/gjør. Det er jo gjerne mer detljerte texturer også. Og ofte bedre effekter. men jeg er enig i at det definitivt hadde vært mer å hente, desverre holdes PC-grafikken per i dag tilbake av konsollenes yteevne. AtW Lenke til kommentar
MistaPi Skrevet 1. desember 2009 Del Skrevet 1. desember 2009 Det er jo gjerne mer detljerte texturer også. Og ofte bedre effekter. En del spill har dette ja, men som oftes med ingen markant store forbedringer. Noe jeg siktet til med "lite ekstra grafikk innhold" Lenke til kommentar
Anders Jensen Skrevet 1. desember 2009 Del Skrevet 1. desember 2009 (endret) Jeg er veldig skeptisk til om Intel klarer å skalere Larrabee oppover. Skal de ha 48+ kjerner, og kjøre cache coherens protokoll mellom alle kjernene så går fort veldig mye av båndbredden til dette. klarer enda ikke helt å skjønne hvorfor Intel drar x86-dinosauren inn i GPU-verden. CC er en helt klar party stopper for skalering. Så klar at det er vanskelig å tro at de ikke har tenkt på det. Ikke umulig at de låner litt fra de nyeste Cray og SGI maskinene som i prinsippet har de samme skaleringsproblemene som Larrabee og andre massivt parallelle systemer, alt er bare større. Det er ikke umulig at de i fremtiden vil gjøre Larrabee om til en klynge av mindre cache coherent enheter, som ikke er coherent mellom hverandre men likevel har global adressering i likhet med tidligere nevnte supercomputere. Hva x86 angår så er jeg helt enig. Regner med markedsstrategiske vurderinger er det eneste som er lagt til grunn. De regner vel med at SIMD enhetene vil veie opp for x86 sine ulemper og med litt forsprang på CMOS fronten så er det mye rart som går greit... må si jeg håper de feiler miserabelt, men lærer mye nyttig om minnemodellen. Endret 1. desember 2009 av Anders Jensen Lenke til kommentar
Anders Jensen Skrevet 5. desember 2009 Del Skrevet 5. desember 2009 http://realworldtech.com/page.cfm?ArticleID=RWT120409180449 Og der var Larrabee også kansellert ser det ut til. Det var vel ikke noe fjernere enn å tro på julenissen at cache coherent x86 skulle kunne hevde seg mot GPU... Lenke til kommentar
Theo343 Skrevet 5. desember 2009 Del Skrevet 5. desember 2009 (endret) What? this is big... *må lese* Men ja hele tanken virket merkverdig. Endret 5. desember 2009 av Theo343 Lenke til kommentar
HKS Skrevet 5. desember 2009 Del Skrevet 5. desember 2009 http://realworldtech.com/page.cfm?ArticleID=RWT120409180449Og der var Larrabee også kansellert ser det ut til. Det var vel ikke noe fjernere enn å tro på julenissen at cache coherent x86 skulle kunne hevde seg mot GPU... Jepp, AnandTech skriver også om det... http://www.anandtech.com/weblog/showpost.aspx?i=659 Var vel strengt talt bare et tidsspørsmål. Larrabee hadde neppe hatt noe å stille opp med mot Fermi-baserte GPUer. Lenke til kommentar
Anders Jensen Skrevet 5. desember 2009 Del Skrevet 5. desember 2009 Det er egentlig helt sinnssykt at Larrabee kom så langt som den gjorde. Det må jo ha vært på hundrevis av ingeniører internt i Intel som forsto fra dag en at dette var galskap. Cell var minst en tiganger mer realistisk som high-throughput konsept. Lenke til kommentar
Theo343 Skrevet 5. desember 2009 Del Skrevet 5. desember 2009 (endret) Det hele kan ha vært et spill for galleriet, all PR er positiv PR om man snakker varmt om meget lovende produkter over tid. Det kan ha en tendens til å hype opp aksjepriser og den slags. Mange som har tjent mye penger på å prate om produkter som aldri egentlig er planlagt lansert. Endret 5. desember 2009 av Theo343 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå