Redaksjonen Skrevet 5. september 2005 Del Skrevet 5. september 2005 For 26. året på rad gikk Eurographics-konferansen av stablen i forrige uke i Dublin. Her får du en smakebit på hva som venter oss på grafikkfronten. Les mer Lenke til kommentar
ExcaliBuR Skrevet 5. september 2005 Del Skrevet 5. september 2005 (endret) Hmm... Cell har vel ikke mer enn 250GFLOP (Med syv kjerner/SPU)? Finfin artikkel dog =) Endret 5. september 2005 av ExcaliBuR Lenke til kommentar
Stigma Skrevet 5. september 2005 Del Skrevet 5. september 2005 (endret) Fra Nvidia: Framtidens GPUer vil bruke midnre enn 500W .... Ja det håper jeg da inderlig !! Litt av et kjernekraftverk som vil trengs for å drive chippene om to tiår ser det ut til. også: De regner med at GPUen vil ha en overflate på 600mm^2. Yikes, det er STORT! Det hadde blitt et challange å bare få plass på det i et vanlig PCI-E kort. Selvfølgelig har vi vel neppe samme formfaktorer i 2015 som i dag da, men det er likevel ikke snaut =) Det fine er vel at du får en svær overflate til å kjøle ned, men det trenger du jo hvis vi snakker om nær 500W på en GPU... -Stigma EDIT: ikke 2025 men 2015 Endret 5. september 2005 av Stigma Lenke til kommentar
Explorer Skrevet 5. september 2005 Del Skrevet 5. september 2005 Fra Nvidia: Framtidens GPUer vil bruke midnre enn 500W .... Ja det håper jeg da inderlig !! Litt av et kjernekraftverk som vil trengs for å drive chippene om to tiår ser det ut til. også: De regner med at GPUen vil ha en overflate på 600mm^2. Yikes, det er STORT! Det hadde blitt et challange å bare få plass på det i et vanlig PCI-E kort. Selvfølgelig har vi vel neppe samme formfaktorer i 2025 som i dag da, men det er likevel ikke snaut =) Det fine er vel at du får en svær overflate til å kjøle ned, men det trenger du jo hvis vi snakker om nær 500W på en GPU... -Stigma Utifra artikkelen er det vel i 2015 de ser for seg slike chiper. Men uansett, er jo helt sykt å ha skjermkort som kjører på 6GHz å krever 4-500W. Ser for meg nV GeForce 23, leveres med ferdigmontet fasekjøling og diesel-generator. :!: Lenke til kommentar
Anders Jensen Skrevet 5. september 2005 Del Skrevet 5. september 2005 (endret) Veldig enig med Steve Collins fra Havok. GPU er ikke lengre det området hvor radikale ting skjer. Det meste handler bare om å legge til flere og fetere pipelines som en nærmest direkte konsekvens av at Moores lov holder i noen år til. Ok det er litt overforenklet, men likefullt essensen tror jeg. Et tema som ikke kom frem her er at nettverket og regnekraften i servere er en betydelig flaskehals i dag for online spill av typen WOW. Det er behov for kraftigere prosessorer til dette og det er behov for et mer intelligent nettverk for å kunne multicaste informasjon til alle spillerne med så lav forsinkelse som mulig. ATM ende til ende på nettverket ville vært helt genialt for dette. Her er det suveren multicast (som avlaster server og nettverksbåndbredde enormt) og QoS (Quality of Service, altså garantier for virkelig forsinkelse og båndbredde). Multicore prosessorer vil vel gjøre en grei jobb for å øke ytelsen på disse serverne. Det er mye parallellitet i den jobben de gjør, men ved store "raid" (f.eks hvis at par hundre spillere sloss direkte med og mot hverandre på samme plass i denne virtuelle verdenen) så vil parallelliteten reduseres betraktelig fordi det er så mye samspill mellom alle spillerne. Da er selvfølgelig favorittarkitekturen min (IA64) noe en bør ha i bakhodet, men la oss ikke gjøre det til et tema i denne tråden også. Edit: Stigma formulerte i posten rett nedenfor veldig godt hva jeg legger i "GPU er ikke lengre det området hvor radikale ting skjer.". Takker. Endret 5. september 2005 av Anders Jensen Lenke til kommentar
Stigma Skrevet 5. september 2005 Del Skrevet 5. september 2005 Grafikk er en ting, men som det viser seg ofte, så er naturtro bevegelser (både på omgivelser og skuespillere) vel så viktige for å gi en god opplevelse. Jeg tar mye heller et spill med gårdsdagens grafikkteknologi og myke fine bevegelser samt god fysikkmotor over et spill der grafikken er rendret etter alle kunstens regler, men alt ser kunstig ut likevel og folk beveger seg som roboter. Sånn sett er jeg enig med Havoc representaten. GPUer trenger hovedsakelig bare å bli mye kraftigere, men innen andre områder trenger vi å finne på helt nye metoder og teknologi. -Stigma Lenke til kommentar
Simen1 Skrevet 5. september 2005 Del Skrevet 5. september 2005 (endret) Av Redaksjonen Dessverre var det ingen norske bidrag, og kun fire nordmenn deltok. 4 stk fra redaksjonen på kosetur? Fra Nvidia: Framtidens GPUer vil bruke midnre enn 500W .... Ja det håper jeg da inderlig !! Litt av et kjernekraftverk som vil trengs for å drive chippene om to tiår ser det ut til. Det tenkte jeg også. Alt for ensidig tankegang fra ATI og Nvidia å bare fokusere på å skalere ytelsen i det uendelige. Jeg er veldig enig med Havoc her. Grafikk er ikke lengre noen stor utfordring og vil dermed bryte ut av trenden med eksponensiell ytelseøkning. Som en konsekvens av dette tror jeg fokuset vil gå over mot ytelse/watt, pris og andre egenskaper slik representanten fra Havoc sa. også: De regner med at GPUen vil ha en overflate på 600mm^2. Yikes, det er STORT! Det hadde blitt et challange å bare få plass på det i et vanlig PCI-E kort. roten av 600mm^2 er ca 24,5mm. Altså blir brikken rundt 24,5 mm x 24,5 mm eller i underkant av 1x1 tomme stor. Det er veldig stort etter dagens standard men ikke i nærheten av så stort at det blir plassproblemer på en PCIe skjermkort. En direkte konsekvens av så store brikker vil være meget høye priser (selv om de holder yield på et høyt nivå) Spørsmål til A.J: Høres det realistisk ut med 25nm-prosess i 2015? Jeg trodde 22nm lå omentrent på veikartet for 2012-2013 og dermed 16nm ligger på veikartet for 2015. Men det er kanskje realistisk å regne inn noen problemer og forsinkelser? 600mm^2, 6 GHz, 500W og 64 pixels per pipeline per klokkeslag er vel også svært høye anslag. Eller? Ellers er det spennende å se at det er mye interresse for massive parallelle beregninger av andre ting enn grafikk. (Jeg ser for meg stort potensiale innen en del felter her) Endret 5. september 2005 av Simen1 Lenke til kommentar
Anders Jensen Skrevet 5. september 2005 Del Skrevet 5. september 2005 (endret) Spørsmål til A.J: Høres det realistisk ut med 25nm-prosess i 2015? Jeg trodde 22nm lå omentrent på veikartet for 2012-2013 og dermed 16nm ligger på veikartet for 2015. Men det er kanskje realistisk å regne inn noen problemer og forsinkelser? Jeg kommer ikke nøyaktig på årstallene her. Men det er nok beregnet at prosessnodestørrelsen vil leve litt lengre enn hva vi har sett tidligere. Altså vil nok 45nm 32nm, 22nm og 16 nm vare nokså lenge i forhold til 130nm, 90nm og 65nm. Og ja det er all grunn til å forvente haugevis av problemer. Særlig på 22nm og 16nm. 45nm ser foreløpig bra ut. High-k GOX vil redde den noden før eller senere. På 22nm og 16nm vil imidlertid dagens problem med gate lekkasje gjenoppstå selv med bruk av High-k GOX. Isolasjonen blir rett og slett for tynn. Kommer sikkert en haug av ekstra problemer også. Ikke alle tror at 16nm CMOS noen gang blir kommersielt tilgjengelig. 600mm^2 er forøvrig bare 20mm^2 større en Montecito, så det er fullt mulig å produsere. På en GPU står en jo også litt friere til å implementere redundans enn på en CPU kjerne. Det er imidlertid enklere med redundans i cache så jeg vet ikke sikkert hvordan det der slår ut. Endret 5. september 2005 av Anders Jensen Lenke til kommentar
chil Skrevet 5. september 2005 Del Skrevet 5. september 2005 tenk på strøm regninga for pokker med 2x500W Gpur sikkert en 800W CPU osv.. pokker Lenke til kommentar
G Skrevet 5. september 2005 Del Skrevet 5. september 2005 Bare gleder meg stort til at utviklingen får brygge sammen nye produkter. Denne konferansen har jeg aldri hørt om før. Stilig artikkel. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå