Harald Brombach (digi.no) Skrevet 31. oktober 2017 Del Skrevet 31. oktober 2017 IBM har funnet ut hvordan.Hvorfor gjøre beregningene i CPU-en når du kan bruke minnet? Lenke til kommentar
Simen1 Skrevet 31. oktober 2017 Del Skrevet 31. oktober 2017 Virker som dette kun egner seg for addisjon og subtraksjon av enorme datasett. F.eks i bildebehandling. CPU og GPU er ikke bare beregningsenheter. De inneholder også en del minne, cache, som nettopp skal redusere den omfattende flyttingen av data til og fra hovedminnet. Tidligere har en rekke co-prosessor-aksellerator-greier blitt slukt av CPU og GPU. For ikke å snakke om at CPU og GPU også integreres i stadig større grad. Hvis dette skal bli noe av tror jeg det også må integreres. 1 Lenke til kommentar
Alfadir Skrevet 31. oktober 2017 Del Skrevet 31. oktober 2017 Fant ikke HPE ut dette før IBM? The Machine. Lenke til kommentar
ozone Skrevet 31. oktober 2017 Del Skrevet 31. oktober 2017 (endret) Denne teknologien kan nok bare brukes på veldig snevre oppgaver. Minnet er jo avhengig å bli fortalt på forhånd hvilken operasjon som skal gjøres, så hvis oppgaven endres må CPU inn i bildet. Det blir som en kuleramme (minne) som selv flytter på kulene for å regne ut 7x5 uten en hånd (CPU) til å endre plasseringen. Det går jo ikke. Minnet kan ikke tenke selv, bare utføre forhånds"avtalte" operasjoner. Så overskriften på artikkelen er noe overdrevet synes jeg. Endret 31. oktober 2017 av ozone Lenke til kommentar
GeirNord Skrevet 1. november 2017 Del Skrevet 1. november 2017 Slett artikkel, ren oversett og lim fra opprinnelig blogg. Eller mener "forfatteren" at følgende avsnitt er godt skrevet, og informativt for Digi sine lesere? "Tolv stasjoner som med k-means var blitt klassifisert som korrelerte, ble klassifisert som ikke-korrelerte av PCM-systemet. Tilsvarende ble 13 værstasjoner som ikke ble klassifisert som korrelerte med k-means, klassifisert som korrelerte av PCM-systemet. " 1 Lenke til kommentar
G Skrevet 1. november 2017 Del Skrevet 1. november 2017 (endret) Å søren, nå tenkte jeg (når leste overskrift) at dette kan jo bli flott når de får oppdatert Windows 10 til å nytte seg av det ekstra ubrukte minnet på PC-en Men, så var det snakk om hardwarearkitekturbaserte endringer Endret 1. november 2017 av G Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå