Gå til innhold

Kinas svar på Google lanserer AI-brikke. Tar opp kampen med Google, Nvidia og Intel


Anbefalte innlegg

Videoannonse
Annonse

Blir AI det nye neste perfekte "sensur og rapportere til myndighetene verktøyet"?

 

Hvordan ser den kinesiske utgaven av HAL 9000 ut, når den får ettermontert "øye"?

 

hal_9000.gif

Endret av G
Lenke til kommentar

Kineserne er flinke til å skryte av ting på papiret, gjenstår å se faktisk ytelse...

Kirin 970 er SoCen med høyest AI ytelse av alle SoCer. Designet av Huawei eide HiSilicon og produsert i Kina. Altså 100% kinesisk AI brikke som er raskest på markedet. Fås i Mate 10 Pro og P20 Plus i massevis av norske butikker. Google er nok misunnelige på at de har så bra maskinvare til maskinlæring som Huawei har i sine telefoner.

 

Så tallet, det stemmer nok. Det er derimot vanskelig å si noe utifra slike tall fordi tallet gjelder for hva enn de har testet som ikke er likt noe noen andre har testet. Det ser du på alle Nvidia lanseringer at det TFLOP tallet vanligvis ikke kan sammenlignes med så mye og de oppgir veldig høye tall. Samme greiene her.

 

Men slike NPU-enheter er ikke så vanskelige å lage, og operasjonene de utfører er ikke så vanskelige. Både Google og Baidu har jo drevet og laget slike kretser siden maskinlæring startet, men da på FPGAer. Når du trenger større volum blir det rimeligere å produsere en ASIC krets. Så da overføres designet og du sender det til fabrikk. Så får du en chip som er raskere og bruker mindre strøm siden det er designet kun for det formålet og ikke en generell krets som FPGA. Det er jo en grunn til at alle selskaper, inkludert SW selskaper lager disse selv og ingen selger dem. Det er ikke så vanskelig.

Lenke til kommentar

Minnebåndbredden var ikke mye å skryte av, hjelper ikke mye å ha høy prosesseringsytelse om GPUen står idle og venter på data. Det hadde også vært interessant å vite hvilken minnetype og hvor mye de har tenkt å basere seg på. HBM2 blir kanskje en for dyr løsning for dem.

 

Det blir forøvrig feil å sammenligne med Nvidia DGX-2, da blir det mer rett å sammenligne med Nvidia Quadro GV100 som inneholder en GPU, dette har en Tensor ytelse på 118.5 TFLOPS, men har nesten dobbelt så høy minnebåndbredde som Baiduen.

Lenke til kommentar

Minnebåndbredden var ikke mye å skryte av, hjelper ikke mye å ha høy prosesseringsytelse om GPUen står idle og venter på data. Det hadde også vært interessant å vite hvilken minnetype og hvor mye de har tenkt å basere seg på. HBM2 blir kanskje en for dyr løsning for dem.

 

Det blir forøvrig feil å sammenligne med Nvidia DGX-2, da blir det mer rett å sammenligne med Nvidia Quadro GV100 som inneholder en GPU, dette har en Tensor ytelse på 118.5 TFLOPS, men har nesten dobbelt så høy minnebåndbredde som Baiduen.

Men de har ikke laget en GPU, de har laget kun det Nvidia kaller Tensor-enheter. Som er en mindre del av nyere Nvidia grafikkort for bedrift. Så du kan ikke sammenligne minnebåndbredde for en hel GPU med masse funksjonalitet og kun en TPU. Baidu vil jo selvfølgelig bruke disse kretsene sammen med CPU og GPU. Det er en hjelpekrets for å booste ytelsen til en spesifikk oppgave.

Lenke til kommentar

Bra den kommer med topp ytelse, så kan de kjøre selv de mest komplekse spyware og trojanere uten at brukerne merker det pga redusert ytelse. Vi gleder oss.

Du kan ikke kjøre spyware eller trojanere med slik HW. Du kan ikke bruke det til det. 

Lenke til kommentar

Men de har ikke laget en GPU, de har laget kun det Nvidia kaller Tensor-enheter. Som er en mindre del av nyere Nvidia grafikkort for bedrift. Så du kan ikke sammenligne minnebåndbredde for en hel GPU med masse funksjonalitet og kun en TPU. Baidu vil jo selvfølgelig bruke disse kretsene sammen med CPU og GPU. Det er en hjelpekrets for å booste ytelsen til en spesifikk oppgave.

 

Selvfølgelig kan du sammenligne minnebåndbredden, skal du hente en gitt mengde data og utføre en gitt type prosessering som begge prosessorene støtter, så kan man sammenligne de, om den ene har funksjonalitet som den andre ikke har, har ikke noe å si.

Lenke til kommentar

Du kan ikke kjøre spyware eller trojanere med slik HW. Du kan ikke bruke det til det. 

 

Hvorfor ikke det?

 

Sett opp enheten til å passe på når du bruker og ikke bruker enheten. Så kan datauthenting aktiveres mens du ikke glaner på mobilskjermen, som et eksempel. "Du"/folk er jo tilknyttet 4G/WiFi med mobilene sine som regel hele tiden.. Selvlæring kan da brukes til å lage brukerstatistikker, som i neste rekkefølge nyttes på en logisk måte til det formålet man måtte bestemme seg for å bruke det til. Enten det blir ekstra nyttig ekstrafunksjonalitet, eller ondsinnede hensikter. Sånn tenker ihvertfall jeg.

Endret av G
Lenke til kommentar

Selvfølgelig kan du sammenligne minnebåndbredden, skal du hente en gitt mengde data og utføre en gitt type prosessering som begge prosessorene støtter, så kan man sammenligne de, om den ene har funksjonalitet som den andre ikke har, har ikke noe å si.

Tenker du slik kan du måle minnebåndbredde mellom GPU og CPU også. Svaret du får er derimot rimelig ubrukelig. Det er en grunn til at CPUer og GPUer har ulike minnekontrollere og ulik minnetype. Latency er mye viktigere for CPU enn ren båndbredde. GPUer behandler mye data og trenger høy båndbredde, CPUer trenger ikke i nærheten samme båndbredde.

 

Så minnebåndbredde må jo stå i stil med hva du faktisk trenger. Og mer er ikke nødvendigvis bedre. Nvidia GPUer med GDDR5 slår lett AMD GPUer med HBM2. Det hjelper AMD lite å slå Nvidia på båndbredde når de ikke klarer å utnytte det. Og mens Nvidia har en del lavere så har de veldig god utnyttelse av hva de har.

 

 

Til slutt er Nvidia sitt tall for hele GPUen og vi har ingen tall for deres TPUer. Så joda du kan i teorien sammenligne, men svaret på det alene er meningsløst. Det gir kun mening om du analyserer ytelse dypere og si finner ut at det er en begrensning for ytelsen for Baidu.

  • Liker 1
Lenke til kommentar

Hvorfor ikke det?

 

Sett opp enheten til å passe på når du bruker og ikke bruker enheten. Så kan datauthenting aktiveres mens du ikke glaner på mobilskjermen, som et eksempel. "Du"/folk er jo tilknyttet 4G/WiFi med mobilene sine som regel hele tiden.. Selvlæring kan da brukes til å lage brukerstatistikker, som i neste rekkefølge nyttes på en logisk måte til det formålet man måtte bestemme seg for å bruke det til. Enten det blir ekstra nyttig ekstrafunksjonalitet, eller ondsinnede hensikter. Sånn tenker ihvertfall jeg.

Denne brikken gjør matriseregning. Lav presisjon enkle utregninger. Den kan ikke passe på når noen bruker en enhet. Den kan ikke hente ut data. Det er en hjelpekrets altså den gjør ingenting alene. Det bruker til program som dette:

https://en.wikipedia.org/wiki/TensorFlow

 

Og så ser de slik ut:

cloudtpu.jpg

 

 

De brukes til prosessering i datasentere... Folk som tror dette handler om spionering har absolutt ingen peiling på hva dette er og bare kommer med fordømmer som er basert på tull. Det er mye Google gjør som du kan være paranoid i form av spionering, men maskinlæring er IKKE en av dem. Maksinlæring kan brukes til å bearbeide innhentet informasjon, det er alt. Du kan ikke spionere eller innhente eller stjele eller noe annet ulovlig med dette.

 

Anbefaler å lese hva dette er før du begynner å komme med tilfeldige påstander uten rot i virkeligheten.

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...