Gå til innhold

Flere pc'er - En server


Anbefalte innlegg

Dette føles som et utrolig dumt spørsmål, men velger og spørre av den grunn at jeg faktisk er litt usikker på om det kanskje kunne gå ?

 

La oss si at jeg sitter med 3 "gamle" pcer, greie for seg selv men ikke Bra.

 

Er det noen mulighet for og koble disse sammen (over f.eks. RJ45)

Få dem til og jobbe sammen, (mer minne, raskere server)

 

Mener og "huske" at dette ikke ville blitt noe bra, OM det hadde gått...

Men vet ikke :p

 

 

Takker for alle svar :)

Lenke til kommentar
Videoannonse
Annonse

Det er både nei og ja til spørsmålet ditt.

 

Generelt sett vil jeg svare nei, da jeg antar du ønsker å sette opp en slags virtuell maskin som kan benytte ressurser fra to eller flere fysiske maskiner. En vanlig nettverkskabel (m. tilhørende utstyr) blir for tregt til dette - sammenliknet med minnehastighet og prosessorhastighet.

 

Jeg sier også JA, for ved valg av spesielle programmer så kan du klare å utnytte kapasiteten for flere maskiner samtidig. Eksempler:

  • FlexRaid gjør det mulig å "slå sammen" egne harddisker med delte mapper på nettverket.
  • Enkelte programmer som skal rendre store datamengder kan lagre arbeidsfiler på nettverksplasseringer, der et tilleggsprogram gjør beregninger på den maskinen som har delt denne mappen. Sony Vegas mener jeg har denne muligheten.

Lenke til kommentar

søk på GRID Computing eller HPC

 

http://en.wikipedia.org/wiki/Grid_computing

 

http://en.wikipedia.org/wiki/High-performance_computing

 

For å kunne utnytte dette så må man ha programvare som er spesielt designet/programert for dette...

 

innenfor rendering av film og 3d er dette veldig utbredt, 3dmax, adobe After Effects og flere proffesjonelle film redigeringsverktøy benytter seg av dette....

 

De samler ikke ressursene til en stor ressurs i sådan, men deler jobbene opp i fragmenter som sendes til hver enkelt node, for så å bli satt sammen igjen når jobben er ferdig prossesser, dette benyttes også i forbindelse med kalkulering av værprognoser osv...

Disse programmene tar ofte også i bruk gpu'ene på hver enkelt node for ytterligere å øke hastighetene på dataprossesseringen....

 

Det blir veldig enkelt sagt omtrent som når en flerkjernet prossessor i en maskin kjører flere deler av en jobb fordelt på hver kjerne...

 

jeg vet det er menge her som har mye mer kunnskap om dette i detalj en det jeg har, så får bare håpe en av dem har tid til å stikke innom denne tråden...

Lenke til kommentar
  • 3 uker senere...

Clustering i windows server er mer til bruk for failover clusers eller for bruk i for å fordele belastning mellom servere når det er mange brukere f.eks. altså for å kunne kjøre flere "instanser" men ikke for å økt prossesserong av en "instans"...

F.eks. en webserver som har en kapasitet på 5000 samtidige brukere, hvis det da blir 5010 brukere så fordeles disse over f.eks. 2 identiske webservere for da å "last balansere" disse.

eller en terminal server løsning.... der kan flere teminal servere stå koblet i ett cluster også er det en node som fordeles brukerne til de forskjellige utifra "last".

samme sak gjelder ogsp SQL server eller Exchange, men det kan også brukes som "failover", der det fungerer slik at en server står klar til å ta over "jobben" hvis den aktive serveren skulle krasje.

man kan også bruke forskjellige kombinasjoner av dette....

 

 

MS HPC (High Performance Computing) Server er det som brukes ved degrid computing / rendering....

selvom det ved rendering ikke er nødvendig med HPC server så er det lagd egen programvare for dette til HPC server, fordelen med HPC server er at den er vesentlig billigere i lisesnkostnad pr. node enn en full Windows server lisens, bakdelen er at det ikke er lov (muligens også blokkert for) å kjøre "vanlige" server applikasjoner på denne.

 

Det finnes ett flertall løsninger for alle typer cluster/failover/GRID/HPC, på Linux/Unix baserte maskiner, og dette har vært en del av styrken til Unix på serversiden i mange år... og de ligger fremdeles foran Microsoft på dette, ihverfall hva angår antall løsninger og programvare som er lagd for dette.

Men det er flere store universitet og forskningssteder som bruker Windows HPC Server nå, så vidt ryktene sier... men jeg har ikke lest så mye om det...

 

Håper det er noen som virkelig kan dette som kunne tatt turen innom og skrevet litt om emne...!

Lenke til kommentar

Dette er mulig. Spørsmålet er bare hva du ønsker å oppnå.

 

Mange slike systemer brukter sammenkobling med høy ytelse og lav forsinkelse som f.eks. Infiniband. Andre bruker sammenkoblinger med hardware støtte for minnekonsistens (cache coherency). Disse er ofte dyre.

 

Mange distribuerte applikasjoner er veldig forsinkelse-følsomme og kommuniserere mye mellom processene, men andre er det ikke. Dersom de ikke er det kan man f.eks. bruke nettverket mellom maskinene.

 

Hvis du bruker Linux eller Solaris kan du f.eks. bruke GridEgine til å gjøre lastbalansering av programmer som blir kjørt på maskinene hvor det er minst last.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...