Hvad er parallelle operativsystemer?

Parallelle operativsystemer bruges til at interface flere computere i netværk til at udføre opgaver parallelt. Arkitekturen af ​​softwaren er ofte et UNIX-baseret platform, der gør det muligt at koordinere fordelt belastning mellem flere computere i et netværk. Parallelle operativsystemer kan bruge software til at styre alle de forskellige ressourcer i computere, der kører parallelt, såsom hukommelse, caches, lagerplads, og regnekraft. Parallelle operativsystemer også tillade en bruger at direkte grænseflade med alle computere i netværket.

En parallel operativsystem fungerer ved at dividere sæt beregninger i mindre dele og distribuere dem mellem maskinerne på et netværk. For at lette kommunikationen mellem processorkerner og hukommelse arrays, routing software har enten dele sin hukommelse ved at tildele den samme adresse plads til alle computerne i netværket, eller distribuere sin hukommelse ved at tildele en anden adresse plads til hver behandling kerne. Fælles hukommelse gør det muligt for operativsystemet at køre meget hurtigt, men det er normalt ikke så kraftig. Ved brug af distribueret delt hukommelse, processorer har adgang til både deres egen lokale hukommelse og mindet om andre processorer; denne fordeling kan bremse operativsystemet, men det er ofte mere fleksibel og effektiv.

De fleste områder af videnskab, herunder bioteknologi, kosmologi, teoretisk fysik, astrofysik og datalogi, anvender parallelle operativsystemer til at udnytte kraften i parallel computing. Disse typer af systemet set-ups også bidrage til at skabe effektivitet i disse industrier som rådgivning, finansiering, forsvar, telecom og vejrudsigter. Faktisk er parallel computing blevet så robust, at den er blevet brugt af kosmologer at besvare spørgsmål om oprindelsen af ​​universet. Disse videnskabsmænd var i stand til at køre simuleringer af store dele af rummet på en gang - det tog kun en måned for forskerne at udarbejde en simulering af dannelsen af ​​Mælkevejen, en bedrift tidligere troede at være umuligt.

Videnskabsfolk, forskere, og industrier ofte vælger at bruge parallelle operativsystemer på grund af dens omkostningseffektivitet samt. Det koster langt mindre penge til at samle en parallel computernetværk end det koster at udvikle og bygge en super computer til forskning. Parallelle systemer er også helt modulære, så billige reparationer og opgraderinger, der skal foretages.

I 1967 Gene Amdahl, mens du arbejder på IBM, begrebsliggøres tanken om at bruge software til at koordinere parallel computing. Han udgivet sine resultater i et papir kaldet Amdahl lov, som skitserede den teoretiske stigning i regnekraft man kunne forvente at køre et netværk med et parallelt operativsystem. Hans forskning har ført til udviklingen af ​​pakkekobling, og dermed til den moderne parallel operativsystem. Dette ofte overset udvikling af pakkekobling også var det gennembrud, som senere startede "Arpanet Project", som er ansvarlig for det grundlæggende fundament for verdens største parallel computernetværk: internettet.

  • Parallelle operativsystemer bruges til at interface flere computere i netværk til at udføre opgaver parallelt.

© 2020 Zajacperrone.com | Contact us: webmaster# zajacperrone.com