Grid computing

Grid computing is een innovatieve technologie die een gecoördineerd gebruik van alle middelen die niet onderworpen zijn aan gecentraliseerde controle mogelijk maakt. In die zin is het een nieuwe vorm van distributed computing, waarin middelen heterogeen kunnen zijn en zijn verbonden door wide area networks. Ontwikkeld op wetenschappelijke gebieden in het begin van 1990, het invoeren van de commerciële markt na het idee van de zogenaamde Utility computing is een grote revolutie.

De term verwijst naar een infrastructuur raster dat de integratie en het gezamenlijk gebruik van high-performance computers, netwerken en databases die worden beheerd door verschillende instellingen mogelijk maakt. Samenwerking tussen instellingen omvat gegevensuitwisseling of rekentijd, het doel van het raster om de integratie van rekenhulpmiddelen vergemakkelijken. Universiteiten, onderzoekslaboratoria en bedrijven koppelen aan grid voor die ze gebruiken een soort van software die dit concept implementeert vormen.

In grid computing, kunnen netwerken worden gezien als een vorm van gedistribueerde computeromgeving, waarbij een "virtuele supercomputer" bestaat uit een reeks geclusterde computers grote taken.

Wat is het?

Bel gedistribueerd netwerk sharing systeem IT-middelen niet geografisch geconcentreerd tot grootschalige problemen op te lossen. De aandelen kunnen computers, software, gegevens en informatie, speciale instrumenten of personen / donateurs.

Grid computing biedt vele voordelen ten opzichte van andere alternatieve technologieën. De kracht die een veelheid van computers in een netwerk met behulp van raster bieden is vrijwel onbeperkt, plus het biedt een naadloze integratie van heterogene systemen en apparaten, het maken van verbindingen tussen de verschillende machines zal geen probleem niet te genereren. Het is een zeer schaalbaar, krachtige en flexibele oplossing, aangezien deze problemen te voorkomen gebrek aan middelen nooit achterhaald vanwege de mogelijkheid om het aantal en de kenmerken van de componenten.

Deze middelen worden verdeeld in het netwerk transparant, maar het houden van security richtlijnen en beleid om zowel technisch en economisch te beheren. Dus, zal uw doel zijn om een ​​aantal online bronnen gelijkmatig delen, veilig, transparant, efficiënt en betrouwbaar, biedt een enkel punt van toegang tot een reeks van geografisch verspreid in verschillende domeinen van het beheer van de middelen. Dit kan leiden ons om te denken dat de Grid computing maakt de creatie van virtuele ondernemingen. Het is belangrijk om te weten dat een raster is een reeks van gedistribueerde machines die helpen bij het verbeteren van het werk op zware software.

Geschiedenis

De term grid computing is ontstaan ​​in het begin van de jaren negentig als een metafoor om de toegang tot de computer de macht zo gemakkelijk toegang tot een elektriciteitsnet. De metafoor van het rooster voor het berekenen van toegankelijke werd al snel canoniek toen Ian Foster en Carl Kesselman publiceerde zijn baanbrekende werk, "The Grid:. Blauwdruk voor een nieuwe computer-infrastructuur"

Grid ideeën werden verzameld door Ian Foster, Carl Kesselman en Steve Tuecke, bekend als de "vader van de grid." Zij leidde de inspanningen om de Globus Toolkit te creëren waarin niet alleen het beheer van de computer, maar ook het beheer van opslag, beveiliging provisioning, overdracht van gegevens, monitoring, en een set van tools voor het ontwikkelen van aanvullende diensten op basis van dezelfde infrastructuur, met inbegrip van de onderhandelingen over overeenkomsten, rapportage mechanismen, service activering en aggregatie van informatie. Terwijl Globus Toolkit blijft de de facto standaard voor netwerkoplossingen, zijn andere instrumenten zijn gemaakt om te reageren op een reeks van diensten die nodig zijn om een ​​bedrijf of een wereldwijd netwerk creëren.

In 2007, de term cloud computing werd populair, dat is conceptueel vergelijkbaar met de canonieke definitie van grid computing Foster.

Aanwezig

Er zijn vele projecten die zijn ontwikkeld langs deze lijnen, zoals eDonkey, eMule of Limewire. Er zijn programma's om gegevens wereldwijd te delen tussen verschillende machines. Grids en Peer-to-peer hebben veel gemeen en vooral de basisidee van het delen van middelen. Onder de verschillende kenmerken P2P we kunnen zien als meer anoniem en algemene computers internetgebruikers, terwijl de roosters worden geboren in een meer gecontroleerde en hiërarchische structuur knooppunten wetenschappelijke centra. Een eerste ervaring GriPhyN, knooppunten verenigen in het fysieke proces van hoge energie in de Verenigde Staten.

Een ander project is ook heel belangrijk SETI Het heeft duizenden pc's verspreid Internet verzakking tijd van hun processoren, ontruimd cycli van proces, om signalen op zoek naar buitenaards intelligent te analyseren. Echter, het gebruik ervan blinkt ook in onderzoekscentra sinds eind 1990 aan projecten, variërend van deeltjesfysica tot astrofysica of zelfs Biology. In Europa met de steun van projecten CERN en de Europese kaderprogramma software en het netwerk EDG het is gemaakt. Het gebruik van grid computing in deze gebieden vormt een exponentiële verbetering in de afgelopen jaren.

De bedrijven en instellingen die hebben deelgenomen aan de ontwikkeling van deze technologieën willen zo snel mogelijk in een stadium van de commerciële exploitatie in te voeren. Bedrijven als Microsoft en Sun Microsystems hebben het belang van de middellange termijn gerealiseerd zal raster te bieden aan hun klanten. Wij benadrukken de rol van IBM investeren in raster als een platform om hun klanten de voordelen en besparingen te bieden in de tijd en financiële middelen.

Er zijn verschillende commerciële oplossingen in de vorm van bedrijven, bijvoorbeeld:

  • De Enterprise Grid Alliance: is gemaakt in Californië in april 2004 door een groep van toonaangevende technologie bedrijven om commerciële enterprise oplossingen van distributed computing te ontwikkelen en de inzet van deze technologie te versnellen in ondernemingen. Het is een open consortium gericht op het ontwikkelen en bevorderen van enterprise-oplossingen mazen.
  • Sun Microsystems: zon Grid Engine software maakt het eenvoudig om machines aan het net toe te voegen en neemt automatisch profiteren van het toegenomen vermogen, waardoor tijd en middelen te besparen door middel van een snelle, efficiënte en betrouwbare netbeheer en implementatie.
  • Andago: met als doel het brengen van grid-technologie op industriële en zakelijke omgevingen, Andago toegevoegd aan haar assortiment oplossingen zijn ervaring in Grid projecten.
  • JPPF: de software JPPF kunnen toepassingen met een hoge verwerking eisen te draaien op meerdere computers met verschillende eigenschappen als gevolg van de Java-gebaseerde, schaalbare manier van dynamisch verdelen van de applicatie taak architectuur.

Er zijn verschillende middleware mogelijkheden en functionaliteiten variëren, afhankelijk van de complexiteit, de aangeboden diensten en de grootte van de grid-netwerk uit te voeren, is de ideale optie gekozen. De middleware, allemaal open source oplossingen gebruikt: EGEE voor grote projecten, Globus Oplossingen voor de gemiddelde projecten, Grid Engine voor kleine implementaties.

Marktsegmentatie in grid computing

Voor marktsegmentatie grid computing, moeten we rekening houden met twee perspectieven: de leverancier en de gebruiker.

Het deel van de leverancier

Het volledige rooster voor verscheidene markt specifieke markten. Dit zijn de grid middleware markt, de markt voor het inschakelen van grid-toepassingen, de markt voor utility computing en software as a service markt. Het grid middleware is een specifieke software product, dat het delen van heterogene bronnen en virtuele organisaties mogelijk maakt. Het wordt geïnstalleerd en geïntegreerd in de bestaande infrastructuur van het bedrijf of de betrokken bedrijven, en biedt een speciale laag op de heterogene infrastructuur en gebruikersspecifieke toepassingen. Zij zijn het hoofdnet middleware Globus Toolkit, gLite en UNICORE.

Utility computing verwijst naar het verstrekken van grid computing en service toepassingen, evenals het openen van een elektriciteitsnet of hosting oplossing voor een organisatie of een virtuele organisatie. De belangrijkste concurrenten in de markering van utility computing zijn Sun Microsystems, IBM en HP.

Het inschakelen grid-toepassingen zijn specifieke software applicaties die de grid-infrastructuur kan gebruiken. Dit is mogelijk door het gebruik van raster middleware, zoals hierboven vermeld.

Software as a service is een "software die u hebt, verstrekt en beheerd op afstand door een of meer providers." Daarnaast zijn SaaS-toepassingen op basis van een reeks gemeenschappelijke code en data definities. Ze worden geconsumeerd in een model van één-op-veel, en maakt gebruik van een pay as you go-model of een abonnement model op basis van gebruik. SaaS-leveranciers zijn niet noodzakelijkerwijs eigenaren van computer supplies, die nodig zijn om uw SaaS draaien. De markt voor utility computing biedt computing-benodigdheden voor SaaS-aanbieders.

Gebruikersdeel

Voor bedrijven die vragen of gebruikers van grid computing markt, de verschillende segmenten hebben belangrijke implicaties voor de IT-implementatie strategie. De IT Strategie en de aard van de IT-investeringen gedaan zijn relevante aspecten voor potentiële netgebruikers en spelen een belangrijke rol bij de vaststelling van het rooster.

Functies

  • Balancing vermogen systemen: niet nodig de capaciteit van de systemen op basis van piekbelasting te berekenen, de capaciteit kan worden toegewezen van de boerderij middelen indien nodig;
  • Hoge beschikbaarheid. met de nieuwe functionaliteit, als een server uitvalt, diensten op de resterende servers zijn toegewezen;
  • Kostenreductie: ". Boerderijen van middelen" met deze architectuur diensten worden beheerd door U hoeft niet op "grote dienaren" en kunnen we low cost componenten te gebruiken. Elk systeem kan werken in hetzelfde patroon;

De netconcept is gerelateerd aan de volgende generatie IP-protocol. Het nieuwe internetprotocol IPv6 kunt u werken met snellere en betaalbaar internet. Een van de belangrijkste ideeën in het overwinnen van de huidige beperkingen van IPv4-internet is de opkomst van nieuwe niveaus van dienstverlening die het nieuwe netwerk capaciteit zal gebruiken om computers te communiceren.

Deze vooruitgang in de communicatie zal de ideeën van grid computing te bevorderen met als ondersteuning van de hoge internetconnectiviteit. Dat is de reden waarom een ​​van de gebieden met de grootste innovatie in het gebruik van gridcomputing buiten supercomputing concepten is de ontwikkeling van een standaard voor het definiëren van de Grid Services voldoen aan de huidige Web Services.

Nadelen

Echter, grid computing heeft enkele nadelen worden opgelost. Deze problemen zijn:

  • Heterogene bronnen: grid computing moet in staat zijn om elk type bron om het systeem te beheren te behandelen, anders zal het nutteloos zijn.
  • Discovery, selectie, reserve, de toewijzing, resource management en monitoring processen extern worden gecontroleerd en dat de invloed van de werking van het net.
  • Applicatie-ontwikkeling nodig hebben om het net en de ontwikkeling van efficiënte gebruik van modellen beheren.
  • Langzame en ongelijke communicatie.
  • Organisatorisch: het beheer van domeinen, operationele model en de kosten, veiligheidsbeleid ...
  • Economisch: grondstofprijzen, vraag / aanbod

Voordelen en vereisten

Kortom, grid is een verbetering op het World Wide Web:

Het World Wide Web biedt naadloze toegang tot informatie die is opgeslagen in miljoenen computers verspreid over de hele wereld. Tegen deze, het rooster is een nieuwe infrastructuur die naadloze toegang tot rekenkracht en opslagcapaciteit gedistribueerd door een organisatie of wereldwijd biedt.

De eisen waaraan moet worden voldaan door een raster zijn:

De gegevens moeten worden gedeeld door duizenden gebruikers met verschillende belangen. Het moet de belangrijkste centra koppelen van supercomputing, niet alleen pc's. Het moet ervoor zorgen dat de gegevens toegankelijk is overal en altijd. U moet de verschillende beleidsterreinen van het beheer van verschillende centra te harmoniseren. Moet veiligheid bieden.

En de voordelen die worden verkregen:

  • Het voorziet in een mechanisme voor een transparante samenwerking tussen verspreide groepen, zowel wetenschappelijk als commercieel.
  • Maakt de werking van grootschalige toepassingen.
  • Het geeft toegang tot gedistribueerde hulpbronnen van onze PC.
  • Al deze doelstellingen en voordelen worden opgenomen in het idee van de 'e-Science'.

Deze voordelen zijn van invloed op vele terreinen:

  • Geneeskunde.
  • Bioinformatica.
  • Nanotechnologie.
  • Engineering.
  • Natuurlijke en natuurlijke hulpbronnen.

De resulterende grid-technologie opent een enorm scala aan mogelijkheden voor de ontwikkeling van toepassingen in vele sectoren. Bijvoorbeeld: de wetenschappelijke en technologische ontwikkeling, onderwijs, gezondheidszorg en openbaar bestuur.

Vergelijking tussen het rooster en conventionele supercomputers

Computing "verspreid" of "grid", in het algemeen, is een speciaal soort parallel computing op basis van volledige computers aangesloten op een netwerk via een standaard netwerkinterface een eenvoudige hardware ten opzichte van het ontwerp en de bouw van de lage efficiëntie een klein aantal aangepaste supercomputers. Het belangrijkste nadeel optreden is dat de verschillende processoren en lokale opslag gebieden niet snelle aansluitingen. Deze samenstelling is geschikt voor toepassingen waarbij locatie meerdere parallelle berekeningen zelfstandig kunnen hebben, zonder dat communicatie tussen processoren onmiddellijke resultaten.

Er zijn ook enkele verschillen in de programmering en implementatie. Het schrijven van programma's die in de omgeving van een supercomputer kan kostbaar en ingewikkeld zijn, wat een aangepast besturingssysteem kan hebben, of eisen dat een programma om te gaan met concurrency problemen. Als u een probleem goed kan in parallel, een "thin" infrastructuur laag "grid" kan toestaan ​​onafhankelijke conventionele en programma's te draaien op meerdere machines. Dit maakt het mogelijk om te schrijven en te debuggen in een conventionele machine, en voorkomt complicaties van meerdere versies van hetzelfde programma op dezelfde gedeelde geheugen en opslagruimte tegelijk.

Virtual snelste supercomputers

  • April 2013 11,4 x86-equivalente Folding PFLOPS.
  • Maart 2013, BOINC - gemiddeld 9,2 PFLOPS verwerking.
  • April 2010, berekend op 1,6 MilkyWay PFLOPS met een hoop werk dat valt op GPU.
  • April 2010, SETI berekent gemiddelde van meer dan 730 TFLOPS gegevens.
  • April 2010, Einstein werkte meer dan 210 TFLOPS.
  • Juni 2011, GIMPS verwerkt 61 TFLOPS.

Laatste aantekeningen

Kortom, we hebben een distributed computing paradigma zeer veelzijdig, schaalbaar en dat de kracht van een groot aantal computers om een ​​uitgebreide vrijwel onbeperkte capaciteit te bereiken combineert. De belangrijkste bezwaren komen van de moeilijkheid van het synchroniseren van processen al deze teams, monitoring middelen, workloads toewijzen en tot vaststelling van betrouwbare IT-beveiligingsbeleid.

Het is een computationele paradigma in de ontwikkeling van dit moment biedt al diensten aan vele onderzoeksgebieden en in de toekomst zullen meer invloed hebben als het past in deze gebieden, om te genieten van een geavanceerde structuur ten opzichte van de huidige, meer robuuste, veel sneller in termen van communicatie tussen de teams en uiteraard met een grotere rekencapaciteit van elke machine te wijten aan de evolutie op het gebied van de verwerking en de prestaties van de hardware.

(0)
(0)
Vorige artikel Fa Wang Tsuan
Volgende artikel Air Contractors

Commentaren - 0

Geen reacties

Voeg een Commentaar

smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile
Tekens over: 3000
captcha