Dis­tri­bu­ted Computing (dt. „ver­teil­tes Rechnen“) ist heute aus der digitalen Lebens- und Ar­beits­welt nicht mehr weg­zu­den­ken. Wer ins Internet geht und eine Google Suche startet, nutzt bereits Dis­tri­bu­ted Computing. Verteilte Sys­tem­ar­chi­tek­tu­ren prägen auch viele Ge­schäfts­be­rei­che und versorgen unzählige Dienste und Services mit aus­rei­chend Rechen- und Ver­ar­bei­tungs­ka­pa­zi­tät. Wir erklären die Funk­ti­ons­wei­sen des Ver­fah­rens und stellen die ver­wen­de­ten Sys­tem­ar­chi­tek­tu­ren und An­wen­dungs­be­rei­che dar. Die Vorteile des ver­teil­ten Rechnens werden ebenfalls behandelt.

Was ist Dis­tri­bu­ted Computing?

Der Begriff „Dis­tri­bu­ted Computing” be­zeich­net eine digitale In­fra­struk­tur, bei der ein Rech­ner­ver­bund an­ste­hen­de Be­rech­nungs­auf­ga­ben löst. Trotz räum­li­cher Trennung arbeiten die autonomen Computer in einem ar­beits­tei­li­gen Prozess eng zusammen. Für das Verfahren ist die ver­wen­de­te Hardware sekundär, neben besonders leis­tungs­fä­hi­gen Computern und Work­sta­tions aus dem pro­fes­sio­nel­len Bereich können auch Mi­ni­com­pu­ter und Desktop-PCs von Heim­an­wen­dern ein­ge­bun­den werden.

Da die verteilte Hardware aufgrund der räum­li­chen Trennung keinen ge­mein­sa­men Speicher nutzen kann, tauschen die be­tei­lig­ten Computer Nach­rich­ten und Daten (z. B. Be­rech­nungs­er­geb­nis­se) über ein Netzwerk aus. Die in­ter­ma­schi­nel­le Kom­mu­ni­ka­ti­on (siehe hierzu auch Was ist Machine-to-Machine-Kom­mu­ni­ka­ti­on?) erfolgt lokal über ein Intranet (z. B. bei einem Re­chen­zen­trum) oder über­re­gio­nal und global via Internet. Den Transport von Nach­rich­ten über­neh­men bei­spiels­wei­se In­ter­net­pro­to­kol­le wie TCP/IP und UDP.

Dis­tri­bu­ted Computing ist im Sinne des Trans­pa­renz­prin­zips bestrebt, sich nach außen hin als funk­tio­na­le Einheit zu prä­sen­tie­ren und die Bedienung der Technik best­mög­lich zu ver­ein­fa­chen. Anwender, die bei­spiels­wei­se eine Pro­dukt­su­che in der Datenbank eines Online-Shops starten, nehmen das Ein­kaufs­er­leb­nis als ein­heit­li­chen Prozess wahr und müssen sich nicht mit der modularen Sys­tem­ar­chi­tek­tur einer genutzten In­fra­struk­tur be­schäf­ti­gen.

Letztlich ist Dis­tri­bu­ted Computing also eine Kom­bi­na­ti­on aus Auf­ga­ben­ver­tei­lung und ko­or­di­nier­ter In­ter­ak­ti­on. Das Ziel ist, die Auf­ga­ben­be­wäl­ti­gung möglichst effizient zu gestalten und flexible pra­xis­na­he Lösungen zu finden.

Wie funk­tio­niert Dis­tri­bu­ted Computing?

Aus­gangs­punkt einer Be­rech­nung ist beim Dis­tri­bu­ted Computing eine besondere Strategie der Pro­blem­lö­sung. Ein einzelnes Problem wird un­ter­teilt und jeder Teil­be­reich wird von einer Re­chen­ein­heit be­ar­bei­tet. Die operative Umsetzung über­neh­men verteilte An­wen­dun­gen (Dis­tri­bu­ted Ap­pli­ca­ti­ons), die auf allen Maschinen des Rech­ner­ver­bunds laufen.

Verteilte An­wen­dun­gen nutzen häufig eine Client-Server-Ar­chi­tek­tur. Client und Server operieren ar­beits­tei­lig und decken mit der dort in­stal­lier­ten Software bestimmte An­wen­dungs­funk­tio­nen ab. Eine Pro­dukt­su­che läuft in folgenden Schritten ab: Der Client agiert als Ein­ga­be­instanz und Be­nut­zer­schnitt­stel­le, welche die User­an­fra­ge ent­ge­gen­nimmt und so auf­be­rei­tet, dass sie an einen Server wei­ter­ge­reicht werden kann. Der ortsferne Server übernimmt dann den Hauptteil der Such­funk­tio­na­li­tät und re­cher­chiert in einer Datenbank. Das Ergebnis der Suche wird ser­ver­sei­tig für den Rück­trans­port an den Client auf­be­rei­tet und an diesen über das Netzwerk kom­mu­ni­ziert. Am Ende erfolgt die Ausgabe des Er­geb­nis­ses am Display des Anwenders.

In die ver­teil­ten Prozesse werden häufiger Midd­le­wa­re-Services ein­ge­bun­den. Als spezielle Soft­ware­schicht definiert Midd­le­wa­re das (logische) In­ter­ak­ti­ons­mus­ter zwischen Partnern und sorgt im Ver­teil­ten System für Ver­mitt­lung und optimale In­te­gra­ti­on. So werden Schnitt­stel­len und Dienste zur Verfügung gestellt, die Lücken zwischen ver­schie­de­nen An­wen­dun­gen schließen sowie deren Kom­mu­ni­ka­ti­on er­mög­li­chen und über­wa­chen (z. B. durch Kom­mu­ni­ka­ti­ons­con­trol­ler). Für eine operative Ab­wick­lung stellt Midd­le­wa­re bei­spiels­wei­se mit dem Remote Procedure Call (RPC) ein bewährtes Verfahren der ge­rä­te­über­grei­fen­den In­ter­pro­zess­kom­mu­ni­ka­ti­on zur Verfügung, das in etwa in Client-Server-Ar­chi­tek­tu­ren häufig für Pro­dukt­su­chen mit Da­ten­bank­ab­fra­gen genutzt wird.

Diese In­te­gra­ti­ons­funk­ti­on, die dem Trans­pa­renz­prin­zip zu­ar­bei­tet, kann auch als Über­set­zungs­auf­ga­be auf­ge­fasst werden. Technisch he­te­ro­ge­ne An­wen­dungs­sys­te­me und Platt­for­men, die nor­ma­ler­wei­se nicht mit­ein­an­der kom­mu­ni­zie­ren können, sprechen sozusagen eine Sprache und arbeiten mit Hilfe von Midd­le­wa­re produktiv zusammen. Neben der geräte- und platt­form­über­grei­fen­den In­ter­ak­ti­on kümmert sich Midd­le­wa­re um weitere Aufgaben, wie die Da­ten­ver­wal­tung. Außerdem steuert sie den Zugriff von Ver­teil­ten An­wen­dun­gen auf die Funk­tio­nen und Prozesse der Be­triebs­sys­te­me, die lokal auf den an­ge­dock­ten Rechnern verfügbar sind.

Welche Arten von Dis­tri­bu­ted Computing gibt es?

Dis­tri­bu­ted Computing ist ein viel­ge­stal­ti­ges Phänomen mit teils sehr un­ter­schied­li­chen In­fra­struk­tu­ren. Sämtliche Varianten von Dis­tri­bu­ted Computing sind daher kaum zu bestimmen. Dem Teil­ge­biet der In­for­ma­tik werden aber häufiger drei Teil- bzw. Un­ter­be­rei­che zu­ge­ord­net:

  • Cloud Computing
  • Grid Computing
  • Cluster Computing

Beim Cloud Computing wird ver­teil­tes Rechnen verwendet, um Kunden hoch­ska­lier­ba­re und kos­ten­güns­ti­ge In­fra­struk­tu­ren und Platt­for­men be­reit­zu­stel­len. Cloud-Anbieter stellen ihre Ka­pa­zi­tä­ten meist in Form von ge­hos­te­ten Diensten zur Verfügung, die über das Internet genutzt werden können. In der Praxis haben sich ver­schie­de­ne Service-Modelle etabliert:

  • Software as a Service (SaaS): Bei der Dienst­leis­tung SaaS nutzt der Kunde die An­wen­dun­gen sowie die da­zu­ge­hö­ri­ge In­fra­struk­tur eines Cloud-Anbieters (z. B. Server, Online-Speicher, Re­chen­ka­pa­zi­tä­ten). Auf die An­wen­dun­gen kann mit un­ter­schied­li­chen Geräten über ein so­ge­nann­tes „Thin Client Interface“ (z. B. eine brow­ser­ba­sier­te Web-App) zu­ge­grif­fen werden. Die Pflege und Ad­mi­nis­tra­ti­on der aus­ge­la­ger­ten In­fra­struk­tur übernimmt der Cloud-Anbieter.
  • Platform as a Service (PaaS): Bei der Dienst­leis­tung PaaS wird eine cloud­ba­sier­te Umgebung z. B. für die Ent­wick­lung von Web­an­wen­dun­gen zur Verfügung stellt. Der Kunde hat die Kontrolle über die be­reit­ge­stell­ten An­wen­dun­gen und kann nut­zer­spe­zi­fi­sche Ein­stel­lun­gen vornehmen, um die tech­ni­sche In­fra­struk­tur für das Dis­tri­bu­ted Computing kümmert sich der Cloud-Anbieter.
  • In­fra­struc­tu­re as a Service (IaaS): Bei dem Service IaaS wird eine tech­ni­sche In­fra­struk­tur vom Cloud-Provider zur Verfügung gestellt, auf die Anwender über private oder öf­fent­li­che Netzwerke zugreifen. Zu den Kom­po­nen­ten der be­reit­ge­stell­ten In­fra­struk­tur gehören bei­spiels­wei­se Server, Rechen- und Netz­ka­pa­zi­tä­ten, Kom­mu­ni­ka­ti­ons­ge­rä­te wie Router, Switche oder Firewalls, Spei­cher­platz sowie Systeme zur Ar­chi­vie­rung und Sicherung von Daten. Der Kunde hat sei­ner­seits die Kontrolle über Be­triebs­sys­te­me und be­reit­ge­stell­te An­wen­dun­gen.

Das Grid Computing ori­en­tiert sich kon­zep­tio­nell an einem Su­per­com­pu­ter mit enormer Re­chen­power. Re­chen­auf­ga­ben werden aber nicht von einer, sondern von vielen Instanzen be­ar­bei­tet. Server und PCs können dabei un­ab­hän­gig von­ein­an­der un­ter­schied­li­che Aufgaben über­neh­men. Grid Computing kann bei der Auf­ga­ben­be­wäl­ti­gung sehr flexibel auf Res­sour­cen zugreifen. Üb­li­cher­wei­se stellen Teil­neh­mer einem Ge­samt­pro­jekt gewisse Re­chen­ka­pa­zi­tä­ten nachts zur Verfügung, wenn die tech­ni­sche In­fra­struk­tur nicht so stark aus­ge­las­tet ist.

Ein Vorteil ist, dass schnell sehr leis­tungs­fä­hi­ge Systeme genutzt und je nach Bedarf in der Re­chen­leis­tung skaliert werden können. Für die Leis­tungs­stei­ge­rung muss kein kost­spie­li­ger Su­per­com­pu­ter durch einen teuren Nach­fol­ger ersetzt oder auf­ge­rüs­tet werden.

Da Grid Computing einen vir­tu­el­len Su­per­com­pu­ter aus einem Cluster lose ge­kop­pel­ter Computer erzeugen kann, ist es auf besonders re­chen­in­ten­si­ve Probleme spe­zia­li­siert. Das Verfahren wird häufig für am­bi­tio­nier­te Projekte in der Wis­sen­schaft verwendet oder beim Ent­schlüs­seln von kryp­to­gra­fi­schen Codes.

Cluster Computing ist von Cloud und Grid Computing nicht klar zu trennen. Der Begriff setzt al­ler­dings all­ge­mei­ner an und bezieht sich auf alle Formen, die Ein­zel­com­pu­ter und ihre Re­chen­ka­pa­zi­tä­ten zu einem Cluster (dt. „Traube“, „Bündel“) zu­sam­men­schlie­ßen. So gibt es bei­spiels­wei­se Server-Cluster, Cluster in Big Data und Cloud-Um­ge­bun­gen, Datenbank-Cluster sowie An­wen­dungs-Cluster. Zudem sind Rech­ner­ver­bün­de vermehrt am High-Per­for­mance-Computing beteiligt, das besonders an­spruchs­vol­le Re­chen­pro­ble­me löst.

Un­ter­schied­li­che Typen von Dis­tri­bu­ted Computing lassen sich zudem bestimmen, wenn man die Sys­tem­ar­chi­tek­tu­ren und In­ter­ak­ti­ons­mo­del­le einer ver­teil­ten In­fra­struk­tur zugrunde legt. Aufgrund der komplexen Sys­tem­ar­chi­tek­tu­ren des Dis­tri­bu­ted Computing spricht man auch häufiger von Dis­tri­bu­ted Systems (dt. „verteilte Systeme“).

Zu den ver­brei­te­ten Ar­chi­tek­tur­mo­del­len des Dis­tri­bu­ted Computing zählen:

  • Client-Server-Modell
  • Peer-to-Peer-Modell
  • Schich­ten­mo­del­le (Multi-Tier-Ar­chi­tek­tu­ren)
  • Service-ori­en­tier­te Ar­chi­tek­tur (engl.: Service-oriented ar­chi­tec­tu­re, SOA)

Das Client-Server-Modell ist ein einfaches In­ter­ak­ti­ons- und Kom­mu­ni­ka­ti­ons­mo­dell im Dis­tri­bu­ted Computing. Ein Server erhält eine Anfrage von einem Client, führt ent­spre­chen­de Be­ar­bei­tungs­pro­ze­du­ren durch und sendet eine Antwort (Nachricht, Daten, Be­rech­nungs­er­geb­nis­se) an diesen zurück.

Eine Peer-to-Peer-Ar­chi­tek­tur or­ga­ni­siert die In­ter­ak­ti­on und Kom­mu­ni­ka­ti­on des Dis­tri­bu­ted Com­pu­tings nach de­zen­tra­len Ge­sichts­punk­ten. Alle Computer (auch Nodes genannt) sind gleich­be­rech­tigt und über­neh­men die gleichen Aufgaben und Funk­tio­nen im Netzwerk. Jeder Rechner ist also in der Lage, als Client und als Server zu agieren. Ein Beispiel für eine Peer-to-Peer-Ar­chi­tek­tur ist die Block­chain von Kryp­to­wäh­run­gen.

Bei der Kon­zep­tio­nie­rung einer Schich­ten­ar­chi­tek­tur werden einzelne Aspekte eines Software-Systems auf mehrere Ebenen (engl. tier, layer) verteilt, wodurch die Effizienz und Fle­xi­bi­li­tät des Dis­tri­bu­ted Com­pu­tings erhöht wird. Die Sys­tem­ar­chi­tek­tur, die je nach Ver­wen­dungs­zweck als Zwei-Tier-, Drei-Tier- oder N-Tier-Ar­chi­tek­tur aus­ge­stal­tet werden kann, ist bei Web­an­wen­dun­gen häufig an­zu­tref­fen.

Eine ser­vice­ori­en­tier­te Ar­chi­tek­tur (SOA) stellt Dienste in den Mit­tel­punkt und ori­en­tiert sich dabei an den in­di­vi­du­el­len Be­dürf­nis­sen und Abläufen eines Un­ter­neh­mens. So lassen sich einzelne Services zu einem maß­ge­schnei­der­ten Ge­schäfts­pro­zess zu­sam­men­fas­sen. Bei­spiels­wei­se wird der Ge­samt­pro­zess „On­line­be­stel­lung“, an dem die Services „Be­stel­lungs­auf­nah­me“, „Bo­ni­täts­prü­fung“ und „Rechnung senden“ beteiligt sind, in einer SOA ab­ge­bil­det. Tech­ni­sche Kom­po­nen­ten (Server, Da­ten­ban­ken etc.) agieren als Hilfs­mit­tel, stehen aber nicht im Vor­der­grund. Priorität hat bei diesem Dis­tri­bu­ted-Computing-Konzept die sinnvolle Bündelung, Zu­sam­men­ar­beit und Or­ga­ni­sa­ti­on von Services mit Blick auf eine möglichst ef­fi­zi­en­te und rei­bungs­lo­se Ab­wick­lung von Ge­schäfts­pro­zes­sen.

In einer ser­vice­ori­en­tier­ten Ar­chi­tek­tur wird be­son­de­rer Wert auf wohl­de­fi­nier­te Schnitt­stel­len gelegt, die die Kom­po­nen­ten operativ verbinden und die Effizienz steigern. Letztere pro­fi­tiert auch von der Fle­xi­bi­li­tät des Systems, da Dienste variabel in mehreren Kontexten ein­ge­setzt und in Ge­schäfts­pro­zes­sen wie­der­ver­wen­det werden können. Ser­vice­ori­en­tier­te Ar­chi­tek­tu­ren, die auf Dis­tri­bu­ted Computing setzen, basieren häufig auf Web­ser­vices. Sie werden bei­spiels­wei­se auf ver­teil­ten Platt­for­men wie CORBA, MQSeries und J2EE rea­li­siert.

Die Vorteile von Dis­tri­bu­ted Computing

Dis­tri­bu­ted Computing hat zahl­rei­che Vorteile. Un­ter­neh­men können eine leis­tungs­fä­hi­ge und be­zahl­ba­re In­fra­struk­tur aufbauen, die anstelle extrem teurer Groß­com­pu­ter (Main­frames) preis­wer­te han­dels­üb­li­che Computer mit Mi­kro­pro­zes­so­ren nutzt. Große Cluster können sogar die Leis­tungs­fä­hig­keit einzelner Su­per­com­pu­ter über­schrei­ten und komplexe re­chen­in­ten­si­ve Aufgaben des High-Per­for­mance-Com­pu­tings be­wäl­ti­gen.

Da die Sys­tem­ar­chi­tek­tu­ren des Dis­tri­bu­ted Com­pu­tings aus mehreren, teils sogar redundant vor­lie­gen­den Kom­po­nen­ten aufgebaut sind, lässt sich der Ausfall einzelner Einheiten leichter kom­pen­sie­ren (erhöhte Aus­fall­si­cher­heit). Durch die hoch­gra­di­ge Auf­ga­ben­tei­lung können Prozesse aus­ge­la­gert und die Re­chen­last auf­ge­teilt (Last­ver­tei­lung) werden.

Viele Lösungen des Dis­tri­bu­ted Com­pu­tings zielen auf eine erhöhte Fle­xi­bi­li­tät, die meist auch die Effizienz und Wirt­schaft­lich­keit steigert. Für bestimmte Pro­blem­lö­sun­gen können gezielt spe­zia­li­sier­te Platt­for­men wie Da­ten­bank­ser­ver ein­ge­bun­den werden. Bei­spiels­wei­se durch SOA-Ar­chi­tek­tu­ren in Ge­schäfts­be­rei­chen sind in­di­vi­du­el­le Lösungen möglich, die maß­ge­schnei­dert bestimmte Ge­schäfts­pro­zes­se op­ti­mie­ren. Anbieter können weltweit Re­chen­ka­pa­zi­tä­ten und In­fra­struk­tu­ren anbieten, wodurch etwa cloud­ba­sier­tes Arbeiten möglich wird. Dabei kann auf die Be­dürf­nis­se der Kunden mit ge­staf­fel­ten und be­darfs­ge­rech­ten Angeboten und Tarifen reagiert werden.

Zur Fle­xi­bi­li­tät von Dis­tri­bu­ted Computing gehört, dass etwa für besonders am­bi­tio­nier­te Projekte auch temporär brach­lie­gen­de Ka­pa­zi­tä­ten genutzt werden können. Flexibel sind Anwender und Un­ter­neh­men auch bei der An­schaf­fung von Hardware, da sie nicht an einen einzelnen Her­stel­ler gebunden sind.

Ein großer Vorteil ist die Ska­lier­bar­keit. Un­ter­neh­men können kurz­fris­tig und schnell skalieren oder bei kon­ti­nu­ier­li­chem or­ga­ni­schen Wachstum die benötigte Re­chen­leis­tung schritt­wei­se an den Bedarf anpassen. Setzt man bei der Ska­lie­rung auf eigene Hardware, lässt sich der Ge­rä­te­park in be­zahl­ba­ren Schritten kon­ti­nu­ier­lich erweitern.

Trotz vieler Vorteile hat Dis­tri­bu­ted Computing auch einige Nachteile, etwa einen erhöhten Im­ple­men­tie­rungs- und War­tungs­auf­wand bei komplexen Sys­tem­ar­chi­tek­tu­ren. Zudem müssen Timing- und Syn­chro­ni­sa­ti­ons­pro­ble­me zwischen ver­teil­ten Instanzen bewältigt werden. Hin­sicht­lich der Aus­fall­si­cher­heit hat der de­zen­tra­le Ansatz gegenüber einer einzigen Ver­ar­bei­tungs­in­stanz zwar gewisse Vorteile. Gleich­zei­tig entstehen aus dem Verfahren des Dis­tri­bu­ted Computing aber auch Si­cher­heits­pro­ble­me, etwa durch den Da­ten­trans­port über öf­fent­li­che Netzwerke und deren An­fäl­lig­keit für Sabotage und Hacking. Verteilte In­fra­struk­tu­ren haben außerdem generell eine größere Feh­ler­an­fäl­lig­keit, da es auf der Hardware- und Software-Ebene mehr Schnitt­stel­len und po­ten­zi­el­le Pro­blem­quel­len gibt. Die Problem- und Feh­ler­dia­gno­se ist ebenfalls durch die in­fra­struk­tu­rel­le Kom­ple­xi­tät erschwert.

Wo kommt Dis­tri­bu­ted Computing zum Einsatz?

Dis­tri­bu­ted Computing ist mitt­ler­wei­le eine es­sen­zi­el­le Ba­sis­tech­no­lo­gie der Di­gi­ta­li­sie­rung unserer Lebens- und Ar­beits­welt. So wären das Internet und die dort an­ge­bo­te­nen Services ohne die Client-Server-Ar­chi­tek­tu­ren ver­teil­ter Systeme undenkbar. An jeder Google-Suche ist Dis­tri­bu­ted Computing beteiligt, wenn Zu­lie­fer­in­stan­zen auf der ganzen Welt in enger Zu­sam­men­ar­beit ein passendes Such­ergeb­nis ge­ne­rie­ren. Google Maps und Google Earth setzen bei ihren Diensten ebenfalls auf Dis­tri­bu­ted Computing.

Verfahren und Ar­chi­tek­tu­ren des ver­teil­ten Rechnens verwenden zudem Mail- und Con­fe­ren­cing-Systeme, Re­ser­vie­rungs­sys­te­me von Flug­ge­sell­schaf­ten und Ho­tel­ket­ten, Bi­blio­the­ken und Na­vi­ga­ti­ons­sys­te­me. Au­to­ma­ti­sie­rungs­pro­zes­se sowie Planungs-, Pro­duk­ti­ons- und Ent­wurfs­sys­te­me in der Ar­beits­welt sind be­vor­zug­te Ein­satz­ge­bie­te der Tech­no­lo­gie. Soziale Netzwerke, mobile Systeme, On­line­ban­king und On­lin­egam­ing (z. B. Mul­ti­play­er-Systeme) verwenden ef­fi­zi­en­te Dis­tri­bu­ted Systems.

Weitere Ein­satz­be­rei­che von Dis­tri­bu­ted Computing sind E-Learning-Platt­for­men, Künst­li­che In­tel­li­genz und E-Commerce. Einkäufe und Be­stell­vor­gän­ge in On­line­shops werden nor­ma­ler­wei­se durch verteilte Systeme un­ter­stützt. In der Me­teo­ro­lo­gie setzen Sensoring- und Mo­ni­to­ring­sys­te­me bei der Vor­her­sa­ge von Ka­ta­stro­phen auf die Re­chen­ka­pa­zi­tä­ten von Dis­tri­bu­ted Systems. Viele digitale An­wen­dun­gen basieren heute auf ver­teil­ten Da­ten­ban­ken.

Besonders re­chen­in­ten­si­ve For­schungs­pro­jek­te, die früher teure Su­per­com­pu­ter einsetzen mussten (z. B. Cray-Computer), können heute mit kos­ten­güns­ti­ge­ren Dis­tri­bu­ted Systems rea­li­siert werden. Das Volunteer-Computing-Projekt Seti@home setzte von 1999 bis 2020 Maßstäbe im Bereich des ver­teil­ten Rechnens. Zahllose vernetzte Heim­com­pu­ter von Pri­vat­an­wen­dern werteten Daten vom Ra­dio­te­le­skop Arecibo in Puerto Rico aus und un­ter­stütz­ten die Uni­ver­si­tät Berkeley bei der Suche nach au­ßer­ir­di­schem Leben.

Eine Be­son­der­heit war der res­sour­cen­scho­nen­de Ansatz: Die Aus­wer­tungs­soft­ware arbeitete nur in Phasen, in denen die Computer der Anwender nichts zu tun hatten. Nach der Si­gnal­ana­ly­se gingen die Er­geb­nis­se zurück an die Zentrale in Berkeley. Ver­gleich­ba­re Projekte gibt es weltweit auch an anderen Uni­ver­si­tä­ten und In­sti­tu­ten.

Tipp

Die Grund­la­gen von Dis­tri­bu­ted Computing werden im YouTube-Channel von Education 4u in mehreren Er­klär­vi­de­os an­schau­lich dar­ge­stellt.

Zum Hauptmenü