Wie ich einmal Weltraumforscher, Molekularbiologe, Mathematiker und noch viel mehr war

Freitag, 23. Februar 2007, 12.07 Uhr

Vor ein paar Jahren war ich eine Zeitlang in der Weltraumforschung tätig. Jede freie Minute nutzte ich zur Auswertung von Messdaten eines Radioteleskops und der Suche nach Signalen extraterristischen Lebens. Als mich die anhaltende Erfolglosigkeit der Suche etwas frustrierte und das Thema seinen Reiz verlor, beschäftigte ich mich etwas intensiver mit der Berechnung von Primzahlen, machte einen Abstecher in die Molekularbiologie und widmete mich ansonsten der Klimaforschung. Das glauben Sie jetzt nicht? Das stimmt aber.Naja, fast.

Gemeinsamkeit macht stark

Alle genannten Forschungsbereiche haben eines gemeinsam: Die eingesetzten Algorithmen und die Grundlagen der Berechnungen sind recht simpel, aber man benötigt dafür praktisch unbegrenzte CPU-Power. Die Auswertung weltweiter Wettermesswerte etwa zwingt jeden noch so leistungsfähigen (und kostspieligen) Hochleistungsrechner problemlos in die Knie – es ist kein Zufall, dass die mit Abstand größte Datenbank der Welt beim „World Data Center for Climate“ zu finden ist.

Die Lösung des Problems, dass in in der wissenschaftlichen Forschung immer gigantischere Datenmengen anfallen, mit denen kein Computer mehr fertig wird, heißt „distributed computing“, also „verteiltes Rechnen“. Das Verfahren basiert auf der Überlegung, dass die anfallenden Rechenaufgaben zwar jeden Computer überfordern – aber doch bestimmt nicht alle. Anders gesagt: Gemeinsamkeit macht stark.

Statt einen Rechner mit den Daten zu füttern werden die Datenberge in handliche Häppchen aufgeteilt und an mehrere Tausende Computer verschickt. Die berechnen ihren Datenausschnitt, schicken das Ergebnis an den Zentralrechner zurück und erhalten im Austausch das nächste Päckchen. Jeder dieser Computer trägt so sein Scherflein bei und gemeinsam bewältigen sie Aufgaben, die ein einzelner Computer niemals lösen könnte.

Die Suche nach den kleinen grünen Männchen

Richtig populär wurde dieses Verfahren 1999. Damals nämlich startete das Projekt Seti@home. Seti steht für „Search for extraterrestrial intelligence“, also für „Suche nach außerirdischer Intelligenz“. Dabei analysiert man die Messergebnisse von Radioteleskopen nach bestimmen Merkmalen, die darauf hindeuten, dass diese Signale künstlichen Ursprungs sind. Unsere Erde wäre zum Beispiel für außerirdische Beobachter eine Quelle für eindeutig künstliche Radiosignale (wenn Sie den Film Contact gesehen haben, wird Ihnen das bekannt vorkommen).

Um den im Laufe der Zeit angehäuften Datenberg abzutragen, ohne ganze Rechenzentren lahm zu legen, setzte man beim Seti-Projekt „verteiltes Rechnen“ für ganz normale PCs um.

Jeder PC, ob im Büro oder daheim, verbringt den bei weitem größte Teil seiner eingeschalteten Zeit mit Warten. Bei Seti@home werden diese Auszeiten für die Analyse von Messdaten genutzt. Dazu installiert jeder, der mitmachen möchte, auf seinem PC ein kleines Programm, das immer dann aktiv wird, wenn der PC ansonsten nichts zu tun hat. Während der Benutzer also kurz den Müll rausbringt, in einer Besprechung sitzt oder zur Mittagspause geht, macht sich sein PC nützlich und berechnet Seti-Daten.

Fragwüdig? Vielleicht, aber mit Vorbildcharakter

Nun mag das Seti-Projekt als Ganzes eine eher fragwürdige Angelegenheit sein – manche Leute meinen ja, man sollte erst mal nach irdischer Intelligenz suchen, bevor man nach außerirdischer sucht.

Doch Seti@home hat eindrucksvoll bewiesen, dass „verteiltes Rechnen“ auch via Internet und mit x-beliebigen Computern realisiert werden kann. Die im Projekt vernetzte Rechenleistung entspricht laut Wikipedia ungefähr dem des derzeit leistungsfähigsten Super-Computer BlueGene/L. Und nicht nur das: „Seit 1999 haben die am Projekt teilnehmenden Rechner zusammen knapp 2,3 Millionen Jahre Rechenzeit erbracht. In dieser Zeit sind zirka 1,84 Milliarden Resultate von über 5,4 Millionen Benutzern eingegangen.“

So wurde das Seti@home zum Vorbild für zahlreiche ähnlich gelagerter Projekte aus Mathematik, Klimaforschung, Biologie oder der Krebsforschung. Überall, wo riesige statistische Daten durchmustert werden müssen, kann der Einsatz von distributed computing sinnvoll sein.

Wie Seti@home doch noch fündig wurde

Übrigens – so ganz erfolglos ist Seti@home nicht. Man hat nämlich kürzlich etwas gefunden. Keine außerirdische Intelligenz, aber doch ein gestohlenes Notebook. Der Dieb wusste nicht, dass auf dem Notebook die Seti@home-Software im Hintergrund lief und der Rechner in regelmäßigen Abständen mit dem Seti-Server Kontakt aufnahm. So konnte man über die benutzte IP-Adresse schließlich den Täter lokalisieren, das Notebook sicherstellen und seinem Besitzer zurückgeben.

Wenn Sie selbst einmal mitmachen möchten – die Wikipedia bietet eine umfangreiche Liste der Projekte verteilten Rechnens.


Ihr Kommentar Name (erforderlich):

Mail (wird nicht publiziert) (erforderlich):

Website: