Sascha Luehrs
2004-07-29 23:56:31 UTC
Das ist jetzt etwas offtopic, aber da ja schon manches andere
strittige Posting hier gepostet wurde, erlaube ich mir das einfach mal
;-)
Es geht sozusagen um "meine eigene Ideologie".
Ich habe 1998 zum ersten Mal von ***@home gehört, das ist dieses von
der Berkeley Universität in Kalifornien veranstaltete Projekt zur
Auswertung der Daten, die das Arecibo-Radioteleskop (
Loading Image...
) in New Mexico
liefert. Es geht dabei um die Suche nach außerirdischen Signalen, die
auf intelligentes Leben schließen lassen, weswegen ich auch nie dabei
mitgerechnet habe, weil mir das ..äh.. zu unwahrscheinlich war, und
zumindest bis heute haben sie ja auch nichts gefunden. Die
Datenmengen, die dabei anfallen, sind so groß, das ein Superrechner
dafür nicht ausreichte, und davon abgesehen hätte die Uni Berkeley
auch gar nicht das Geld gehabt, einen zu kaufen. Deshalb haben sie das
Prinzip des Distributed Computing (Verteiltes Rechnen) eingesetzt, was
heisst, daß sie die auszuwertenden Daten in winzig kleine Pakete
aufteilen, und diese dann an gewöhnliche Desktop-Computer auf der
ganzen Welt verteilen. Diese Computer gehören Freiwilligen, ganz
gewöhnlichen Internet-Nutzern mit eigenem PC. Wenn man selbst so ein
Freiwilliger werden möchte, geht man einfach auf die ***@home-Website
(http://setiathome.ssl.berkeley.edu) und lädt sich dort ein kleines
Programm, den sogenannten ***@home-Client herunter. Hat man diesen
installiert, lädt er vom ***@home-Server in Kalifornien Datenpakete
herunter und fängt an, diese (vollautomatisch) auszuwerten. Das
Ergebnis schickt er anschließend an den ***@home-Server der Berkeley
Universität zurück. Ein einzelner PC bewirkt natürlich fast nichts,
das ganze wird erst dadurch so irre schnell und effizient, daß es auf
der Welt über 500.000 Freiwillige gibt, die ihre Computer für dieses
Projekt einspannen, denn dadurch sind auch über 500.000 PCs
gleichzeitig mit dem Auswerten dieser Daten beschäftigt.
Damals habe ich mir gedacht, daß es doch eine prima Sache wäre, wenn
auch in der Forschung tätige Mediziner, die ja selbst oft Großcomputer
benötigen, dieses Prinzip auch für ihre Forschung einsetzen würden.
Und das passierte dann auch tatsächlich. Ende 1999 gründete der
Biophysiker Dr. Vijay S. Pande von der berühmten, ebenfalls in
Kalifornien ansässigen Stanford-Universität die Projekte ***@home
und ***@home, die seitdem Grundlagenforschung in der
Molekularbiologie und der Genetik betrieben. ***@home wurde vor
einem Jahr mangels finanzieller Mittel leider eingestellt.
***@home hingegen, das das Verhalten von Proteinen (nicht denen in
Eurem Essen, sondern denen im menschlichen Körper) erforscht. Dieses
Projekt ist noch heute aktiv und wird heute von 163.000 freiwilligen
Computer-Besitzern mit "Rechenkraft" unterstützt (vor 2 Jahren warens
noch 30.000) und außerdem von einigen namhaften Firmen mit Mitteln,
u.a. Dell, Apple, Google. Sämtliche Ergebnisse, die ***@h erzielt,
werden in allen Details öffentlich publiziert, so dass jeder
Wissenschaftler auf der Welt sie beliebig nutzen kann. Wer seinen
Computer für ***@h einspannen möchte, kann unter
http://folding.stanford.edu sofort damit loslegen.
***@home ist aber inzwischen nicht mehr das einzige Projekt dieser
Art.
Es gibt auch noch weitere Projekte, nämlich
***@home (http://predictor.scripps.edu) vom (sogar
gemeinnützigen) Scripps Research Institute (www.scripps.edu). Versucht
per gigantischer verteilter Computersimulation ein bereits
existierendes, in der Medikamenten-Forschung schon seit Jahren von
fast allen Pharma-Unternehmen eingesetztes Screening-Verfahren zu
optimieren.
Find-a-drug (www.find-a-drug.com) von der Treweren Consults Group. Wie
die beiden vorigen Projekte ist Find-a-Drug ebenfalls ein
nonprofit-Projekt, d.h. also ebenfalls nichtkommerziell. Betreibt
Medikamentenscreening im Computer, untersucht per gigantischer
verteilter Computer-Simulation ein paar Milliarden Moleküle darauf,
inwieweit sie dazu geeignet sind, bestimmten Viren, bestimmten
krankheitserregenden Bakterien und Parasiten, sowie auch Krebszellen
Schaden zuzufügen. Auch bei diesem Projekt, obwohl von einer privaten
Firma ins Leben gerufen, besteht an der Seriösität nicht der geringste
Zweifel.
Bei allen drei Projekten gilt, dass man einfach nur ein Programm auf
der jeweiligen Website downloaden und installieren muss, um daran
teilzunehmen. Wobei installieren allein natürlich nicht reicht,
starten und laufen lassen muss man es natürlich auch ab und zu ;-)
Oder man legts halt gleich in den Autostart-Ordner von Windows.
Davon abgesehen finde ich es auch eine tolle Sache, dass, wenn man
selbst chronisch krank ist, und sich wie ich aus der Biotechnologie
Heilung erhofft, man den Forschern sogar bei der Forschung helfen
kann, indem man ihnen einfach ab und zu etwas Rechenleistung schenkt.
strittige Posting hier gepostet wurde, erlaube ich mir das einfach mal
;-)
Es geht sozusagen um "meine eigene Ideologie".
Ich habe 1998 zum ersten Mal von ***@home gehört, das ist dieses von
der Berkeley Universität in Kalifornien veranstaltete Projekt zur
Auswertung der Daten, die das Arecibo-Radioteleskop (
Loading Image...
liefert. Es geht dabei um die Suche nach außerirdischen Signalen, die
auf intelligentes Leben schließen lassen, weswegen ich auch nie dabei
mitgerechnet habe, weil mir das ..äh.. zu unwahrscheinlich war, und
zumindest bis heute haben sie ja auch nichts gefunden. Die
Datenmengen, die dabei anfallen, sind so groß, das ein Superrechner
dafür nicht ausreichte, und davon abgesehen hätte die Uni Berkeley
auch gar nicht das Geld gehabt, einen zu kaufen. Deshalb haben sie das
Prinzip des Distributed Computing (Verteiltes Rechnen) eingesetzt, was
heisst, daß sie die auszuwertenden Daten in winzig kleine Pakete
aufteilen, und diese dann an gewöhnliche Desktop-Computer auf der
ganzen Welt verteilen. Diese Computer gehören Freiwilligen, ganz
gewöhnlichen Internet-Nutzern mit eigenem PC. Wenn man selbst so ein
Freiwilliger werden möchte, geht man einfach auf die ***@home-Website
(http://setiathome.ssl.berkeley.edu) und lädt sich dort ein kleines
Programm, den sogenannten ***@home-Client herunter. Hat man diesen
installiert, lädt er vom ***@home-Server in Kalifornien Datenpakete
herunter und fängt an, diese (vollautomatisch) auszuwerten. Das
Ergebnis schickt er anschließend an den ***@home-Server der Berkeley
Universität zurück. Ein einzelner PC bewirkt natürlich fast nichts,
das ganze wird erst dadurch so irre schnell und effizient, daß es auf
der Welt über 500.000 Freiwillige gibt, die ihre Computer für dieses
Projekt einspannen, denn dadurch sind auch über 500.000 PCs
gleichzeitig mit dem Auswerten dieser Daten beschäftigt.
Damals habe ich mir gedacht, daß es doch eine prima Sache wäre, wenn
auch in der Forschung tätige Mediziner, die ja selbst oft Großcomputer
benötigen, dieses Prinzip auch für ihre Forschung einsetzen würden.
Und das passierte dann auch tatsächlich. Ende 1999 gründete der
Biophysiker Dr. Vijay S. Pande von der berühmten, ebenfalls in
Kalifornien ansässigen Stanford-Universität die Projekte ***@home
und ***@home, die seitdem Grundlagenforschung in der
Molekularbiologie und der Genetik betrieben. ***@home wurde vor
einem Jahr mangels finanzieller Mittel leider eingestellt.
***@home hingegen, das das Verhalten von Proteinen (nicht denen in
Eurem Essen, sondern denen im menschlichen Körper) erforscht. Dieses
Projekt ist noch heute aktiv und wird heute von 163.000 freiwilligen
Computer-Besitzern mit "Rechenkraft" unterstützt (vor 2 Jahren warens
noch 30.000) und außerdem von einigen namhaften Firmen mit Mitteln,
u.a. Dell, Apple, Google. Sämtliche Ergebnisse, die ***@h erzielt,
werden in allen Details öffentlich publiziert, so dass jeder
Wissenschaftler auf der Welt sie beliebig nutzen kann. Wer seinen
Computer für ***@h einspannen möchte, kann unter
http://folding.stanford.edu sofort damit loslegen.
***@home ist aber inzwischen nicht mehr das einzige Projekt dieser
Art.
Es gibt auch noch weitere Projekte, nämlich
***@home (http://predictor.scripps.edu) vom (sogar
gemeinnützigen) Scripps Research Institute (www.scripps.edu). Versucht
per gigantischer verteilter Computersimulation ein bereits
existierendes, in der Medikamenten-Forschung schon seit Jahren von
fast allen Pharma-Unternehmen eingesetztes Screening-Verfahren zu
optimieren.
Find-a-drug (www.find-a-drug.com) von der Treweren Consults Group. Wie
die beiden vorigen Projekte ist Find-a-Drug ebenfalls ein
nonprofit-Projekt, d.h. also ebenfalls nichtkommerziell. Betreibt
Medikamentenscreening im Computer, untersucht per gigantischer
verteilter Computer-Simulation ein paar Milliarden Moleküle darauf,
inwieweit sie dazu geeignet sind, bestimmten Viren, bestimmten
krankheitserregenden Bakterien und Parasiten, sowie auch Krebszellen
Schaden zuzufügen. Auch bei diesem Projekt, obwohl von einer privaten
Firma ins Leben gerufen, besteht an der Seriösität nicht der geringste
Zweifel.
Bei allen drei Projekten gilt, dass man einfach nur ein Programm auf
der jeweiligen Website downloaden und installieren muss, um daran
teilzunehmen. Wobei installieren allein natürlich nicht reicht,
starten und laufen lassen muss man es natürlich auch ab und zu ;-)
Oder man legts halt gleich in den Autostart-Ordner von Windows.
Davon abgesehen finde ich es auch eine tolle Sache, dass, wenn man
selbst chronisch krank ist, und sich wie ich aus der Biotechnologie
Heilung erhofft, man den Forschern sogar bei der Forschung helfen
kann, indem man ihnen einfach ab und zu etwas Rechenleistung schenkt.