Grid/Cluster

cremi

cremi

Dude
Ich bin gerade auf der suche nach der besten (Preis-Leistung) Lösung für einen Rechencluster.

Nun stehen zwei Lösungen zur auswahl:

Jetzt wollte ich fragen ob irgendjemand von euch Erfahrung damit hat oder irgendwelche Alternativen kennt.
Bin über alle Infos über Hardware und Software dankbar (und natrülich auch über jeden noch so OT Kommentar).
Vielleicht noch zur info, das ding sollte eine Rechendleistung um 250 GFLOPS haben und dann irgendwnn mal in den bereich von 1TF kommen.

bg
 
Zuletzt bearbeitet:
Interessante Frage...

Ich frage mich ob man mehrere (verschiedene) Pc's zu einem Cluster packen kann :)
 
Und was kostet der Spaß?
Ist das rein aus Interesse oder hast dafür wirklich Verwendung? (Keine Ironie. Interessiert mich wirklich :) )

Wir brauchen das wirklich. Der Einsatbereich ist in der Bioinformatik/-statistik. Wir müssen komplexe statistische Berechnungen und Metaanalysen über Datenmengen im TB bereich laufen lassen. Wir haben auch einige rechenaufwendige Visualisierungsanwendungen.
Jetzt dauert das alles einige Tage und wir erhoffen uns durch diese Anschaffung eine Reduktion auf einige Stunden bzw. einige Minuten.

Für das Ding hab ich noch kein Angebot bekommen, aber das etwas kleiner kostet laut dem hier: http://www.grafikkartenblog.de/hers...eistung-fuer-den-professionellen-bereich.html
12000$
Da haben wir teurere "Fileserver" im Keller stehn ;)
 
Zuletzt bearbeitet:
Hallo,

Ich komme aus dem Bereich Physik. Ich habe Erfahrungen mit Grid-Computing. Zunächst einmal ist der Begriff Cluster von Grid und auch Supercomputer zu trennen.

Dann würde ich die Anforderungen genauer spezifizieren. Also wieviele Wissenschaftler sollen auf die Daten zugreifen ? Wieviele Daten werden benötigt ? Kann man die Aufgaben sinnvoll parallelisieren ?

Zumindest in der langfristigen Sichtweise würde ich mich insbesondere im wissenschaftlichen Bereich an standardisierter Software und Hardware orientieren.

Grüße,
h2o
 
Hallo,

Ich komme aus dem Bereich Physik. Ich habe Erfahrungen mit Grid-Computing. Zunächst einmal ist der Begriff Cluster von Grid und auch Supercomputer zu trennen.

Dann würde ich die Anforderungen genauer spezifizieren. Also wieviele Wissenschaftler sollen auf die Daten zugreifen ? Wieviele Daten werden benötigt ? Kann man die Aufgaben sinnvoll parallelisieren ?

Zumindest in der langfristigen Sichtweise würde ich mich insbesondere im wissenschaftlichen Bereich an standardisierter Software und Hardware orientieren.

Grüße,
h2o
Wir benötige schnelle Hardware welche R-Scripts verarbeiten kann - immer ein Script nach dem anderen. Die Aufgaben kann man paralleisiern und R bietet dafür auch die Methoden an.

Standards: R muss laufen. Deshalb wird wahrscheinlich auch eher sowas in frage kommen:
http://us.fixstars.com/store/index.php?submit=software&submitimg[hardware][solutions]=1

Nur fürs selbe Geld bekomme ich bessere Rechenleistung von Nvidia. Die kann man halt nur mit CUDA (C) programmieren. Es gibt jedoch eine Schnittstelle für Matlab. Wir versuchen gerade herauszufinden wie aufwändig es wäre eine Schnittstelle für R zu bauen - dass könnte man dann ja auch Wissenschaftlich verwerten.
 
Wir benötige schnelle Hardware welche R-Scripts verarbeiten kann - immer ein Script nach dem anderen. Die Aufgaben kann man paralleisiern und R bietet dafür auch die Methoden an.

Standards: R muss laufen. Deshalb wird wahrscheinlich auch eher sowas in frage kommen:
http://us.fixstars.com/store/index.php?submit=software&submitimg[hardware][solutions]=1

Nur fürs selbe Geld bekomme ich bessere Rechenleistung von Nvidia. Die kann man halt nur mit CUDA (C) programmieren. Es gibt jedoch eine Schnittstelle für Matlab. Wir versuchen gerade herauszufinden wie aufwändig es wäre eine Schnittstelle für R zu bauen - dass könnte man dann ja auch Wissenschaftlich verwerten.

Schwer da wirklich etwas Qualifiziertes zu raten. Auch weil ich nicht die genauen Bedürfnisse kenne. Allgemein würde ich aber annehmen, dass diese NVidia-Lösung nicht so gut geeignet ist, wenn es um große Datenmengen geht. Obwohl wir teilweise auch algorithmisch arbeiten, sind wir meistens I/O-limitiert.

Inwiefern so ein PS3-Cluster ausreicht ist, ist schwer zu beurteilen. Bei einem Projekt mit ca. 10 Forschern und kleinem Buget könnte die Anschaffung sinnvoll sein. Ich würde allerdings professionelle Lösungen vorziehen. (HP, SUN usw.)

Grüße,
h2o
 
Würde mir auch mal Spass machen mit so einem System zu arbeiten. Für Forschungen im Bereich der Künstliche Intelligenz wäre das sicher auch zu haben.

mfg
 
Würde mir auch mal Spass machen mit so einem System zu arbeiten. Für Forschungen im Bereich der Künstliche Intelligenz wäre das sicher auch zu haben.

mfg

auf jeden fall - gerade bei neuronalen netzen uns svns gibts viel parallelisierbares
 

Ähnliche Themen

Problem mit Apache2 + MySQL Server

Portabler Server: Mobile Festplatte integriert WLAN

Zurück
Oben