nvidia GPU (cuda) unter Linux nutzbar ?

schwedenmann

schwedenmann

Foren Gott
Hallo

Gibt es eigentlich Ansätze im Homebereich, die GPU von nvidia-Karten in Linux nutzbar zu machen, quasi als kleiner Minisupercomputer. Immerhin besteht der schnellste Supercomputer derzeit aus CPU's und GPU`s !

In der Ct war mal ein Artikel dazu (Nr. müßte ich rauskramen, hab ich auf die schnelle nicht parat), da war aber nur 1 Linuxanwendung (script ?) aufgeführt.
Die GPu könnte man doch auch im Hoimebereich für vieles einsetzen, angefangen vom Demuxen, Renden, bis hin zur Erstellung von Zufallszahlen.

Gibt es in dem Bereich Ansätze. oder ist das immer noch kein Thema.

mfg
schwedenmann
 
Ich behaupte mal bei nvnews.net vor einigen Monaten gelesen zu haben das es unter Linux noch keinen Support für so etwas gibt. Auch war damals noch nichts geplant wenn ich mich nicht irre... Habe leider keinen Link parat.

Grüße
 
Die weitaus interessantere Frage ist, ob es Sinn macht.

Für gimp hast du zb http://sourceforge.net/projects/gimp-gpu/ die verwenden gpgpu, um das rendern von bildern auf die Graka auszulagern. Die Blender Leute streuben sich laut dem was ich letztens gelesen hab dagegen, weil die opengl beschleunigung schon ziemlich gut ist und das rendern auf opencl auszulagern ohnehin nicht viel Sinn hätte.

Aber ganz ehrlich wie viel denkst du kann eine graka deinen üblichen Arbeitsablauf beschleunigen?
Wenn du ein gentoo user bist wäre ein schnellerer cpu sinnvoller.
Wenn du ubuntu/suse/fedora user bist kauf dir mehr ram und lies dich in prefetch ein. Wenn du debian user bist installier einen schnelleren kernel.
 
Aber ganz ehrlich wie viel denkst du kann eine graka deinen üblichen Arbeitsablauf beschleunigen?
Dir is nicht wirklich klar, daß eine GPU wesentlich schneller rechnet als die CPU, oder?
 
Du kannst damit viele kleine Operationen gleichzeitig machen, aber das bringt dir bei 99% der Anwendungen GAR NICHTS, und ja es mag sein, das Passwort knacken schneller geht und ja bilder kann man schneller rendern als auf einer cpu, aber das liegt nur daran weil man diese Aufgaben einfach in 100000 kleine parallel ablaufende threads zerlegen kann.
 
aber das liegt nur daran weil man diese Aufgaben einfach in 100000 kleine parallel ablaufende threads zerlegen kann.
Und das kann z.B. bei einer parallelisierten Fouriertransformation enorm viel Zeit ersparen - will sagen, fuer z.B. wissenschaftliche Anwendungen ist die Frage durchaus sinnvoll und berechtigt. Sind ja nicht alle Nutzer hier Gelegenheitscomputernutzer.
 
@marcellus
Also Entschlüsselung geht mit GPUs seit Jahren ( seit der G80 von Nvidia) mit vier schnellen GPUs so schnell wie mit einigen Superrechnern mit mehreren hundert CPUs.
Irgend eine Niederländische Uni hat für irgendwelche Berechnungen im medizinischen Bereich vor ein oder zwei Jahren einen PC mit 4 bis 8 GPUs gebaut der für ihre Zwecke Leistungsfähiger war als so mancher Superrechner.


Du kannst halt parallele Threads machen, was eine etwas andere Planung voraussetzt sich aber laut Fachpresse auszahlt. (Gab mal zu OpenCL einen tollen ct Artikel, vor gut einem Jahr)

Nvidia ist hier seit der G80 in dem Bereich ein Vorreiter. Seit der HD5000 und vor allem der HD6000 ist die OpenCL Leistung von AMD rasant gestiegen. Die HD4000er sind 2006 geplant worden und deshalb war diese Entwicklung noch nicht abzusehen und dies ist mit einer der Gründe warum die HD4000er so langsam bei OpenCL Anwendungen sind.

In Windows Anwendungen sind OpenCL und Cuda entwicklungstechnisch momentan der letzte Schrei, so wie bei der Industrie die Java Geilheit vor Jahren ausgebrochen ist.

http://wiki.ubuntuusers.de/Grafikka...ct=no#OpenCL-Berechnungen-auf-der-Grafikkarte (unten auf der Seite steht was zu OpenCL) AMD

http://www.nvidia.de/object/cuda_opencl_new_de.html
http://www.phoronix.com/scan.php?page=news_item&px=NzMzMg

Ich hoffe mein wirres Zeug hilft weiter ^^.
 
Zuletzt bearbeitet:
Der Thread beginnt mit

Hallo

Gibt es eigentlich Ansätze im Homebereich...

Und ihr kommt an mit Fouriertransformation und Entschlüsselungen, womit du vermutlich eher bruteforce attacken meinst, als tatsächlich etwas zu entschlüsseln.

Und ja mit 100000 kleine parallel ablaufende threads hab ich solche Anwendungen gemeint.
 
Irgend eine Niederländische Uni hat für irgendwelche Berechnungen im medizinischen Bereich vor ein oder zwei Jahren einen PC mit 4 bis 8 GPUs gebaut der für ihre Zwecke Leistungsfähiger war als so mancher Superrechner.

Du meinst bestimmt Fastra I & Fastra II (auch wenn das eine beglische und keine niederländische Uni ist): http://fastra2.ua.ac.be/
Fastra II arbeitet aufjedenfall auch unter Linux.

Soweit läuft Cuda auch recht problemlos unter Linux. Aber sinnvollere Programme als gpu-md5-crack kenn ich jetzt auch nicht...(aber das läuft schnell, hab gerade eben ein 7 stelliges pw in 4 minuten gecrackt :devil:)
 
Zuletzt bearbeitet:
Du meinst bestimmt Fastra I & Fastra II (auch wenn das eine beglische und keine niederländische Uni ist): http://fastra2.ua.ac.be/
Fastra II arbeitet aufjedenfall auch unter Linux.

Haha, ich finde die Witze geil die, die da "unaufällig" reingebaut haben :D

Wie zum schluß, wo er das Ding anwirft, und der Strom fällt aus haha 8)

Soweit läuft Cuda auch recht problemlos unter Linux. Aber sinnvollere Programme als gpu-md5-crack kenn ich jetzt auch nicht...(aber das läuft schnell, hab gerade eben ein 7 stelliges pw in 4 minuten gecrackt :devil:)
Ich hoffe doch mal dein eigenes Passwort das du einem gezipptem Archiv vor paar Jahren vergeben und vergessen hast ;)

Sonst sag ich: Ha! Mal wieder Pr0n runtergeladen wa ;D

@schwedemann

Soweit ich weiß, gibt es noch nichts sinnvolles für den Homeanwender. Zu kleine Nachfrage. Hättest du den Thread nicht aufgemacht, hätte ich erst garnicht die Idee GPUs anderweitig zu "missbrauchen". So wird es wohl vielen gehen.

Jetzt, wo ich mich ein bisschen darüber schlau gemacht habe, finde ich die Sache auch geil, vorallem bei der Vorstellung die Pr0n Sammlung dann alle gleichzeitig ins DVD Format zu konvertieren... :devil: 8)

Just Joking ;)
 
Ich hoffe doch mal dein eigenes Passwort das du einem gezipptem Archiv vor paar Jahren vergeben und vergessen hast ;)

Sonst sag ich: Ha! Mal wieder Pr0n runtergeladen wa ;D

Naja ich kannte das Passwort ja sogar...ich hatte einfach mal nen md5-key erzeugt um zusehen wie schnell das Teil tatsächlich arbeitet. Also bisher noch kein praktischer Einsatz.

@Topic: Videoconverter mit Cuda gibts aber noch keine für Linux oder?
 
Hallo

Laut ct 7, 16.3.2009 ist der intergrierte H264 Encoder nicht zu gebrauchen und produzierte im Test Fehler, einzig mpeg2 Transkodieren liefert gute Ergebnisse, aber Auflösungen von 1920x1080 waren nciht möglich. bei mpeg2 war cuda zwischen 30-80% schneller.
TMPGenc (Winproggi) kann Cuda nutzen, jedoch nur für Dekodieren des Ausgangsmatreials, nicht fürs rechenintensive Transkodieren.

Alles in allem bis jetzt für Homeanwender nada, schade eigentlich, denn fürs rendern (Animationen), Transkodieren könnte man so eine Menge Rechenzeit sparen.


mfg
schwedenmann
 
Die Golem.de News im Link, ist von heute! Ich denke das sind verschiedene Sachen...
 
Zurück
Oben