nvidia GPU (cuda) unter Linux nutzbar ?

Dieses Thema im Forum "Diskussionen und Anfragen" wurde erstellt von schwedenmann, 16.11.2010.

  1. #1 schwedenmann, 16.11.2010
    schwedenmann

    schwedenmann Foren Gott

    Dabei seit:
    18.11.2003
    Beiträge:
    2.635
    Zustimmungen:
    2
    Ort:
    Wegberg
    Hallo

    Gibt es eigentlich Ansätze im Homebereich, die GPU von nvidia-Karten in Linux nutzbar zu machen, quasi als kleiner Minisupercomputer. Immerhin besteht der schnellste Supercomputer derzeit aus CPU's und GPU`s !

    In der Ct war mal ein Artikel dazu (Nr. müßte ich rauskramen, hab ich auf die schnelle nicht parat), da war aber nur 1 Linuxanwendung (script ?) aufgeführt.
    Die GPu könnte man doch auch im Hoimebereich für vieles einsetzen, angefangen vom Demuxen, Renden, bis hin zur Erstellung von Zufallszahlen.

    Gibt es in dem Bereich Ansätze. oder ist das immer noch kein Thema.

    mfg
    schwedenmann
     
  2. Anzeige

    Schau dir mal diese Kategorie an. Dort findest du bestimmt etwas.
    Registrieren bzw. einloggen, um diese und auch andere Anzeigen zu deaktivieren
  3. @->-

    @->- Guest

    Ich behaupte mal bei nvnews.net vor einigen Monaten gelesen zu haben das es unter Linux noch keinen Support für so etwas gibt. Auch war damals noch nichts geplant wenn ich mich nicht irre... Habe leider keinen Link parat.

    Grüße
     
  4. #3 marcellus, 16.11.2010
    marcellus

    marcellus Kaiser

    Dabei seit:
    09.05.2007
    Beiträge:
    1.392
    Zustimmungen:
    0
    Die weitaus interessantere Frage ist, ob es Sinn macht.

    Für gimp hast du zb http://sourceforge.net/projects/gimp-gpu/ die verwenden gpgpu, um das rendern von bildern auf die Graka auszulagern. Die Blender Leute streuben sich laut dem was ich letztens gelesen hab dagegen, weil die opengl beschleunigung schon ziemlich gut ist und das rendern auf opencl auszulagern ohnehin nicht viel Sinn hätte.

    Aber ganz ehrlich wie viel denkst du kann eine graka deinen üblichen Arbeitsablauf beschleunigen?
    Wenn du ein gentoo user bist wäre ein schnellerer cpu sinnvoller.
    Wenn du ubuntu/suse/fedora user bist kauf dir mehr ram und lies dich in prefetch ein. Wenn du debian user bist installier einen schnelleren kernel.
     
  5. towo

    towo Haudegen

    Dabei seit:
    16.05.2003
    Beiträge:
    649
    Zustimmungen:
    1
    Ort:
    Pößneck
    Dir is nicht wirklich klar, daß eine GPU wesentlich schneller rechnet als die CPU, oder?
     
  6. #5 marcellus, 16.11.2010
    marcellus

    marcellus Kaiser

    Dabei seit:
    09.05.2007
    Beiträge:
    1.392
    Zustimmungen:
    0
    Nein ist mir nicht klar,
    kannst du das irgendwie belegen?
     
  7. towo

    towo Haudegen

    Dabei seit:
    16.05.2003
    Beiträge:
    649
    Zustimmungen:
    1
    Ort:
    Pößneck
  8. #7 marcellus, 16.11.2010
    marcellus

    marcellus Kaiser

    Dabei seit:
    09.05.2007
    Beiträge:
    1.392
    Zustimmungen:
    0
    Du kannst damit viele kleine Operationen gleichzeitig machen, aber das bringt dir bei 99% der Anwendungen GAR NICHTS, und ja es mag sein, das Passwort knacken schneller geht und ja bilder kann man schneller rendern als auf einer cpu, aber das liegt nur daran weil man diese Aufgaben einfach in 100000 kleine parallel ablaufende threads zerlegen kann.
     
  9. rikola

    rikola Foren Gott

    Dabei seit:
    23.08.2005
    Beiträge:
    2.133
    Zustimmungen:
    0
    Und das kann z.B. bei einer parallelisierten Fouriertransformation enorm viel Zeit ersparen - will sagen, fuer z.B. wissenschaftliche Anwendungen ist die Frage durchaus sinnvoll und berechtigt. Sind ja nicht alle Nutzer hier Gelegenheitscomputernutzer.
     
  10. #9 kartoffel200, 17.11.2010
    Zuletzt bearbeitet: 17.11.2010
    kartoffel200

    kartoffel200 AMD Fanboy Since 2003

    Dabei seit:
    12.03.2007
    Beiträge:
    938
    Zustimmungen:
    0
    Ort:
    L wie localhost
    @marcellus
    Also Entschlüsselung geht mit GPUs seit Jahren ( seit der G80 von Nvidia) mit vier schnellen GPUs so schnell wie mit einigen Superrechnern mit mehreren hundert CPUs.
    Irgend eine Niederländische Uni hat für irgendwelche Berechnungen im medizinischen Bereich vor ein oder zwei Jahren einen PC mit 4 bis 8 GPUs gebaut der für ihre Zwecke Leistungsfähiger war als so mancher Superrechner.


    Du kannst halt parallele Threads machen, was eine etwas andere Planung voraussetzt sich aber laut Fachpresse auszahlt. (Gab mal zu OpenCL einen tollen ct Artikel, vor gut einem Jahr)

    Nvidia ist hier seit der G80 in dem Bereich ein Vorreiter. Seit der HD5000 und vor allem der HD6000 ist die OpenCL Leistung von AMD rasant gestiegen. Die HD4000er sind 2006 geplant worden und deshalb war diese Entwicklung noch nicht abzusehen und dies ist mit einer der Gründe warum die HD4000er so langsam bei OpenCL Anwendungen sind.

    In Windows Anwendungen sind OpenCL und Cuda entwicklungstechnisch momentan der letzte Schrei, so wie bei der Industrie die Java Geilheit vor Jahren ausgebrochen ist.

    http://wiki.ubuntuusers.de/Grafikka...ct=no#OpenCL-Berechnungen-auf-der-Grafikkarte (unten auf der Seite steht was zu OpenCL) AMD

    http://www.nvidia.de/object/cuda_opencl_new_de.html
    http://www.phoronix.com/scan.php?page=news_item&px=NzMzMg

    Ich hoffe mein wirres Zeug hilft weiter ^^.
     
  11. #10 marcellus, 17.11.2010
    marcellus

    marcellus Kaiser

    Dabei seit:
    09.05.2007
    Beiträge:
    1.392
    Zustimmungen:
    0
    Der Thread beginnt mit

    Und ihr kommt an mit Fouriertransformation und Entschlüsselungen, womit du vermutlich eher bruteforce attacken meinst, als tatsächlich etwas zu entschlüsseln.

    Und ja mit 100000 kleine parallel ablaufende threads hab ich solche Anwendungen gemeint.
     
  12. #11 SiS, 18.11.2010
    Zuletzt bearbeitet: 18.11.2010
    SiS

    SiS Routinier

    Dabei seit:
    12.02.2007
    Beiträge:
    318
    Zustimmungen:
    0
    Du meinst bestimmt Fastra I & Fastra II (auch wenn das eine beglische und keine niederländische Uni ist): http://fastra2.ua.ac.be/
    Fastra II arbeitet aufjedenfall auch unter Linux.

    Soweit läuft Cuda auch recht problemlos unter Linux. Aber sinnvollere Programme als gpu-md5-crack kenn ich jetzt auch nicht...(aber das läuft schnell, hab gerade eben ein 7 stelliges pw in 4 minuten gecrackt :devil:)
     
  13. #12 Tomekk228, 20.11.2010
    Tomekk228

    Tomekk228 Lebende Foren Legende

    Dabei seit:
    14.08.2007
    Beiträge:
    2.417
    Zustimmungen:
    0
    Ort:
    /home/tomekk/
    Haha, ich finde die Witze geil die, die da "unaufällig" reingebaut haben :D

    Wie zum schluß, wo er das Ding anwirft, und der Strom fällt aus haha 8)

    Ich hoffe doch mal dein eigenes Passwort das du einem gezipptem Archiv vor paar Jahren vergeben und vergessen hast ;)

    Sonst sag ich: Ha! Mal wieder Pr0n runtergeladen wa ;D

    @schwedemann

    Soweit ich weiß, gibt es noch nichts sinnvolles für den Homeanwender. Zu kleine Nachfrage. Hättest du den Thread nicht aufgemacht, hätte ich erst garnicht die Idee GPUs anderweitig zu "missbrauchen". So wird es wohl vielen gehen.

    Jetzt, wo ich mich ein bisschen darüber schlau gemacht habe, finde ich die Sache auch geil, vorallem bei der Vorstellung die Pr0n Sammlung dann alle gleichzeitig ins DVD Format zu konvertieren... :devil: 8)

    Just Joking ;)
     
  14. SiS

    SiS Routinier

    Dabei seit:
    12.02.2007
    Beiträge:
    318
    Zustimmungen:
    0
    Naja ich kannte das Passwort ja sogar...ich hatte einfach mal nen md5-key erzeugt um zusehen wie schnell das Teil tatsächlich arbeitet. Also bisher noch kein praktischer Einsatz.

    @Topic: Videoconverter mit Cuda gibts aber noch keine für Linux oder?
     
  15. Anzeige

    Vielleicht findest du HIER Antworten.
    Registrieren bzw. einloggen, um diese und auch andere Anzeigen zu deaktivieren
  16. Lord_x

    Lord_x Guest

    http://www.golem.de/1011/79701.html

    "...Darüber hinaus hat Nvidia Encoder und Decoder für H.264 in das Cuda-Toolkit integriert..."

    Damit sollte es doch möglich sein, einen anständigen Encoder und Decoder zu programmieren.
     
  17. #15 schwedenmann, 26.11.2010
    schwedenmann

    schwedenmann Foren Gott

    Dabei seit:
    18.11.2003
    Beiträge:
    2.635
    Zustimmungen:
    2
    Ort:
    Wegberg
    Hallo

    Laut ct 7, 16.3.2009 ist der intergrierte H264 Encoder nicht zu gebrauchen und produzierte im Test Fehler, einzig mpeg2 Transkodieren liefert gute Ergebnisse, aber Auflösungen von 1920x1080 waren nciht möglich. bei mpeg2 war cuda zwischen 30-80% schneller.
    TMPGenc (Winproggi) kann Cuda nutzen, jedoch nur für Dekodieren des Ausgangsmatreials, nicht fürs rechenintensive Transkodieren.

    Alles in allem bis jetzt für Homeanwender nada, schade eigentlich, denn fürs rendern (Animationen), Transkodieren könnte man so eine Menge Rechenzeit sparen.


    mfg
    schwedenmann
     
Thema: nvidia GPU (cuda) unter Linux nutzbar ?
Besucher kamen mit folgenden Suchen
  1. linux cuda

Die Seite wird geladen...

nvidia GPU (cuda) unter Linux nutzbar ? - Ähnliche Themen

  1. 2Monitore und 20-nvidia.conf

    2Monitore und 20-nvidia.conf: Hallo Wie würde eine /etc/X11/Xorg/xorg.conf.d/nvidiia.conf/20-nvidia.conf für 2 Monitore (afaik xinerame - ein einziger Bildschirm) aussehen ?...
  2. Grafiktreiber von Nvidia und AMD mit Vulkan-Unterstützung

    Grafiktreiber von Nvidia und AMD mit Vulkan-Unterstützung: Nvidia und AMD haben Betaversionen ihrer Linux-Grafiktreiber herausgegeben, die erstmals die neue 3D-Schnittstelle Vulkan unterstützen. Aber auch...
  3. Grafiktreiber von Nvidia und AMD mit Vulkan-Unterstützung

    Grafiktreiber von Nvidia und AMD mit Vulkan-Unterstützung: Nvidia und AMD haben Betaversionen ihrer Linux-Grafiktreiber herausgegeben, die erstmals die neue 3D-Schnittstelle Vulkan unterstützen. Aber auch...
  4. Nvidia aktualisiert Vulkan-Treiber

    Nvidia aktualisiert Vulkan-Treiber: Eine Woche nach der Freigabe der ersten Version von Vulkan hat der US-amerikanische Hersteller Nvidia seine Treiber einem Update unterzogen. Auch...
  5. Nouveau: Nvidia veröffentlicht 3D-Firmware

    Nouveau: Nvidia veröffentlicht 3D-Firmware: Ab der Generation »Maxwell« werden die Grafikchips von Nvidia nur noch dann den vollen Funktionsumfang freigeben, wenn eine von Nvidia signierte...