load avarage permanent 10

Dieses Thema im Forum "Linux OS" wurde erstellt von joe_eis, 12.06.2014.

  1. #1 joe_eis, 12.06.2014
    joe_eis

    joe_eis Grünschnabel

    Dabei seit:
    27.11.2007
    Beiträge:
    8
    Zustimmungen:
    0
    Hallo Leute,

    bitte um hilfreiche Tipps, habe hier ein Debian ( 2.6.32-5-amd64), dessen load average seit 12 Stunden 10 ist.

    Die Tools sagen folgendes dazu:

    top
    Code:
    Tasks: 188 total,   1 running, 177 sleeping,   0 stopped,  10 zombie 
    Cpu0  :  2.7%us,  0.3%sy,  0.0%ni, 96.7%id,  0.0%wa,  0.0%hi,  0.3%si,  0.0%st 
    Cpu1  :  0.6%us,  0.3%sy,  0.0%ni, 99.0%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st 
    Cpu2  :  0.3%us,  0.3%sy,  0.0%ni, 99.3%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st 
    Cpu3  :  0.3%us,  1.0%sy,  0.0%ni, 98.7%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st 
    Mem:   8200036k total,  1196808k used,  7003228k free,    41944k buffers 
    Swap:  5859320k total,        0k used,  5859320k free,   227808k cached 
    
      PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND 
     2043 portal    20   0 1673m 737m  18m S    4  9.2   4:49.36 java 
     1822 root      20   0 63324 1916 1204 S    0  0.0   0:02.33 nmbd 
    20450 root      20   0 19176 1440 1020 R    0  0.0   0:00.02 top 
        1 root      20   0  8356  816  684 S    0  0.0   0:01.09 init 
    iostat
    Code:
    Linux 2.6.32-5-amd64 (mein-server)       12.06.2014      _x86_64_        (4 CPU) 
    
    avg-cpu:  %user   %nice %system %iowait  %steal   %idle 
               0,50    0,00    0,74    0,00    0,00   98,76 
    
    Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await  svctm  %util 
    sda               0,00     1,00    0,00    3,00     0,00     0,02    10,67     0,00    0,00   0,00   0,00
    df
    Code:
    Dateisystem           Size  Used Avail Use% Eingehängt auf 
    /dev/sda1             563M  316M  219M  60% / 
    tmpfs                 4,0G     0  4,0G   0% /lib/init/rw 
    udev                  4,0G  124K  4,0G   1% /dev 
    tmpfs                 4,0G     0  4,0G   0% /dev/shm 
    /dev/sda2             324M   25M  283M   8% /boot 
    /dev/sda8             5,5G  159M  5,1G   3% /home 
    /dev/sda7             7,4G  352M  6,7G   5% /opt 
    /dev/sda6              11G  157M   11G   2% /tmp 
    /dev/sda9              13G  3,1G  8,7G  27% /usr 
    /dev/sda5              17G  4,2G   12G  27% /var 
    Außerdem sind da 48 tcp, udp-Verbindungen, sowie 32 unix-sockets.
    Java ist jdk1.7.0_09 mit Einstellung -XX:MaxPermSize=128M -Xms64m -Xmx1024m

    Hauptanwendung ist eine in Java geschrieben Anwendung für Massendruck über CUPS

    Wo kann ich noch ansetzen?

    Viele Grüße
    Jörn
     
  2. Anzeige

    Schau dir mal diese Kategorie an. Dort findest du bestimmt etwas.
    Registrieren bzw. einloggen, um diese und auch andere Anzeigen zu deaktivieren
  3. nighT

    nighT Guest

    Hi,
    mir kommen 10 zombie-Prozesse ganz schön hoch vor:
    Code:
    Tasks: 188 total,   1 running, 177 sleeping,   0 stopped,  [B]10 zombie[/B]
    
    Schaue mal, was der folgende Befehl sagt:
    Code:
    ps aux | awk '{ print $8 " " $2 " " $11}' | grep -w Z[COLOR=#111111]
    [/COLOR]

    Damit bekommst du eine Liste aller Zombie-Prozesse (Stat=Z)
     
  4. Lord_x

    Lord_x Guest

    Wann wurde die Maschine gestartet? Die 10 Zombie Prozesse sind wirklich nicht gut. Sonst einfach mal rebooten...
    Code:
    ps axo pid=,stat= | awk '$2~/^Z/{print}'
    
     
  5. #4 bitmuncher, 12.06.2014
    bitmuncher

    bitmuncher Der Stillgelegte

    Dabei seit:
    08.05.2007
    Beiträge:
    3.171
    Zustimmungen:
    0
    Zombie-Prozesse erhöhen aber die LoadAVG-Werte nicht so. Wie sieht der RAM/Swap-Verbrauch aus? Wie häufig werden neue Prozesse geforkt? Wie hoch ist der Netzwerkdurchsatz und wie viele Netzwerk-Verbindungen sind offen?
     
  6. #5 joe_eis, 12.06.2014
    joe_eis

    joe_eis Grünschnabel

    Dabei seit:
    27.11.2007
    Beiträge:
    8
    Zustimmungen:
    0
    Ja wundert mich auch irgendwie, zumal ein Kollege den Server eine Stunde zuvor neu gebootet hatte:
     
  7. Lord_x

    Lord_x Guest

    An was genau machst du diese Zahl fest? OK die Zombies mal alle killen.
     
  8. #7 joe_eis, 12.06.2014
    joe_eis

    joe_eis Grünschnabel

    Dabei seit:
    27.11.2007
    Beiträge:
    8
    Zustimmungen:
    0
    Code:
    Mem:   8200036k total,  1196808k used,  7003228k free,    41944k buffers 
    Swap:  5859320k total,        0k used,  5859320k free,   227808k cached 
    Code:
     Curr: 14.22 MBit/s     #########  Avg: 12.43 MBit/s
                                            #########  Min: 9.72 MBit/s
                                            #########  Max: 19.84 MBit/s
                                            #########  Ttl: 31.22 GByte

    Code:
    48 tcp, udp-Verbindungen, sowie 32 unix-sockets
    Die Verzweigung der relevaten Anwendungen sieht so aus:

    Code:
    root      1380  0.3  0.5 114012 42184 ?        Ss   08:37   0:59 /usr/sbin/cupsd -C /etc/cups/cupsd.conf
    lp        1389  0.0  0.0  60084  1956 ?        S    08:37   0:00  \_ HP_LaserJet_P4014 4239 201137 
    lp        1968  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
    lp        1390  0.0  0.0  67168  2952 ?        S    08:37   0:00  \_ HP_LaserJet_P4014 4239 201137 
    lp        1393  0.0  0.0  60084  1960 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3600 16388 201211 
    lp        2005  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
    lp        1394  0.0  0.0  67168  2944 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3600 16388 201211 
    lp        1397  0.0  0.0  60084  1956 ?        S    08:37   0:00  \_ HP_LaserJet_P4015 62113 251525 
    lp        1962  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
    lp        1398  0.0  0.0  67168  2948 ?        S    08:37   0:00  \_ HP_LaserJet_P4015 62113 251525 
    lp        1401  0.0  0.0  60084  1960 ?        S    08:37   0:00  \_ HP_Color_LaserJet_CP3525 298977 120063 
    lp        2006  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
    lp        1402  0.0  0.0  67168  2952 ?        S    08:37   0:00  \_ HP_Color_LaserJet_CP3525 298977 120063 
    lp        1405  0.0  0.0  60084  1956 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3500 321050 7363613
    lp        2008  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
    lp        1407  0.0  0.0  67168  2948 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3500 321050 7363613 
    root      1381  0.0  0.5 114672 42792 ?        Ss   08:37   0:07 /usr/sbin/cupsd -C /etc/cups/cupsd.conf
    lp        1411  0.0  0.0  60084  1956 ?        S    08:37   0:00  \_ HP_LaserJet_P4014 4239 201137 
    lp        2002  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
    lp        1413  0.0  0.0  67168  2952 ?        S    08:37   0:00  \_ HP_LaserJet_P4014 4239 201137 
    lp        1418  0.0  0.0  60084  1960 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3600 16388 201211 
    lp        1961  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
    lp        1421  0.0  0.0  67168  2944 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3600 16388 201211 
    lp        1424  0.0  0.0  60084  1956 ?        S    08:37   0:00  \_ HP_LaserJet_P4015 62113 251525 
    lp        1963  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
    lp        1425  0.0  0.0  67168  2948 ?        S    08:37   0:00  \_ HP_LaserJet_P4015 62113 251525 
    lp        1428  0.0  0.0  60084  1964 ?        S    08:37   0:00  \_ HP_Color_LaserJet_CP3525 298977 120063 
    lp        2007  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
    lp        1429  0.0  0.0  67168  2952 ?        S    08:37   0:00  \_ HP_Color_LaserJet_CP3525 298977 120063 
    lp        1432  0.0  0.0  60084  1956 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3500 321050 7363613 
    lp        2009  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
    lp        1433  0.0  0.0  67168  2948 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3500 321050 7363613 
    101       1751  0.0  0.0  48260  1084 ?        Ss   08:37   0:00 /usr/sbin/exim4 -bd -q30m
    ntp       1805  0.0  0.0  34132  2092 ?        Ss   08:37   0:00 /usr/sbin/ntpd -p /var/run/ntpd.pid -g -u 108:116
    root      1822  0.1  0.0  63324  1948 ?        Ss   08:37   0:36 /usr/sbin/nmbd -D
    root      1826  0.0  0.0  93508  3372 ?        Ss   08:37   0:00 /usr/sbin/smbd -D
    root      1842  0.0  0.0  93508  1668 ?        S    08:37   0:00  \_ /usr/sbin/smbd -D
    root      1843  0.0  0.0  49180  1148 ?        Ss   08:37   0:00 /usr/sbin/sshd
    root      2557  0.0  0.0  89448  3820 ?        Ss   08:38   0:00  \_ sshd: root@pts/0
    root      3003  0.0  0.0  21500  4380 pts/0    Ss   08:38   0:00  |   \_ -bash
    root     10922  0.0  0.0  16452  1212 pts/0    R+   13:50   0:00  |       \_ ps faux
    root      7351  0.0  0.0  87392  3792 ?        Ss   08:43   0:00  \_ sshd: root@notty
    root      7362  0.0  0.0  12320   928 ?        Ss   08:43   0:00      \_ /usr/lib/openssh/sftp-server
    root      1855  0.0  0.0  67408  1760 ?        Ss   08:37   0:00 /usr/sbin/winbindd
    root      1864  0.0  0.0  67408  1412 ?        S    08:37   0:00  \_ /usr/sbin/winbindd
    root      1877  0.0  0.0  19336   988 ?        Ss   08:37   0:00 /usr/sbin/xinetd -pidfile /var/run/xinetd.pid -stayalive -inetd_compat -
    root      1889  0.0  0.0 118444  3972 ?        Sl   08:37   0:00 /usr/sbin/console-kit-daemon --no-daemon
    portal    1969  0.0  0.0  10916  1648 ?        S    08:37   0:00 /bin/bash /opt/xout/portal/instance1/portal.sh start /opt/xout/portal/in
    portal    2043 25.9 10.8 1792844 893492 ?      Sl   08:37  81:18  \_ /usr/lib/jvm/jdk1.7.0_09/bin/java -XX:MaxPermSize=128M -Xms64m -Xmx1
    portal    1972  0.0  0.0   9664  1904 ?        S    08:37   0:09 /bin/bash /opt/xout/portal/instance1/portal_logwriter -i /opt/xout/porta
    portal    2003  0.0  0.0   3892   480 ?        S    08:37   0:02  \_ /opt/xout/portal/instance1/portal_logcat /opt/xout/portal/instance1/
    portal   10915  0.0  0.0   3872   508 ?        S    13:50   0:00  \_ sleep 1
     
  9. #8 joe_eis, 12.06.2014
    Zuletzt bearbeitet: 12.06.2014
    joe_eis

    joe_eis Grünschnabel

    Dabei seit:
    27.11.2007
    Beiträge:
    8
    Zustimmungen:
    0
    War seit gestern abend so, auch vor dem reboot waren es 10 Zombies :(

    Die Prozesse lassen sich mit kill -9 nicht killen.

    Die Antwort auf Frage von bitmuncher wartet auf Freigabe durch die Administration ...
    Im Prinzip wie #1, zusätzlich


    +++
    EDIT:
    Hhmm, wurde wohl doch nicht frei gegeben.
     
  10. glako

    glako Eala Frya Fresena!

    Dabei seit:
    27.05.2007
    Beiträge:
    161
    Zustimmungen:
    0
    Ort:
    umme Ecke
  11. Anzeige

    Vielleicht findest du HIER Antworten.
    Registrieren bzw. einloggen, um diese und auch andere Anzeigen zu deaktivieren
  12. #10 joe_eis, 12.06.2014
    joe_eis

    joe_eis Grünschnabel

    Dabei seit:
    27.11.2007
    Beiträge:
    8
    Zustimmungen:
    0
    Dies ist doch nur ein Duplikat.
    Der Hersteller der Java-Software hat einen Workaround durchgeführt und es läuft wieder normal.
     
  13. #11 joe_eis, 12.06.2014
    Zuletzt bearbeitet: 13.06.2014
    joe_eis

    joe_eis Grünschnabel

    Dabei seit:
    27.11.2007
    Beiträge:
    8
    Zustimmungen:
    0
    Der Link ist doch nur ein Duplikat.
    Der Hersteller der Software der Java-Applikation führte einen Workaround durch und es läuft wieder normal.

    Als Ursache stellte sich ein hängender JBoss heraus, welcher mit in dem Prozess, auf einer anderen Kiste, eingebunden ist.
    Danke für die Beiträge.

    Gruß joe_eis
     
Thema:

load avarage permanent 10

Die Seite wird geladen...

load avarage permanent 10 - Ähnliche Themen

  1. Bootloader sichern und wiederherstellen mit dd

    Bootloader sichern und wiederherstellen mit dd: Hi, im Netz gibt es einige Guides in denen beschrieben ist wie man mit dd den Bootloader, den gesamten MBR oder den MBR inkl. des versteckten...
  2. Schadsoftware in Linux Mint-Downloads gefunden

    Schadsoftware in Linux Mint-Downloads gefunden: Wie das Linux Mint-Projekt bekannt gab, wurden die Server der Distribution kompromittiert und mit einem Schädling infiziert, der Passwörter...
  3. SoftMaker startet »Load and Help 2015«

    SoftMaker startet »Load and Help 2015«: Wer bis zum Heiligabend kostenfrei eine Vollversion von SoftMaker FreeOffice herunterlädt, trägt gleichzeitig zu einer wohltätigen Spende bei. Wie...
  4. Sicherung der Systempartition inkl. Bootloader + ein paar Verständnisfragen

    Sicherung der Systempartition inkl. Bootloader + ein paar Verständnisfragen: Hallo, ich habe 2 Mediacenter-PC im Wohn- und Schlafzimmer in denen jeweils Ubuntu auf einer SSD installiert wurde. Einer läuft mit einem Bios,...
  5. Opensuse 13.1 Download Geschwindigkeit zu langsam

    Opensuse 13.1 Download Geschwindigkeit zu langsam: Hallo zusammen, ich habe momentan OpenSuse 13.1 installiert und hat auch bis jetzt immer alles geklappt. Aber jetzt habe ich seit einigen Tagen...