load avarage permanent 10

J

joe_eis

Grünschnabel
Hallo Leute,

bitte um hilfreiche Tipps, habe hier ein Debian ( 2.6.32-5-amd64), dessen load average seit 12 Stunden 10 ist.

Die Tools sagen folgendes dazu:

top
Code:
Tasks: 188 total,   1 running, 177 sleeping,   0 stopped,  10 zombie 
Cpu0  :  2.7%us,  0.3%sy,  0.0%ni, 96.7%id,  0.0%wa,  0.0%hi,  0.3%si,  0.0%st 
Cpu1  :  0.6%us,  0.3%sy,  0.0%ni, 99.0%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st 
Cpu2  :  0.3%us,  0.3%sy,  0.0%ni, 99.3%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st 
Cpu3  :  0.3%us,  1.0%sy,  0.0%ni, 98.7%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st 
Mem:   8200036k total,  1196808k used,  7003228k free,    41944k buffers 
Swap:  5859320k total,        0k used,  5859320k free,   227808k cached 

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND 
 2043 portal    20   0 1673m 737m  18m S    4  9.2   4:49.36 java 
 1822 root      20   0 63324 1916 1204 S    0  0.0   0:02.33 nmbd 
20450 root      20   0 19176 1440 1020 R    0  0.0   0:00.02 top 
    1 root      20   0  8356  816  684 S    0  0.0   0:01.09 init

iostat
Code:
Linux 2.6.32-5-amd64 (mein-server)       12.06.2014      _x86_64_        (4 CPU) 

avg-cpu:  %user   %nice %system %iowait  %steal   %idle 
           0,50    0,00    0,74    0,00    0,00   98,76 

Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await  svctm  %util 
sda               0,00     1,00    0,00    3,00     0,00     0,02    10,67     0,00    0,00   0,00   0,00

df
Code:
Dateisystem           Size  Used Avail Use% Eingehängt auf 
/dev/sda1             563M  316M  219M  60% / 
tmpfs                 4,0G     0  4,0G   0% /lib/init/rw 
udev                  4,0G  124K  4,0G   1% /dev 
tmpfs                 4,0G     0  4,0G   0% /dev/shm 
/dev/sda2             324M   25M  283M   8% /boot 
/dev/sda8             5,5G  159M  5,1G   3% /home 
/dev/sda7             7,4G  352M  6,7G   5% /opt 
/dev/sda6              11G  157M   11G   2% /tmp 
/dev/sda9              13G  3,1G  8,7G  27% /usr 
/dev/sda5              17G  4,2G   12G  27% /var

Außerdem sind da 48 tcp, udp-Verbindungen, sowie 32 unix-sockets.
Java ist jdk1.7.0_09 mit Einstellung -XX:MaxPermSize=128M -Xms64m -Xmx1024m

Hauptanwendung ist eine in Java geschrieben Anwendung für Massendruck über CUPS

Wo kann ich noch ansetzen?

Viele Grüße
Jörn
 
Hi,
mir kommen 10 zombie-Prozesse ganz schön hoch vor:
Code:
Tasks: 188 total,   1 running, 177 sleeping,   0 stopped,  [B]10 zombie[/B]

Schaue mal, was der folgende Befehl sagt:
Code:
ps aux | awk '{ print $8 " " $2 " " $11}' | grep -w Z[COLOR=#111111]
[/COLOR]

Damit bekommst du eine Liste aller Zombie-Prozesse (Stat=Z)
 
Wann wurde die Maschine gestartet? Die 10 Zombie Prozesse sind wirklich nicht gut. Sonst einfach mal rebooten...
Code:
ps axo pid=,stat= | awk '$2~/^Z/{print}'
 
Zombie-Prozesse erhöhen aber die LoadAVG-Werte nicht so. Wie sieht der RAM/Swap-Verbrauch aus? Wie häufig werden neue Prozesse geforkt? Wie hoch ist der Netzwerkdurchsatz und wie viele Netzwerk-Verbindungen sind offen?
 
Ja wundert mich auch irgendwie, zumal ein Kollege den Server eine Stunde zuvor neu gebootet hatte:
# ps aux | awk '{ print $8 " " $2 " " $11}' | grep -w Z
Z 1961 [gs]
Z 1962 [gs]
Z 1963 [gs]
Z 1968 [gs]
Z 2002 [gs]
Z 2005 [gs]
Z 2006 [gs]
Z 2007 [gs]
Z 2008 [gs]
Z 2009 [gs]
 
Zombie-Prozesse erhöhen aber die LoadAVG-Werte nicht so. Wie sieht der RAM/Swap-Verbrauch aus? Wie häufig werden neue Prozesse geforkt? Wie hoch ist der Netzwerkdurchsatz und wie viele Netzwerk-Verbindungen sind offen?

Code:
Mem:   8200036k total,  1196808k used,  7003228k free,    41944k buffers 
Swap:  5859320k total,        0k used,  5859320k free,   227808k cached

Code:
 Curr: 14.22 MBit/s     #########  Avg: 12.43 MBit/s
                                        #########  Min: 9.72 MBit/s
                                        #########  Max: 19.84 MBit/s
                                        #########  Ttl: 31.22 GByte


Code:
48 tcp, udp-Verbindungen, sowie 32 unix-sockets
Die Verzweigung der relevaten Anwendungen sieht so aus:

Code:
root      1380  0.3  0.5 114012 42184 ?        Ss   08:37   0:59 /usr/sbin/cupsd -C /etc/cups/cupsd.conf
lp        1389  0.0  0.0  60084  1956 ?        S    08:37   0:00  \_ HP_LaserJet_P4014 4239 201137 
lp        1968  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
lp        1390  0.0  0.0  67168  2952 ?        S    08:37   0:00  \_ HP_LaserJet_P4014 4239 201137 
lp        1393  0.0  0.0  60084  1960 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3600 16388 201211 
lp        2005  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
lp        1394  0.0  0.0  67168  2944 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3600 16388 201211 
lp        1397  0.0  0.0  60084  1956 ?        S    08:37   0:00  \_ HP_LaserJet_P4015 62113 251525 
lp        1962  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
lp        1398  0.0  0.0  67168  2948 ?        S    08:37   0:00  \_ HP_LaserJet_P4015 62113 251525 
lp        1401  0.0  0.0  60084  1960 ?        S    08:37   0:00  \_ HP_Color_LaserJet_CP3525 298977 120063 
lp        2006  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
lp        1402  0.0  0.0  67168  2952 ?        S    08:37   0:00  \_ HP_Color_LaserJet_CP3525 298977 120063 
lp        1405  0.0  0.0  60084  1956 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3500 321050 7363613
lp        2008  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
lp        1407  0.0  0.0  67168  2948 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3500 321050 7363613 
root      1381  0.0  0.5 114672 42792 ?        Ss   08:37   0:07 /usr/sbin/cupsd -C /etc/cups/cupsd.conf
lp        1411  0.0  0.0  60084  1956 ?        S    08:37   0:00  \_ HP_LaserJet_P4014 4239 201137 
lp        2002  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
lp        1413  0.0  0.0  67168  2952 ?        S    08:37   0:00  \_ HP_LaserJet_P4014 4239 201137 
lp        1418  0.0  0.0  60084  1960 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3600 16388 201211 
lp        1961  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
lp        1421  0.0  0.0  67168  2944 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3600 16388 201211 
lp        1424  0.0  0.0  60084  1956 ?        S    08:37   0:00  \_ HP_LaserJet_P4015 62113 251525 
lp        1963  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
lp        1425  0.0  0.0  67168  2948 ?        S    08:37   0:00  \_ HP_LaserJet_P4015 62113 251525 
lp        1428  0.0  0.0  60084  1964 ?        S    08:37   0:00  \_ HP_Color_LaserJet_CP3525 298977 120063 
lp        2007  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
lp        1429  0.0  0.0  67168  2952 ?        S    08:37   0:00  \_ HP_Color_LaserJet_CP3525 298977 120063 
lp        1432  0.0  0.0  60084  1956 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3500 321050 7363613 
lp        2009  0.0  0.0      0     0 ?        Z    08:37   0:00  |   \_ [gs] <defunct>
lp        1433  0.0  0.0  67168  2948 ?        S    08:37   0:00  \_ HP_Color_LaserJet_3500 321050 7363613 
101       1751  0.0  0.0  48260  1084 ?        Ss   08:37   0:00 /usr/sbin/exim4 -bd -q30m
ntp       1805  0.0  0.0  34132  2092 ?        Ss   08:37   0:00 /usr/sbin/ntpd -p /var/run/ntpd.pid -g -u 108:116
root      1822  0.1  0.0  63324  1948 ?        Ss   08:37   0:36 /usr/sbin/nmbd -D
root      1826  0.0  0.0  93508  3372 ?        Ss   08:37   0:00 /usr/sbin/smbd -D
root      1842  0.0  0.0  93508  1668 ?        S    08:37   0:00  \_ /usr/sbin/smbd -D
root      1843  0.0  0.0  49180  1148 ?        Ss   08:37   0:00 /usr/sbin/sshd
root      2557  0.0  0.0  89448  3820 ?        Ss   08:38   0:00  \_ sshd: root@pts/0
root      3003  0.0  0.0  21500  4380 pts/0    Ss   08:38   0:00  |   \_ -bash
root     10922  0.0  0.0  16452  1212 pts/0    R+   13:50   0:00  |       \_ ps faux
root      7351  0.0  0.0  87392  3792 ?        Ss   08:43   0:00  \_ sshd: root@notty
root      7362  0.0  0.0  12320   928 ?        Ss   08:43   0:00      \_ /usr/lib/openssh/sftp-server
root      1855  0.0  0.0  67408  1760 ?        Ss   08:37   0:00 /usr/sbin/winbindd
root      1864  0.0  0.0  67408  1412 ?        S    08:37   0:00  \_ /usr/sbin/winbindd
root      1877  0.0  0.0  19336   988 ?        Ss   08:37   0:00 /usr/sbin/xinetd -pidfile /var/run/xinetd.pid -stayalive -inetd_compat -
root      1889  0.0  0.0 118444  3972 ?        Sl   08:37   0:00 /usr/sbin/console-kit-daemon --no-daemon
portal    1969  0.0  0.0  10916  1648 ?        S    08:37   0:00 /bin/bash /opt/xout/portal/instance1/portal.sh start /opt/xout/portal/in
portal    2043 25.9 10.8 1792844 893492 ?      Sl   08:37  81:18  \_ /usr/lib/jvm/jdk1.7.0_09/bin/java -XX:MaxPermSize=128M -Xms64m -Xmx1
portal    1972  0.0  0.0   9664  1904 ?        S    08:37   0:09 /bin/bash /opt/xout/portal/instance1/portal_logwriter -i /opt/xout/porta
portal    2003  0.0  0.0   3892   480 ?        S    08:37   0:02  \_ /opt/xout/portal/instance1/portal_logcat /opt/xout/portal/instance1/
portal   10915  0.0  0.0   3872   508 ?        S    13:50   0:00  \_ sleep 1
 
War seit gestern abend so, auch vor dem reboot waren es 10 Zombies :(

Die Prozesse lassen sich mit kill -9 nicht killen.

Die Antwort auf Frage von bitmuncher wartet auf Freigabe durch die Administration ...
Im Prinzip wie #1, zusätzlich

Curr: 9.53 MBit/s
Avg: 11.48 MBit/s
Min: 9.53 MBit/s
Max: 26.58 MBit/s
Ttl: 32.59 GByte


+++
EDIT:
Hhmm, wurde wohl doch nicht frei gegeben.
 
Zuletzt bearbeitet:
Der Link ist doch nur ein Duplikat.
Der Hersteller der Software der Java-Applikation führte einen Workaround durch und es läuft wieder normal.

Als Ursache stellte sich ein hängender JBoss heraus, welcher mit in dem Prozess, auf einer anderen Kiste, eingebunden ist.
Danke für die Beiträge.

Gruß joe_eis
 
Zuletzt bearbeitet:

Ähnliche Themen

CentOS 6 - Kernel crashes mit 2.6.32-573.*

Rollei Mini Wifi Camcorder

Displayport + externer Monitor zeigt bei startx nichts erst bei DVI

Hohe CPU Load ohne erkennbaren Prozess

Problem mit Apache2 + MySQL Server

Zurück
Oben