SNMP Info von HP Proliant werden teilweise falsch gelesen

Moin Moin Leute,

unser CheckMK, der momentan in der Version 1.6.0p3 ist scheint wohl ein bisschen was getrunken zu haben. Ich habe unsere ProLiant Server nun per SNMPv3 ins Monitoring mit aufgenommen (6 Stück an der Zahl) und bekomme bei zwei von denen Lustige Ergebnisse.

Server 1: Da findet gerade ein RAID Rebuild statt und es wird gelesen: Rebuild: 4294967295% Versteht mich nicht falsch, ich bin auch froh um schnellen Progress, aber so weit über 100% zu liegen ist ne Meisterleistung. :smiley:

Server 2: Da wird eine Kritische Warnung ausgegeben und CPU1 im State „failed“ zurückgegeben. Ich bin aber auf dem iLO drauf und bekomme dort angezeigt alles im grünen Bereich. Jetzt stehe ich etwas auf dem Schlauch, vonwo nimmt denn CheckMK nun die Info das CPU 1 failed?

Über jegliche Hinweise und Input würde ich mich freuen J

Liebe Grüße

Stephan

Hallo Stephan,

die Info kommt vom SNMP - scheint so, dass deine beiden Server keine ordentlichen Daten liefern.
Um hier weiter zu kommen wäre der SNMP Output ganz hilfreich.

Am einfachsten auf der Command Line ein “cmk --debug -vvn hostname” machen und hier den relevanten Output raus suchen.

Beispiel eines ILO:

+ FETCHING DATA
[cpu_tracking] Push phase 'snmp' (Stack: ['busy'])
 [snmp] No persisted sections loaded
 [snmp] Not using cache (Don't try it)
 [snmp] Execute data source
 [snmp] hp_proliant_cpu: Fetching data
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.1.2.2.1.1.1'
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.1.2.2.1.1.2'
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.1.2.2.1.1.3'
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.1.2.2.1.1.6'
 [snmp] hp_proliant_da_cntlr: Fetching data
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.3.2.2.1.1.1'
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.3.2.2.1.1.2'
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.3.2.2.1.1.5'
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.3.2.2.1.1.6'
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.3.2.2.1.1.9'
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.3.2.2.1.1.10'
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.3.2.2.1.1.12'
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.3.2.2.1.1.15'
 [snmp] hp_proliant_da_phydrv: Fetching data
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.3.2.5.1.1.1'
Running 'snmpbulkwalk -Cr10 -v2c -c public -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.65.248 .1.3.6.1.4.1.232.3.2.5.1.1.2'

In einer Enterprise Edition mit Inline SNMP sieht der Output etwas anders aus aber ist das Gleiche im Endeffekt.

Danach sind die eigentlichen Daten in dem Verzeichnis
/omd/sites/<site>/tmp/check_mk/data_source_cache/snmp/HOSTNAME
zu finden.
Diese Daten wären dann der wichtige Anhaltspunkt was nicht funktioniert.

2 Likes

Hallo Andreas,

das rebuild ist leider schon fertig. Aber bei dem anderen konnte ich dann folgendes ziehen:

OMD[monitor]:~$ cmk --debug -vvn iLO-ESX02
[cpu_tracking] Start with phase 'busy'
Check_MK version 1.6.0p3
Try aquire lock on /omd/sites/monitor/tmp/check_mk/counters/iLO-ESX02
Got lock on /omd/sites/monitor/tmp/check_mk/counters/iLO-ESX02
Releasing lock on /omd/sites/monitor/tmp/check_mk/counters/iLO-ESX02
Released lock on /omd/sites/monitor/tmp/check_mk/counters/iLO-ESX02
Loading autochecks from /omd/sites/monitor/var/check_mk/autochecks/iLO-ESX02.mk
+ FETCHING DATA
[cpu_tracking] Push phase 'snmp' (Stack: ['busy'])
 [snmp] No persisted sections loaded
 [snmp] Not using cache (Don't try it)
 [snmp] Execute data source
 [snmp] hp_proliant_cpu: Fetching data
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.1.2.2.1.1.1'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.1.2.2.1.1.2'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.1.2.2.1.1.3'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.1.2.2.1.1.6'
 [snmp] hp_proliant_da_cntlr: Fetching data
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.2.1.1.1'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.2.1.1.2'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.2.1.1.5'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.2.1.1.6'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.2.1.1.9'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.2.1.1.10'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.2.1.1.12'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.2.1.1.15'
 [snmp] hp_proliant_da_phydrv: Fetching data
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.5.1.1.1'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.5.1.1.2'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.5.1.1.5'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.5.1.1.6'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.5.1.1.9'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.5.1.1.45'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.5.1.1.37'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.5.1.1.50'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.5.1.1.57'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.5.1.1.3'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.5.1.1.51'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.5.1.1.60'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.5.1.1.4'
 [snmp] hp_proliant_fans: Fetching data
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.6.7.1.2'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.6.7.1.3'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.6.7.1.4'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.6.7.1.6'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.6.7.1.9'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.6.7.1.12'
 [snmp] hp_proliant_mem: Fetching data
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.14.13.1.2'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.14.13.1.1'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.14.13.1.6'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.14.13.1.7'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.14.13.1.19'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.14.13.1.20'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.14.13.1.12'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.14.13.1.3'
 [snmp] hp_proliant_power: Fetching data
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.15.2'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.15.3'
 [snmp] hp_proliant_psu: Fetching data
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.9.3.1.1'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.9.3.1.2'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.9.3.1.3'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.9.3.1.4'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.9.3.1.7'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.9.3.1.8'
 [snmp] hp_proliant_raid: Fetching data
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.3.1.1.2'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.3.1.1.14'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.3.1.1.4'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.3.1.1.9'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.3.2.3.1.1.12'
 [snmp] hp_proliant_temp: Fetching data
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.6.8.1.2'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.6.8.1.3'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.6.8.1.4'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.6.8.1.5'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.4.1.232.6.2.6.8.1.6'
 [snmp] if: Fetching data
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.1'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.2'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.3'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.5'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.8'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.10'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.11'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.12'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.13'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.14'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.16'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.17'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.18'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.19'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.20'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.21'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.2.2.1.6'
 [snmp] snmp_info: Fetching data
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.1.1.0'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.1.4.0'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.1.5.0'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.1.6.0'
 [snmp] snmp_uptime: Fetching data
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.1.3'
Running 'snmpbulkwalk -Cr10 -v3 -l authPriv -a md5 -u secretpw1 -A secretpw2 -x DES -X secretpw2 -m "" -M "" -Cc -OQ -OU -On -Ot 192.168.10.212 .1.3.6.1.2.1.25.1.1'
 [snmp] Write data to cache file /omd/sites/monitor/tmp/check_mk/data_source_cache/snmp/iLO-ESX02
Try aquire lock on /omd/sites/monitor/tmp/check_mk/data_source_cache/snmp/iLO-ESX02
Got lock on /omd/sites/monitor/tmp/check_mk/data_source_cache/snmp/iLO-ESX02
Releasing lock on /omd/sites/monitor/tmp/check_mk/data_source_cache/snmp/iLO-ESX02
Released lock on /omd/sites/monitor/tmp/check_mk/data_source_cache/snmp/iLO-ESX02
[cpu_tracking] Pop phase 'snmp' (Stack: ['busy', 'snmp'])
[cpu_tracking] Push phase 'agent' (Stack: ['busy'])
 [piggyback] No persisted sections loaded
 [piggyback] Execute data source
No piggyback files for 'iLO-ESX02'. Skip processing.
No piggyback files for '192.168.10.212'. Skip processing.
[cpu_tracking] Pop phase 'agent' (Stack: ['busy', 'agent'])
HW CPU 0             OK - CPU0 "Intel Xeon" in slot 0 is in state "ok"
HW CPU 1             CRIT - CPU1 "Intel Xeon" in slot 0 is in state "failed"
HW Controller 0      OK - Condition: ok, Board-Condition: ok, Board-Status: ok, (Role: other, Model: 98, Slot: 0, Serial: PEYHC0DRHBP5Y9)
HW FAN1 system       OK - FAN Sensor 1 "system", Speed is normal, State is ok
HW FAN2 system       OK - FAN Sensor 2 "system", Speed is normal, State is ok
HW FAN3 system       OK - FAN Sensor 3 "system", Speed is normal, State is ok
HW FAN4 system       OK - FAN Sensor 4 "system", Speed is normal, State is ok
HW FAN5 system       OK - FAN Sensor 5 "system", Speed is normal, State is ok
HW FAN6 system       OK - FAN Sensor 6 "system", Speed is normal, State is ok
HW Mem 0             OK - Board: 0, Num: 0, Type: n/a, Size: 32768 MB, Status: good , Condition: ok
HW Mem 11            OK - Board: 0, Num: 11, Type: n/a, Size: 32768 MB, Status: good , Condition: ok
HW Mem 12            OK - Board: 0, Num: 12, Type: n/a, Size: 32768 MB, Status: good , Condition: ok
HW Mem 14            OK - Board: 0, Num: 14, Type: n/a, Size: 32768 MB, Status: good , Condition: ok
HW Mem 16            OK - Board: 0, Num: 16, Type: n/a, Size: 32768 MB, Status: good , Condition: ok
HW Mem 19            OK - Board: 0, Num: 19, Type: n/a, Size: 32768 MB, Status: good , Condition: ok
HW Mem 2             OK - Board: 0, Num: 2, Type: n/a, Size: 32768 MB, Status: good , Condition: ok
HW Mem 21            OK - Board: 0, Num: 21, Type: n/a, Size: 32768 MB, Status: good , Condition: ok
HW Mem 23            OK - Board: 0, Num: 23, Type: n/a, Size: 32768 MB, Status: good , Condition: ok
HW Mem 4             OK - Board: 0, Num: 4, Type: n/a, Size: 32768 MB, Status: good , Condition: ok
HW Mem 7             OK - Board: 0, Num: 7, Type: n/a, Size: 32768 MB, Status: good , Condition: ok
HW Mem 9             OK - Board: 0, Num: 9, Type: n/a, Size: 32768 MB, Status: good , Condition: ok
HW PSU 0/1           OK - Chassis 0/Bay 1, State: "ok", Usage: 0 Watts
HW PSU 0/2           OK - Chassis 0/Bay 2, State: "ok", Usage: 0 Watts
HW PSU Total         OK - Usage: 0 Watts
HW Phydrv 0/2        OK - Bay: 2, Bus number: 0, Status: ok, Smart status: ok, Ref hours: 6672, Size: 228936MB, Condition: ok
HW Phydrv 0/3        OK - Bay: 1, Bus number: 0, Status: ok, Smart status: ok, Ref hours: 6672, Size: 228936MB, Condition: ok
HW Power Meter       OK - Current reading: 313 Watt
Interface 1          OK - [HP Ethernet 1Gb 4-port 331i Adapter] (up) MAC: 08:F1:EA:8C:4F:20, 1 Gbit/s, In: 9.26 kB/s (0.0%), Out: 0 B/s (0.0%)
Interface 7          OK - [HP Ethernet 10Gb 2-port 562SFP+ Adapter] (up) MAC: 48:DF:37:71:5E:A0, 4.29 Gbit/s, In: 250.3 kB/s (0.0%), Out: 6.83 MB/s (1.3%)
Interface 8          OK - [Ethernet Controller X710 for 10GbE SFP+] (up) MAC: 48:DF:37:71:5E:A8, 4.29 Gbit/s, In: 326.81 kB/s (0.1%), Out: 206.29 kB/s (0.0%)
Logical Device       OK - Status: OK, Logical volume size: 223.54 GB
SNMP Info            OK - Integrated Lights-Out 5 1.40 Feb 05 2019, ilo-esx02.network.local, unknown
Temperature 1 ambient OK - 19.0 °C
Temperature 10 system OK - 19.0 °C
Temperature 11 ambient OK - 23.0 °C
Temperature 12 system OK - 33.0 °C
Temperature 13 system OK - 31.0 °C
Temperature 14 system OK - 26.0 °C
Temperature 15 system OK - 24.0 °C
Temperature 16 system OK - 24.0 °C
Temperature 17 system OK - 25.0 °C
Temperature 18 system OK - 36.0 °C
Temperature 19 system OK - 59.0 °C
Temperature 2 cpu    OK - 40.0 °C
Temperature 20 system OK - 30.0 °C
Temperature 21 system OK - 49.0 °C
Temperature 22 system OK - 27.0 °C
Temperature 23 system OK - 41.0 °C
Temperature 24 ioBoard OK - 66.0 °C
Temperature 25 ioBoard OK - 27.0 °C
Temperature 26 ioBoard OK - 52.0 °C
Temperature 27 ioBoard OK - 24.0 °C
Temperature 29 ioBoard OK - 24.0 °C
Temperature 3 cpu    OK - 40.0 °C
Temperature 31 ioBoard OK - 25.0 °C
Temperature 32 ioBoard OK - 48.0 °C
Temperature 33 ioBoard OK - 24.0 °C
Temperature 35 ioBoard OK - 25.0 °C
Temperature 36 ioBoard OK - 62.0 °C
Temperature 37 ioBoard OK - 27.0 °C
Temperature 4 memory OK - 26.0 °C
Temperature 43 system OK - 27.0 °C
Temperature 44 powerSupply OK - 23.0 °C
Temperature 45 powerSupply OK - 28.0 °C
Temperature 46 powerSupply OK - 40.0 °C
Temperature 47 powerSupply OK - 40.0 °C
Temperature 48 powerSupply OK - 28.0 °C
Temperature 49 powerSupply OK - 25.0 °C
Temperature 5 memory OK - 28.0 °C
Temperature 6 memory OK - 25.0 °C
Temperature 7 memory OK - 25.0 °C
Temperature 8 system OK - 35.0 °C
Uptime               OK - Up since Sun Dec 30 17:49:05 2018 (350d 16:45:57)
[cpu_tracking] End
OK - [snmp] Success, execution time 6.1 sec | execution_time=6.075 user_time=0.090 system_time=0.100 children_user_time=1.530 children_system_time=0.240 cmk_time_snmp=4.110 cmk_time_agent=0.001

und in der Datei gabs dann folgendes:

{'hp_proliant_fans': [[u'1', u'3', u'3', u'2', u'2', u''], [u'2', u'3', u'3', u'2', u'2', u''], [u'3', u'3', u'3', u'2', u'2', u''], [u'4', u'3', u'3', u'2', u'2', u''], [u'5', u'3', u'3', u'2', u'2', u''], [u'6', u'3', u'3', u'2', u'2', u'']], 'snmp_uptime': [[u'3030173202', u'']], 'snmp_info': [[u'Integrated Lights-Out 5 1.40 Feb 05 2019', u'', u'ilo-esx02.network.local', u'unknown']], 'hp_proliant_da_cntlr': [[u'0', u'98', u'0', u'2', u'1', u'2', u'2', u'PEYY9']], 'hp_proliant_temp': [[u'1', u'11', u'20', u'42', u'2'], [u'2', u'6', u'40', u'70', u'2'], [u'3', u'6', u'40', u'70', u'2'], [u'4', u'7', u'26', u'90', u'2'], [u'5', u'7', u'27', u'90', u'2'], [u'6', u'7', u'26', u'90', u'2'], [u'7', u'7', u'26', u'90', u'2'], [u'8', u'3', u'35', u'60', u'2'], [u'10', u'3', u'19', u'60', u'2'], [u'11', u'11', u'23', u'70', u'2'], [u'12', u'3', u'33', u'115', u'2'], [u'13', u'3', u'32', u'115', u'2'], [u'14', u'3', u'26', u'115', u'2'], [u'15', u'3', u'23', u'115', u'2'], [u'16', u'3', u'24', u'115', u'2'], [u'17', u'3', u'25', u'115', u'2'], [u'18', u'3', u'36', u'100', u'2'], [u'19', u'3', u'59', u'110', u'2'], [u'20', u'3', u'31', u'90', u'2'], [u'21', u'3', u'50', u'100', u'2'], [u'22', u'3', u'27', u'85', u'2'], [u'23', u'3', u'42', u'100', u'2'], [u'24', u'5', u'66', u'100', u'2'], [u'25', u'5', u'27', u'75', u'2'], [u'26', u'5', u'52', u'100', u'2'], [u'27', u'5', u'24', u'75', u'2'], [u'29', u'5', u'25', u'75', u'2'], [u'31', u'5', u'25', u'75', u'2'], [u'32', u'5', u'49', u'100', u'2'], [u'33', u'5', u'25', u'75', u'2'], [u'35', u'5', u'25', u'75', u'2'], [u'36', u'5', u'63', u'100', u'2'], [u'37', u'5', u'27', u'75', u'2'], [u'43', u'3', u'27', u'75', u'2'], [u'44', u'10', u'23', u'0', u'2'], [u'45', u'10', u'30', u'0', u'2'], [u'46', u'10', u'40', u'0', u'2'], [u'47', u'10', u'40', u'0', u'2'], [u'48', u'10', u'28', u'75', u'2'], [u'49', u'10', u'26', u'100', u'2']], 'hp_proliant_da_phydrv': [[u'0', u'2', u'2', u'2', u'6672', u'228936', u'2', u'0', u'2', u'VKSRQ', u'S44H26', u'3', u'HPG1'], [u'0', u'3', u'1', u'2', u'6672', u'228936', u'2', u'0', u'2', u'VQ', u'S410', u'3', u'HPG1']], 'hp_proliant_power': [[u'2', u'301']], 'hp_proliant_mem': [[u'0', u'0', u'33554432', u'19', u'4', u'2', u'', u'1'], [u'0', u'1', u'0', u'19', u'2', u'1', u'', u'1'], [u'0', u'2', u'33554432', u'19', u'4', u'2', u'', u'1'], [u'0', u'3', u'0', u'19', u'2', u'1', u'', u'1'], [u'0', u'4', u'33554432', u'19', u'4', u'2', u'', u'1'], [u'0', u'5', u'0', u'19', u'2', u'1', u'', u'1'], [u'0', u'6', u'0', u'19', u'2', u'1', u'', u'1'], [u'0', u'7', u'33554432', u'19', u'4', u'2', u'', u'1'], [u'0', u'8', u'0', u'19', u'2', u'1', u'', u'1'], [u'0', u'9', u'33554432', u'19', u'4', u'2', u'', u'1'], [u'0', u'10', u'0', u'19', u'2', u'1', u'', u'1'], [u'0', u'11', u'33554432', u'19', u'4', u'2', u'', u'1'], [u'0', u'12', u'33554432', u'19', u'4', u'2', u'', u'2'], [u'0', u'13', u'0', u'19', u'2', u'1', u'', u'2'], [u'0', u'14', u'33554432', u'19', u'4', u'2', u'', u'2'], [u'0', u'15', u'0', u'19', u'2', u'1', u'', u'2'], [u'0', u'16', u'33554432', u'19', u'4', u'2', u'', u'2'], [u'0', u'17', u'0', u'19', u'2', u'1', u'', u'2'], [u'0', u'18', u'0', u'19', u'2', u'1', u'', u'2'], [u'0', u'19', u'33554432', u'19', u'4', u'2', u'', u'2'], [u'0', u'20', u'0', u'19', u'2', u'1', u'', u'2'], [u'0', u'21', u'33554432', u'19', u'4', u'2', u'', u'2'], [u'0', u'22', u'0', u'19', u'2', u'1', u'', u'2'], [u'0', u'23', u'33554432', u'19', u'4', u'2', u'', u'2']], 'hp_proliant_raid': [[u'1', u'', u'2', u'228902', u'4294967295']], 'hp_proliant_cpu': [[u'0', u'0', u'Intel Xeon', u'2'], [u'1', u'0', u'Intel Xeon', u'4']], 'hp_proliant_psu': [[u'0', u'1', u'3', u'2', u'0', u'800'], [u'0', u'2', u'3', u'2', u'0', u'800']], 'if': [[u'1', u'HP Ethernet 1Gb 4-port 331i Adapter', u'6', u'1000000000', u'1', u'565078243', u'61931229', u'61931229', u'0', u'0', u'11904', u'0', u'0', u'0', u'0', u'0', [8, 241, 234, 140, 79, 32]], [u'2', u'HP Ethernet 1Gb 4-port 331i Adapter', u'6', u'0', u'2', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', [8, 241, 234, 140, 79, 33]], [u'3', u'HP Ethernet 1Gb 4-port 331i Adapter', u'6', u'0', u'2', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', [8, 241, 234, 140, 79, 34]], [u'4', u'HP Ethernet 1Gb 4-port 331i Adapter', u'6', u'0', u'2', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', [8, 241, 234, 140, 79, 35]], [u'5', u'HP Ethernet 10Gb 2-port 562FLR-SFP+ Adapter', u'6', u'0', u'2', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', [72, 223, 55, 111, 148, 144]], [u'6', u'Ethernet Controller X710 for 10GbE SFP+', u'6', u'0', u'2', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', u'0', [72, 223, 55, 111, 148, 152]], [u'7', u'HP Ethernet 10Gb 2-port 562SFP+ Adapter', u'6', u'4294967295', u'1', u'271841795', u'80532383', u'80532383', u'0', u'0', u'2922774625', u'0', u'0', u'0', u'0', u'0', [72, 223, 55, 113, 94, 160]], [u'8', u'Ethernet Controller X710 for 10GbE SFP+', u'6', u'4294967295', u'1', u'2136054862', u'81661625', u'81661625', u'0', u'0', u'61849608', u'0', u'0', u'0', u'0', u'0', [72, 223, 55, 113, 94, 168]]]}

Kannst du da draus was lesen?

LG
Stephan

Dies sind die Daten für das Raid. Hier

Welche mit den OIDs oben geholt wurden.

Mmmh bei dem Server läuft aber kein Rebuild - die 2 im Raidstatus sagt keine Rebuild alles ok.

Dazu passt auch die Ausgabe der 4294967295 - dazu hab ich in der MIB eine schöne Beschreibung gefunden.

If the value cannot be determined or a rebuild is not active,
the value is set to 4,294,967,295. 

Da dein Laufwerk im Status ist “alles ok, kein Rebuild” deshalb gibt er hier die 4 Mrd aus.
Es kann aber auch sein, dass dein Server hier immer die 4 Mrd. ausgibt da er keinen Rebuild Status im SNMP kennt.
Würde zu deiner ersten Meldung passen.

Der Fehler beim RAID war auch bei einem anderen Server, aber danke dir auf jedenfall für die Info. Ich habe gerade geprüft, CheckMK hatte bei dem Rebuild Progress tatsächlich den Wert 4294967295%, stimmt also mit der Aussage :smiley:

Fraglich ist nun, warum beim Server angegeben wird, das CPU 1 Fehlerhaft ist :neutral_face:

Wird auch vom SNMP so ausgegeben das die CPU kaputt ist. (State 4)

Aber dann ist nur die Frage wieso … Ich hatte in den IM Logs gab es vor drei Monaten mal einen unkorrigierbaren Fehler, aber der war wirklich nur einmal. Es hieß dann in anderen HP Foren man soll die Logs löschen. Hat leider bis jetzt nichts gebracht :confused:

Wenn die CPU einen nicht behebbaren Fehler meldet würde ich das als Servicefall bei HP einkippen.
Sicher, dass das System auch noch mit zwei CPUs läuft? :slight_smile:

Hehe,

tatsächlich Andreas, im iLO ist alles auf Grün und auch unser Hypervisor läuft auf beiden CPU. :slight_smile: