imaj upgrade sonrası gelen diagnostic package otomatik upload uyarıları

Exadata imaj güncelleme işlemi sonrasında tüm db ve cel nodlar üzerinden gelen haftalık  maillerde aşağıdaki gibi bir uyarı almaya başladık.

Warning Diagnostic packages for Service Requests will not be automatically uploaded.

Warning Diagnostic packages for Service Requests will not be automatically uploaded because ASR Manager
on xxx.xxx.xxx.xxx is not accessible or does not support automatic diagnostic package upload or does not have
HTTP receiver enabled or SNMP subscribers on dmdrcdbadm01 are not configured properly.

 

Şirketimizde regülasyonlar gereği veri çıkışına izin verilmediği için  normal durumda bu verilerin otomatik upload edilmesine izin vermiyoruz. ilgili portlar açık değil. bu gibi durumlarda bu uyarı msjlarından kurtulmak için aşağıdaki komutları çalıştırabilirsiniz.

 

cell nodelar üzerinde:

cellcli -e 'ALTER CELL diagPackUploadEnabled=FALSE'

 

db nodelar üzerinde:

dbmcli -e 'ALTER CELL diagPackUploadEnabled=FALSE'

dcli ile tüm nodlarda toplu olarak çalıştırılabilir.

 

 

Exadata parça değişimi için asm etkilenmeden cell node kapatıp açma

Exadata cell sunucu üzerinde bir parça değişimi ya da restart  işlemlerinin , ASM’i etkilemeden yapılması için öncelikle ASM üzerinde disk_repair_time parametresi kontrol edilmelidir.

Bunun için ASM ortamına bağlanıp aşağıdaki komut ile değer kontrol edilmelidir.

[oracle@exadata_dbnode1~]$ sqlplus / as sysasm

SQL*Plus: Release 11.2.0.4.0 Production on Mon Feb 27 11:25:49 2017
Copyright (c) 1982, 2013, Oracle. All rights reserved.

Connected to:
Oracle Database 11g Enterprise Edition Release 11.2.0.4.0 - 64bit Production
With the Real Application Clusters and Automatic Storage Management options

SQL> select dg.name,a.value from v$asm_diskgroup dg, v$asm_attribute a where dg.group_number=a.group_number and a.name='disk_repair_time';

NAME VALUE
------------------------------
DATA_DM 3.6H
DBFS_DG 3.6H
RECO_DM 3.6H

Bizim sistemimizde bu değer 3.6 saat görünüyor. Yani bi bakım işlemi esnasında cell server 3.6 saat kapalı kalsa bile asm diskleri drop edip yeniden rebalance başlatmıyor. 3.6 saat içerisinde CELL üzerindeki diskler tekrar online olduğunda sadece resync işlemi yaparak çalışmaya devam ediyor.

Eğer bakım işleminiz daha uzun sürecekse bu değeri aşağıdaki komut ile arttırabilirsiniz.

SQL> ALTER DISKGROUP DATA_DM SET ATTRIBUTE 'DISK_REPAIR_TIME'='8.5H';

Bakım işlemine başlanmadan önce kesinlikle aşağıdaki komut ile disklerin offline duruma çekilebilir olup olmadıklarını kontrol etmeliyiz. Aşağıdaki komut tüm diskler için yes olarak dönmelidir.

[root@exadata_celnode3 tmp]# cellcli -e list griddisk attributes name,asmmodestatus,asmdeactivationoutcome
 DATA_DM_CD_00_exadata_celnode3 ONLINE Yes
 DATA_DM_CD_01_exadata_celnode3 ONLINE Yes
 DATA_DM_CD_02_exadata_celnode3 ONLINE Yes
 DATA_DM_CD_03_exadata_celnode3 ONLINE Yes
 DATA_DM_CD_04_exadata_celnode3 ONLINE Yes
 DATA_DM_CD_05_exadata_celnode3 ONLINE Yes
 DATA_DM_CD_06_exadata_celnode3 ONLINE Yes
 DATA_DM_CD_07_exadata_celnode3 ONLINE Yes
 DATA_DM_CD_08_exadata_celnode3 ONLINE Yes
 DATA_DM_CD_09_exadata_celnode3 ONLINE Yes
 DATA_DM_CD_10_exadata_celnode3 ONLINE Yes
 DATA_DM_CD_11_exadata_celnode3 ONLINE Yes
 DBFS_DG_CD_02_exadata_celnode3 ONLINE Yes
 DBFS_DG_CD_03_exadata_celnode3 ONLINE Yes
 DBFS_DG_CD_04_exadata_celnode3 ONLINE Yes
 DBFS_DG_CD_05_exadata_celnode3 ONLINE Yes
 DBFS_DG_CD_06_exadata_celnode3 ONLINE Yes
 DBFS_DG_CD_07_exadata_celnode3 ONLINE Yes
 DBFS_DG_CD_08_exadata_celnode3 ONLINE Yes
 DBFS_DG_CD_09_exadata_celnode3 ONLINE Yes
 DBFS_DG_CD_10_exadata_celnode3 ONLINE Yes
 DBFS_DG_CD_11_exadata_celnode3 ONLINE Yes
 RECO_DM_CD_00_exadata_celnode3 ONLINE Yes
 RECO_DM_CD_01_exadata_celnode3 ONLINE Yes
 RECO_DM_CD_02_exadata_celnode3 ONLINE Yes
 RECO_DM_CD_03_exadata_celnode3 ONLINE Yes
 RECO_DM_CD_04_exadata_celnode3 ONLINE Yes
 RECO_DM_CD_05_exadata_celnode3 ONLINE Yes
 RECO_DM_CD_06_exadata_celnode3 ONLINE Yes
 RECO_DM_CD_07_exadata_celnode3 ONLINE Yes
 RECO_DM_CD_08_exadata_celnode3 ONLINE Yes
 RECO_DM_CD_09_exadata_celnode3 ONLINE Yes
 RECO_DM_CD_10_exadata_celnode3 ONLINE Yes
 RECO_DM_CD_11_exadata_celnode3 ONLINE Yes

Eğer disklerden birinde bile asmdeactivationoutcome=yes dönmezse işleme başlamadan önce bu diskin miror’ı ile yedeklemesinin düzgün olduğu kontrol edilmeli ve bir problem varsa düzeltilmelidir.

Yedekleme tamamlandığında komut tekrar çekilerek, tüm değerlerin yes olarak döndüğü kontrol edildikten sonra, diskleri offline duruma çekebiliriz.  Bu işlem disklerdeki aktiviteye göre 10 dakikaya kadar sürebilir.  Bakım yapılacak cell kapatılmadan önce tüm disklerin inactive duruma geçtiğini kontrol etmek çok önemlidir.  Diskleri cell üzerinde inactive etmek ASM de disklerin otomatik olarak offline olmasını sağlayacaktır. Bakım yapacağımız sunucuda Diskleri offline duruma çekmek için aşağıdaki komutu cellcli üzerinde çalıştırmamız gerekiyor.

cellcli -e alter griddisk all inactive

Aşağıdaki komut ile Disklerin asmmodestatus = offline ya da UNUSED  olduğu ve asmdeactivationoutcome=yes olarak döndüğü teyit edilir.

[root@exadata_celnode3 tmp]# cellcli -e list griddisk attributes name,asmmodestatus,asmdeactivationoutcome
 DATA_DM_CD_00_exadata_celnode3 OFFLINE Yes
 DATA_DM_CD_01_exadata_celnode3 OFFLINE Yes
 DATA_DM_CD_02_exadata_celnode3 OFFLINE Yes
 DATA_DM_CD_03_exadata_celnode3 OFFLINE Yes
 DATA_DM_CD_04_exadata_celnode3 OFFLINE Yes
 DATA_DM_CD_05_exadata_celnode3 OFFLINE Yes
 DATA_DM_CD_06_exadata_celnode3 OFFLINE Yes
 DATA_DM_CD_07_exadata_celnode3 OFFLINE Yes
 DATA_DM_CD_08_exadata_celnode3 OFFLINE Yes
 DATA_DM_CD_09_exadata_celnode3 OFFLINE Yes
 DATA_DM_CD_10_exadata_celnode3 OFFLINE Yes
 DATA_DM_CD_11_exadata_celnode3 OFFLINE Yes
 DBFS_DG_CD_02_exadata_celnode3 OFFLINE Yes
 DBFS_DG_CD_03_exadata_celnode3 OFFLINE Yes
 DBFS_DG_CD_04_exadata_celnode3 OFFLINE Yes
 DBFS_DG_CD_05_exadata_celnode3 OFFLINE Yes
 DBFS_DG_CD_06_exadata_celnode3 OFFLINE Yes
 DBFS_DG_CD_07_exadata_celnode3 OFFLINE Yes
 DBFS_DG_CD_08_exadata_celnode3 OFFLINE Yes
 DBFS_DG_CD_09_exadata_celnode3 OFFLINE Yes
 DBFS_DG_CD_10_exadata_celnode3 OFFLINE Yes
 DBFS_DG_CD_11_exadata_celnode3 OFFLINE Yes
 RECO_DM_CD_00_exadata_celnode3 OFFLINE Yes
 RECO_DM_CD_01_exadata_celnode3 OFFLINE Yes
 RECO_DM_CD_02_exadata_celnode3 OFFLINE Yes
 RECO_DM_CD_03_exadata_celnode3 OFFLINE Yes
 RECO_DM_CD_04_exadata_celnode3 OFFLINE Yes
 RECO_DM_CD_05_exadata_celnode3 OFFLINE Yes
 RECO_DM_CD_06_exadata_celnode3 OFFLINE Yes
 RECO_DM_CD_07_exadata_celnode3 OFFLINE Yes
 RECO_DM_CD_08_exadata_celnode3 OFFLINE Yes
 RECO_DM_CD_09_exadata_celnode3 OFFLINE Yes
 RECO_DM_CD_10_exadata_celnode3 OFFLINE Yes
 RECO_DM_CD_11_exadata_celnode3 OFFLINE Yes

asmmodestatus=offline olduktan sonra Griddisklerin inactive olduğu kontrol edilir.

 [root@exadata_celnode3 tmp]# cellcli -e list griddisk
 DATA_DM_CD_00_exadata_celnode3 inactive
 DATA_DM_CD_01_exadata_celnode3 inactive
 DATA_DM_CD_02_exadata_celnode3 inactive
 DATA_DM_CD_03_exadata_celnode3 inactive
 DATA_DM_CD_04_exadata_celnode3 inactive
 DATA_DM_CD_05_exadata_celnode3 inactive
 DATA_DM_CD_06_exadata_celnode3 inactive
 DATA_DM_CD_07_exadata_celnode3 inactive
 DATA_DM_CD_08_exadata_celnode3 inactive
 DATA_DM_CD_09_exadata_celnode3 inactive
 DATA_DM_CD_10_exadata_celnode3 inactive
 DATA_DM_CD_11_exadata_celnode3 inactive
 DBFS_DG_CD_02_exadata_celnode3 inactive
 DBFS_DG_CD_03_exadata_celnode3 inactive
 DBFS_DG_CD_04_exadata_celnode3 inactive
 DBFS_DG_CD_05_exadata_celnode3 inactive
 DBFS_DG_CD_06_exadata_celnode3 inactive
 DBFS_DG_CD_07_exadata_celnode3 inactive
 DBFS_DG_CD_08_exadata_celnode3 inactive
 DBFS_DG_CD_09_exadata_celnode3 inactive
 DBFS_DG_CD_10_exadata_celnode3 inactive
 DBFS_DG_CD_11_exadata_celnode3 inactive
 RECO_DM_CD_00_exadata_celnode3 inactive
 RECO_DM_CD_01_exadata_celnode3 inactive
 RECO_DM_CD_02_exadata_celnode3 inactive
 RECO_DM_CD_03_exadata_celnode3 inactive
 RECO_DM_CD_04_exadata_celnode3 inactive
 RECO_DM_CD_05_exadata_celnode3 inactive
 RECO_DM_CD_06_exadata_celnode3 inactive
 RECO_DM_CD_07_exadata_celnode3 inactive
 RECO_DM_CD_08_exadata_celnode3 inactive
 RECO_DM_CD_09_exadata_celnode3 inactive
 RECO_DM_CD_10_exadata_celnode3 inactive
 RECO_DM_CD_11_exadata_celnode3 inactive

Tüm disklerin inactive olduğu teyit edildikten sonra cell sunucu aşağıdaki komut ile shutdown edilir edilir. Sistem shutdown edilirken tüm storage servisleri otomatik olarak kapatılır.

#shutdown -h now

The system is going down for system halt NOW!

Bakım işlemleri yapıldıktan sonra sunucu power düğmesinden veya ilom üzerinden açılır. Sunucu açılırken konsol  ekranını takip etmek için ilom üzerinden consola bağlanabiliriz. Bunun için ilom sunucuya root user ile ssh üzerinden login olduktan sonra aşağıdaki komutu çalıştırmamız gerekir.

start /sp/console

Sunucu açıldıktan sonra aşağıdaki komut ile diskler tekrar aktive edilir.

cellcli -e alter griddisk all active

Komut çalıştırıldıktan sonra disklerin active duruma geçip geçmedikleri kontrol edilir.

[root@exadata_celnode3 tmp]# cellcli -e list griddisk
 DATA_DM_CD_00_exadata_celnode3 active
 DATA_DM_CD_01_exadata_celnode3 active
 DATA_DM_CD_02_exadata_celnode3 active
 DATA_DM_CD_03_exadata_celnode3 active
 DATA_DM_CD_04_exadata_celnode3 active
 DATA_DM_CD_05_exadata_celnode3 active
 DATA_DM_CD_06_exadata_celnode3 active
 DATA_DM_CD_07_exadata_celnode3 active
 DATA_DM_CD_08_exadata_celnode3 active
 DATA_DM_CD_09_exadata_celnode3 active
 DATA_DM_CD_10_exadata_celnode3 active
 DATA_DM_CD_11_exadata_celnode3 active
 DBFS_DG_CD_02_exadata_celnode3 active
 DBFS_DG_CD_03_exadata_celnode3 active
 DBFS_DG_CD_04_exadata_celnode3 active
 DBFS_DG_CD_05_exadata_celnode3 active
 DBFS_DG_CD_06_exadata_celnode3 active
 DBFS_DG_CD_07_exadata_celnode3 active
 DBFS_DG_CD_08_exadata_celnode3 active
 DBFS_DG_CD_09_exadata_celnode3 active
 DBFS_DG_CD_10_exadata_celnode3 active
 DBFS_DG_CD_11_exadata_celnode3 active
 RECO_DM_CD_00_exadata_celnode3 active
 RECO_DM_CD_01_exadata_celnode3 active
 RECO_DM_CD_02_exadata_celnode3 active
 RECO_DM_CD_03_exadata_celnode3 active
 RECO_DM_CD_04_exadata_celnode3 active
 RECO_DM_CD_05_exadata_celnode3 active
 RECO_DM_CD_06_exadata_celnode3 active
 RECO_DM_CD_07_exadata_celnode3 active
 RECO_DM_CD_08_exadata_celnode3 active
 RECO_DM_CD_09_exadata_celnode3 active
 RECO_DM_CD_10_exadata_celnode3 active
 RECO_DM_CD_11_exadata_celnode3 active

Tüm disklerin online duruma geçip geçmedikleri aşağıdaki komut ile takip edilir. Yoğun kullanılan sistemlerde diskler uzun süre SYNCING işlemi yapabilir. SYNCING işlemi tamamlandığında disklerin otomatik olarak ONLINE duruma geçmesi gerekir.

[root@exadata_celnode1 tmp]# cellcli -e list griddisk attributes name,asmmodestatus
 DATA_DM_CD_00_exadata_celnode3 SYNCING
 DATA_DM_CD_01_exadata_celnode3 SYNCING
 DATA_DM_CD_02_exadata_celnode3 SYNCING
 DATA_DM_CD_03_exadata_celnode3 SYNCING
 DATA_DM_CD_04_exadata_celnode3 SYNCING
 DATA_DM_CD_05_exadata_celnode3 SYNCING
 DATA_DM_CD_06_exadata_celnode3 SYNCING
 DATA_DM_CD_07_exadata_celnode3 SYNCING
 DATA_DM_CD_08_exadata_celnode3 SYNCING
 DATA_DM_CD_09_exadata_celnode3 SYNCING
 DATA_DM_CD_10_exadata_celnode3 SYNCING
 DATA_DM_CD_11_exadata_celnode3 SYNCING
 DBFS_DG_CD_02_exadata_celnode3 SYNCING
 DBFS_DG_CD_03_exadata_celnode3 SYNCING
 DBFS_DG_CD_04_exadata_celnode3 SYNCING
 DBFS_DG_CD_05_exadata_celnode3 SYNCING
 DBFS_DG_CD_06_exadata_celnode3 SYNCING
 DBFS_DG_CD_07_exadata_celnode3 SYNCING
 DBFS_DG_CD_08_exadata_celnode3 SYNCING
 DBFS_DG_CD_09_exadata_celnode3 SYNCING
 DBFS_DG_CD_10_exadata_celnode3 SYNCING
 DBFS_DG_CD_11_exadata_celnode3 SYNCING
 RECO_DM_CD_00_exadata_celnode3 SYNCING
 RECO_DM_CD_01_exadata_celnode3 SYNCING
 RECO_DM_CD_02_exadata_celnode3 SYNCING
 RECO_DM_CD_03_exadata_celnode3 SYNCING
 RECO_DM_CD_04_exadata_celnode3 SYNCING
 RECO_DM_CD_05_exadata_celnode3 SYNCING
 RECO_DM_CD_06_exadata_celnode3 SYNCING
 RECO_DM_CD_07_exadata_celnode3 SYNCING
 RECO_DM_CD_08_exadata_celnode3 SYNCING
 RECO_DM_CD_09_exadata_celnode3 SYNCING
 RECO_DM_CD_10_exadata_celnode3 SYNCING
 RECO_DM_CD_11_exadata_celnode3 SYNCING

SYNCING operasyonu, rebalance işlemi yapmamaktadır. Sadece disk offline olduğu süreçte miror da yazılan blokları online olan disklere yazmaktadır.

Eğer bakım işlemi rolling olarak yapılacaksa bir sonraki cell  sunucusuna geçmeden önce SYNCING işleminin tamamlandığı ve asmdeactivationoutcome parametresinin yes olduğu kontrol edilmelidir. SYNCING işlemi devam ederken asmdeactivationoutcome çıktısı “Cannot de-activate due to other offline disks in the diskgroup” şeklinde gelir.

Örnek ekran görüntüsü:

[root@exadata_celnode3 tmp]# cellcli -e list griddisk attributes name where asmdeactivationoutcome != 'Yes'
 DATA_DM_CD_00_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DATA_DM_CD_01_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DATA_DM_CD_02_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DATA_DM_CD_03_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DATA_DM_CD_04_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DATA_DM_CD_05_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DATA_DM_CD_06_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DATA_DM_CD_07_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DATA_DM_CD_08_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DATA_DM_CD_09_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DATA_DM_CD_10_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DATA_DM_CD_11_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DBFS_DG_CD_02_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DBFS_DG_CD_03_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DBFS_DG_CD_04_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DBFS_DG_CD_05_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DBFS_DG_CD_06_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DBFS_DG_CD_07_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DBFS_DG_CD_08_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DBFS_DG_CD_09_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DBFS_DG_CD_10_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 DBFS_DG_CD_11_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 RECO_DM_CD_00_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 RECO_DM_CD_01_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 RECO_DM_CD_02_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 RECO_DM_CD_03_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 RECO_DM_CD_04_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 RECO_DM_CD_05_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 RECO_DM_CD_06_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 RECO_DM_CD_07_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 RECO_DM_CD_08_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 RECO_DM_CD_09_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 RECO_DM_CD_10_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"
 RECO_DM_CD_11_exadata_celnode3 "Cannot de-activate due to other offline disks in the diskgroup"

Detaylı bilgi için Oracle Support üzerinde Doc ID 1188080.1 incelenebilir.

 

Exadata db node üzerinde, e-mail alert ve asr tanımlarının yapılması

Db node için image versiyon 12.1.2 ve sonrasi ise dbmcli ile ‘list dbserver detail’ komutunu çalıştırarak, mevcut parametreleri kontrol edebilirsiniz. İlgili parametreler henüz ayarlanmadıysa bu komut ile görünmezler. Imageinfo komutu ile mevcut imaj versionunuzu görebilirsiniz.

[root@exadata_dbnode1 ~]# imageinfo

Kernel version: 2.6.39-400.243.1.el6uek.x86_64 #1 SMP Wed Nov 26 09:15:35 PST 2014 x86_64
Image version: 12.1.2.1.0.141206.1
Image status: success

Burada  ayarlanması gereken parametreler:

notificationMethod:     mail,snmp / /bir hata yada uyarı olduğunda hem mail ile uyarı yollar, hem de asr (automatic service request) servera sr açmak üzere bilgi yollar. Bu parametreyi  set etmek için:

dbmcli -e alter dbserver notificationMethod=\'mail,snmp\'

notificationPolicy: critical,warning,clear // burada uyarı verilecek olayların seviyeleri belirlenir. Bu parametreyi set etmek için.

dbmcli -e alter dbserver notificationPolicy='critical,warning,clear'

smtpFrom: exadata_dbnode1 // atılan maillerde görünecek isim. set etmek için:

dbmcli -e alter dbserver smtpFrom=\'exadata_dbnode1\'

smtpFromAddr: exadata_dbnode1@mehmettahsincan.com // atılan maillerde görünecek adres

dbmcli -e alter dbserver smtpFromAddr=\'exadata_dbnode1@mehmettahsincan.com\'

smtpPort: 25 // mail serverınızın portu. / bu bilgileri mail server  yöneticinizden alabilirsiniz. biz örnekte ssl kullanmadığımızdan portumuz ’25’. Bu parametreyi set etmek için

dbmcli -e alter dbserver smtpPort='25'

smtpServer:             mail.mehmettahsincan.com // mail server adresimiz. Bu parametreyi set etmek için.

dbmcli -e alter dbserver smtpServer='mail.mehmettahsincan.com'

smtpUseSSL: FALSE // mail için ssl kullanıp kullanmayacağımızı belirler aşağıdaki şekilde set edilir.

dbmcli -e alter dbserver smtpUseSSL='false'

snmpSubscriber:  // bu  parametre ile bir hata olduğunda otomatik sr açılmasını sağlayan asr serverımızın bilgilerini gireceğiz. Bu bilgileri asr server’ınızın ip ve port bilgileri ile doldurmanız gerekir.

dbmcli -e alter dbserver snmpSubcriber=((host='<ASR Manager host name orIP>',port=162,community=public,type=asr))

Ayarları yapılmış bir dbnode üzerinden örnek görüntü.

[root@exadata_dbnode1 ~]# dbmcli
DBMCLI: Release - Production on Fri Feb 10 14:46:01 EET 2017

Copyright (c) 2007, 2014, Oracle. All rights reserved.

DBMCLI> list dbserver detail
 name: exadata_dbnode1
 bbuStatus: normal
 coreCount: 18
 cpuCount: 36
 diagHistoryDays: 7
 fanCount: 16/16
 fanStatus: normal
 id: xxxxxx
 interconnectCount: 2
 interconnect1: ib0
 interconnect2: ib1
 ipaddress1: xxx.xxx.xxx.xxx/xxx
 ipaddress2: xxx.xxx.xxx.xxx/xxx
 kernelVersion: 2.6.39-400.243.1.el6uek.x86_64
 locatorLEDStatus: off
 makeModel: Oracle Corporation ORACLE SERVER X5-2
 metricHistoryDays: 7
 msVersion: OSS_12.1.2.1.0_LINUX.X64_141206.1
 notificationMethod: mail,snmp
 notificationPolicy: critical,warning,clear
 powerCount: 2/2
 powerStatus: normal
 releaseImageStatus: success
 releaseVersion: 12.1.2.1.0.141206.1
 releaseTrackingBug: xxxxx
 smtpFrom: exadata_dbnode1
 smtpFromAddr: exadata_dbnode1@mehmettahsincan.com
 smtpPort: 25
 smtpServer: mail.mehmettahsincan.com
 smtpToAddr: tahsincan@mehmettahsincan.com
 smtpUseSSL: FALSE
 snmpSubscriber: host=testasrsrv.mehmettahsincan.com,port=162,community=public,type=ASR
 status: online
 temperatureReading: 25.0
 temperatureStatus: normal
 upTime: 110 days, 23:44
 msStatus: running

Bu ayarlamaları yaptıktan sonra aşağıdaki komut ile test maili gönderebiliriz.

[root@exadata_dbnode1 ~]# dbmcli
DBMCLI: Release - Production on Fri Feb 10 15:13:39 EET 2017

Copyright (c) 2007, 2014, Oracle. All rights reserved.

DBMCLI>

DBMCLI> alter dbserver validate mail
DBServer exadata_dbnode1 successfully altered

 

Bu adımdan sonra, belirtilen mail adreslerine,  aşağıdaki gibi bir mail gelmesi gerekiyor.

DB Server exadata_dbnode1 Test Message

This test e-mail message from Oracle DB Server exadata_dbnode1 indicates successful configuration of your e-mail address and mail server.

Aynı şekilde asr ayarlarımızı da kontrol edebiliyoruz.

[root@exadata_dbnode1 ~]# dbmcli
DBMCLI: Release - Production on Fri Feb 10 15:13:39 EET 2017

Copyright (c) 2007, 2014, Oracle. All rights reserved.

DBMCLI>

DBMCLI> alter dbserver validate snmp type=asr
DBServer exadata_dbnode1 successfully altered

Oracle support hesabınızla Doc ID 1450112.1 id li  sayfadan indireceğiniz asrexachk tool’u ile de konfigürasyonlarınızı kontrol edebilirsiniz.

 

[root@exadata_dbnode1 ~]# /home/tahsinc/asrexachk

ASRExachk 3.2
Tue Feb 14 10:52:57 +03 2017
Hostname: exadata_dbnode1 
Device Type: Exadata Database Machine X5-2 xxxxxxx
Serial Number: xxxxxxxxx
Server Type: ORACLE-SERVER-X5-2
OS Type: LINUX
ASR Manager IP: xxx.xxx.xxx.xxx
SNMP Trap Destinations: ((host=testasrsrv.mehmettahsincan.com,port=162,community=public,type=ASR))
Exadata Node Image: Image version: 12.1.2.1.0.141206.1

#########ASR Validation#########
Linux DB Node IP Interface Check
 Validating ASR Manager IP to Interface bondeth0
 Validating ASR Manager IP to Interface eth0
 Validating ASR Manager IP to Interface eth5
 Validating ASR Manager IP to Interface ib0
 Validating ASR Manager IP to Interface ib1
 Validating ASR Manager IP to Interface lo

Management IP Interface check completed
 ASR is supported on this Management Interface configuration

Checking the BMC Status
 BMC Communication is Currently running

Checking for Pre-Existing Errors

Checking for HDD Faults
 No HDD Faults Found

Checking for FMA Faults
 No FMA faults found

Checking for ILOM Hardware Faults
 No Hardware ILOM Faults

DB Node validation Progress

 Checking for ASR/Exadata Process Running
Checking for Type of ASR

Validating ASR Configuration with Validate SNMP

DB OS Validation
 OS Test event sent to xxx.xxx.xxx.xxx
 #########Warning#########
 ASRExachk has determined that there was a failure during the SNMP Trap Verification.
 The failure will not inhibit the ability for ASR to create a SR but can cause delay
 Diagnostic time due to System Identifier missing.
 To fix this error, please open a Service Request with the Oracle Exadata Team

DB ILOM Validation
 ILOM Test event sent to xxx.xxx.xxx.xxx from xxx.xxx.xxx.xxx



Validation Complete
 Based on the Status, the email account registered to the ASR Manager
 should receive 2 emails. One from the OS Hostname, and the
 second from the ILOM Hostname
 If 2 emails has not been received, please work with the ASR Backline
 Team for further troubleshooting of the issue

[root@exadata_dbnode1 ~]#

 

Çıktıda da belirtildiği gibi işlem sonucunda ASR manager hesabına iki email gitmesi gerekiyor.

Yukarıda anlattığımız işlemlerde tanımları sadece bir db node üzerinde gerçekleştirdik. FULL rack bir sistemde aynı işlemleri 8 kere yapmamak için dcli üzerinde  bir grup belirleyerek, Çalıştırdığımız komutların bu grup üzerinde çalışmasını sağlayabiliriz.

Bunun için öncelikle

/opt/oracle.SupportTools/onecommand/ dizini altında istediğimiz cluster node’ları ekleyerek bir grup tanımı oluşturabiliriz.

[root@exadata_dbnode1 ~]# cd /opt/oracle.SupportTools/onecommand/
[root@exadata_dbnode1  onecommand]# vi dbs_group

dbs_group dosyasının içini aşağıdaki şekilde db node hostanemeler ile dolduruyoruz.

exadata_dbnode1
exadata_dbnode2
exadata_dbnode3
exadata_dbnode4
exadata_dbnode5
exadata_dbnode6
exadata_dbnode7
exadata_dbnode8

Dosyamızı oluşturduktan sonra aşağıdaki formatta parametrelerimizi bir kerede tüm dbnode’lar için tanımlayabiliriz.

[root@exadata_dbnode1 onecommand]# dcli -g dbs_group -l root "dbmcli -e alter dbserver notificationMethod=\'mail,snmp\'"
exadata_dbnode1 : DBServer exadata_dbnode1 successfully altered
exadata_dbnode2 : DBServer exadata_dbnode2 successfully altered

işlemi daha sonra aşağıdaki komut ile tüm node’lar üzerinde kontrol edebiliriz.

[root@exadata_dbnode1 onecommand]# dcli -g dbs_group -l root "dbmcli -e list dbserver attributes notificationMethod"
exadata_dbnode1 : mail,snmp
exadata_dbnode2 : mail,snmp

 

12.1.2 öncesi image versiyonları için dbmcli bulunmadığından bu versiyondan önce, asr konfigürasyonları için daha farklı bir yol izliyoruz. Aşağıdaki komutu tek tek ilgili nodelarda node iplerini belirterek çalıştırarak set ediyoruz.

/opt/oracle.cellos/compmon/exadata_mon_hw_asr.pl -set_snmp_subscribers"(type=asr,host=testasrsrv.mehmettahsincan.com,fromip=db_node_1_ip,port=162,community=public)
/opt/oracle.cellos/compmon/exadata_mon_hw_asr.pl -set_snmp_subscribers"(type=asr,host=testasrsrv.mehmettahsincan.com,fromip=db_node_2_ip,port=162,community=public)
/opt/oracle.cellos/compmon/exadata_mon_hw_asr.pl -set_snmp_subscribers"(type=asr,host=testasrsrv.mehmettahsincan.com,fromip=db_node_3_ip,port=162,community=public)
/opt/oracle.cellos/compmon/exadata_mon_hw_asr.pl -set_snmp_subscribers"(type=asr,host=testasrsrv.mehmettahsincan.com,fromip=db_node_4_ip,port=162,community=public)
/opt/oracle.cellos/compmon/exadata_mon_hw_asr.pl -set_snmp_subscribers"(type=asr,host=testasrsrv.mehmettahsincan.com,fromip=db_node_5_ip,port=162,community=public)
/opt/oracle.cellos/compmon/exadata_mon_hw_asr.pl -set_snmp_subscribers"(type=asr,host=testasrsrv.mehmettahsincan.com,fromip=db_node_6_ip,port=162,community=public)
/opt/oracle.cellos/compmon/exadata_mon_hw_asr.pl -set_snmp_subscribers"(type=asr,host=testasrsrv.mehmettahsincan.com,fromip=db_node_7_ip,port=162,community=public)
/opt/oracle.cellos/compmon/exadata_mon_hw_asr.pl -set_snmp_subscribers"(type=asr,host=testasrsrv.mehmettahsincan.com,fromip=db_node_8_ip,port=162,community=public)