commandes | exlpication |
Prtconf | voir la config SYSTEM |
lsvg rac_fg1 | voir vg detail |
lsvg -l rac_fg1 | voir les raw devices |
cat /etc/olr.loc | chemin de inventory olrconfig_loc=/u01/app/grid/11.2.0/cdata/aix_rac2.olr crs_home=/u01/app/grid/11.2.0 |
Cat /etc/oracle/ocr.loc | |
ocrcheck -local | |
ocrdump -local olr.lst | |
mkgroup | creation des groupes |
mkuser | creation des user os |
passwd | pour modifier les passwrd |
./runcluvfy.sh stage -pre crsinst -n aix-rac1,aix-rac2 -r 11gR2 -verbose | pre requis avant installation |
cluvfy | noeuds du rac se voient |
./runcluvfy.sh comp ssa -n aix-rac1,aix-rac2 -verbose | check des shared storage |
./runcluvfy.sh comp admprv -n aix-rac1,aix-rac2 -o user_equiv | check user equivalence |
cluvfy comp clocksync -n all | ntp + ctssd |
./runcluvfy.sh stage -pre crsinst -n aix-rac1,aix-rac2 -r 11gR2 -verbose -fixup -fixupdir /tmp | l option fixup |
oifcfg iflist -p | liste les interfaces ca doit etre identiques des 2 cotes. |
./cluvfy comp nodecon -i aggr1 -n mtlunt100,mtlunt101 -verbose | connectivite avec l interface -i |
./runcluvfy.sh comp nodecon -n aix-rac1,aix-rac2 | connectivité entre les noeuds |
./runcluvfy.sh comp sys -n aix-rac1,aix-rac2 -p crs -verbose | pre requis systemes |
scp -r grid@aix-rac1:/u01/app/grid/11.2.0/inst/grid/* . | copier depuis le noeud 2 le directory grid |
ssh aix-rac1 date;date | check les date entre les 2 noeuds |
nslookup mycluster-scan | check dns |
crsctl status resource -t | check des resources |
crsctl query crs softwareversion | version clusterware |
crsctl query crs activeversion | |
cluvfy stage -post crsinst -n aix_rac1,aix_rac2 cluvfy comp nodecon –n all –verbose | post install check |
crsctl check cluster -all | tout les elements du cluster |
crsctl query css votedisk | avoir tous les voting disk (nbr impair) |
ocrconfig -local -manualbackup | backup manuel , le premier backup a lieu lors de l installation |
ocrconfig -local -showbackup | local registry (ASM standalone) |
ocrconfig -showbackup | voit les backups de l ocr |
ocrconfig -backuploc /home/oracle | definit un Path pour les backups manuels |
ocrconfig -manualbackup | execute un backup manuel |
crsctl status server | voir les serveurs + online/offline |
crsctl query crs administrator | qui est admin du cluster |
srvctl config serverpool | voir de maniere generale |
crsctl status serverpool -f | voir la config complete avec mmin max importance |
srvctl status serverpool | voir les serverpool en detail |
./runcluvfy.sh stage -pre dbinst -n all -verbose | check avant install db software |
rman target / catalog catalog_rman/XXXXr@mtlunt68:1521/catalog | backup db avec catalog |
srvctl start diskgroup -g DATA -n "aix_rac2,aix_rac1" | demarre un dg |
crsctl getperm resource ora.scan1.vip | Name: ora.scan1.vip owner:root:rwx,pgrp:system:r-x,other::r--,group:oinstall:r-x,user:grid:r-x |
srvctl stop instance -d RACTEST -i RACTEST1 | arrete une instance du rac |
srvctl status scan | SCAN VIP scan1 is enabled SCAN VIP scan1 is running on node aix_rac1 |
$GRID_HOME/bin/cluvfy comp scan | check des scans |
srvctl status SCAN_LISTENER | |
srvctl config scan | SCAN name: aix-scan, Network: 1/192.168.100.0/255.255.252.0/en2 SCAN VIP name: scan1, IP: /aix-scan1/192.168.100.204 |
srvctl stop scan_listener -i 1 | |
srvctl start scan_listener -i 1 | |
srvctl config scan_listener | SCAN Listener LISTENER_SCAN1 exists. Port: TCP:2115 |
srvctl relocate scan_listener -i 3 | relocate de l IP scan 3 |
olsnodes -t | savoir si le serveur pinned ==>number est fixe |
crsctl unpin css -n | unpinned a serveur |
srvctl status listener | Listener LISTENER is enabled Listener LISTENER is running on node(s): aix_rac1,aix_rac2 |
srvctl start listener | |
srvctl stop listener -n ppr-mtlunt86 | |
srvctl stop listener | |
srvctl config listener | Name: LISTENER Network: 1, Owner: grid Home: <CRS home> End points: TCP:1521 |
local_listener sur node 1 | (DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip1)(PORT=1521)))) |
local_listener sur node 2 | (DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip2)(PORT=1521)))) |
parametre du spfile des bd remote_listener | aix-scan:1521 |
/etc/ohasd stop | arret du clusterware |
local_listener sur node 1 | (DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip1)(PORT=1521)))) |
local_listener sur node 2 | (DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip2)(PORT=1521)))) |
remote_listener | (DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip2)(PORT=1521)))) (DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip1)(PORT=1521)))) |
crsctl check cluster -all | check du cluster |
crsctl status resource ora.mg.db -p | detail sur la ressource mg |
crsctl start resource MG.db -n aix_rac1 | start de la ressource sur noeud 1 |
srvctl relocate service -d PREPROD -s relocate_dba -i PREPROD2 -t PREPROD1 | relocate de preprod 1 vers preprod2 le service tourne au depart sur 1 |
srvctl add service -d ADOPT -s L_PBSTSC_CI -r ADOPT1,ADOPT2 | Loption r c est les instances ici c est sur les 2 noeuds |
srvctl start service -d ADOPT -s L_PBSTSC_CI | |
srvctl stop asm -f | arret de l asm en mode force |
srvctl config database -d ADOPTVAL | donne la config de la resource bd,inclus le role , les services … |
srvctl modify database -d ADOPTVAL -a ADOPT_DATA | modifie le nom des dg |
srvctl add service -d ADOPTVAL -s L_PBSTSC_CI | sur standalone avec ASM |
dans ASMcmd md_backup ppr-mtlunt85_asm_Metadata_backup.bck | dans asmcmd backup des metadata de l asm |
cluvfy comp admprv -o db_config -d /apps/db/11.2.0 -n ppr-mtlunt85 -verbose | apres le dbca en rac pour les privileges |
$ORACLE_HOME/bin/crsctl start res ora.cssd | start css +diskmon |
srvctl add asm | rajout de la resource ASM |
/etc/oracle/scls_scr/qas-mtlunt89/root/crsstart | donne des info sur le mode demarrage Linux |
/appl/grid/install/cluster.ini | clustername |
srvctl start diskgroup -g TESTBACKUP -n mtlunt101 | |
crsctl stat res -w "TYPE = ora.scan_listener.type" | NAME=ora.LISTENER_SCAN1.lsnr TYPE=ora.scan_listener.type TARGET=ONLINE STATE=ONLINE on mtlunt100 NAME=ora.LISTENER_SCAN2.lsnr TYPE=ora.scan_listener.type TARGET=ONLINE STATE=ONLINE on mtlunt101 NAME=ora.LISTENER_SCAN3.lsnr TYPE=ora.scan_listener.type TARGET=ONLINE STATE=ONLINE on mtlunt101 |
lsnrctl status LISTENER_SCAN2 | |
crsctl stat res -t | grep db | while read line ^Jdo^Jcrsctl status resource $line -f^Jecho "--------------------------------------"^Jdone | info complet crs |
srvctl modify database -d TBX -p '+CLUSTER_BD/TBX/PARAMETERFILE/spfile.334.778421477' | modification du path du spfile. |
srvctl enable cvu -n mtlunt002 | check sur clusterware 11.2.0.2 |
Rechercher dans ce blog
mercredi 18 mai 2011
Memo de commandes unix, oracle
Inscription à :
Publier les commentaires (Atom)
Aucun commentaire:
Enregistrer un commentaire