| commandes | exlpication |
| Prtconf | voir la config SYSTEM |
| lsvg rac_fg1 | voir vg detail |
| lsvg -l rac_fg1 | voir les raw devices |
| cat /etc/olr.loc | chemin de inventory olrconfig_loc=/u01/app/grid/11.2.0/cdata/aix_rac2.olr crs_home=/u01/app/grid/11.2.0 |
| Cat /etc/oracle/ocr.loc | |
| ocrcheck -local | |
| ocrdump -local olr.lst | |
| mkgroup | creation des groupes |
| mkuser | creation des user os |
| passwd | pour modifier les passwrd |
| ./runcluvfy.sh stage -pre crsinst -n aix-rac1,aix-rac2 -r 11gR2 -verbose | pre requis avant installation |
| cluvfy | noeuds du rac se voient |
| ./runcluvfy.sh comp ssa -n aix-rac1,aix-rac2 -verbose | check des shared storage |
| ./runcluvfy.sh comp admprv -n aix-rac1,aix-rac2 -o user_equiv | check user equivalence |
| cluvfy comp clocksync -n all | ntp + ctssd |
| ./runcluvfy.sh stage -pre crsinst -n aix-rac1,aix-rac2 -r 11gR2 -verbose -fixup -fixupdir /tmp | l option fixup |
| oifcfg iflist -p | liste les interfaces ca doit etre identiques des 2 cotes. |
| ./cluvfy comp nodecon -i aggr1 -n mtlunt100,mtlunt101 -verbose | connectivite avec l interface -i |
| ./runcluvfy.sh comp nodecon -n aix-rac1,aix-rac2 | connectivité entre les noeuds |
| ./runcluvfy.sh comp sys -n aix-rac1,aix-rac2 -p crs -verbose | pre requis systemes |
| scp -r grid@aix-rac1:/u01/app/grid/11.2.0/inst/grid/* . | copier depuis le noeud 2 le directory grid |
| ssh aix-rac1 date;date | check les date entre les 2 noeuds |
| nslookup mycluster-scan | check dns |
| crsctl status resource -t | check des resources |
| crsctl query crs softwareversion | version clusterware |
| crsctl query crs activeversion | |
| cluvfy stage -post crsinst -n aix_rac1,aix_rac2 cluvfy comp nodecon –n all –verbose | post install check |
| crsctl check cluster -all | tout les elements du cluster |
| crsctl query css votedisk | avoir tous les voting disk (nbr impair) |
| ocrconfig -local -manualbackup | backup manuel , le premier backup a lieu lors de l installation |
| ocrconfig -local -showbackup | local registry (ASM standalone) |
| ocrconfig -showbackup | voit les backups de l ocr |
| ocrconfig -backuploc /home/oracle | definit un Path pour les backups manuels |
| ocrconfig -manualbackup | execute un backup manuel |
| crsctl status server | voir les serveurs + online/offline |
| crsctl query crs administrator | qui est admin du cluster |
| srvctl config serverpool | voir de maniere generale |
| crsctl status serverpool -f | voir la config complete avec mmin max importance |
| srvctl status serverpool | voir les serverpool en detail |
| ./runcluvfy.sh stage -pre dbinst -n all -verbose | check avant install db software |
| rman target / catalog catalog_rman/XXXXr@mtlunt68:1521/catalog | backup db avec catalog |
| srvctl start diskgroup -g DATA -n "aix_rac2,aix_rac1" | demarre un dg |
| crsctl getperm resource ora.scan1.vip | Name: ora.scan1.vip owner:root:rwx,pgrp:system:r-x,other::r--,group:oinstall:r-x,user:grid:r-x |
| srvctl stop instance -d RACTEST -i RACTEST1 | arrete une instance du rac |
| srvctl status scan | SCAN VIP scan1 is enabled SCAN VIP scan1 is running on node aix_rac1 |
| $GRID_HOME/bin/cluvfy comp scan | check des scans |
| srvctl status SCAN_LISTENER | |
| srvctl config scan | SCAN name: aix-scan, Network: 1/192.168.100.0/255.255.252.0/en2 SCAN VIP name: scan1, IP: /aix-scan1/192.168.100.204 |
| srvctl stop scan_listener -i 1 | |
| srvctl start scan_listener -i 1 | |
| srvctl config scan_listener | SCAN Listener LISTENER_SCAN1 exists. Port: TCP:2115 |
| srvctl relocate scan_listener -i 3 | relocate de l IP scan 3 |
| olsnodes -t | savoir si le serveur pinned ==>number est fixe |
| crsctl unpin css -n | unpinned a serveur |
| srvctl status listener | Listener LISTENER is enabled Listener LISTENER is running on node(s): aix_rac1,aix_rac2 |
| srvctl start listener | |
| srvctl stop listener -n ppr-mtlunt86 | |
| srvctl stop listener | |
| srvctl config listener | Name: LISTENER Network: 1, Owner: grid Home: <CRS home> End points: TCP:1521 |
| local_listener sur node 1 | (DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip1)(PORT=1521)))) |
| local_listener sur node 2 | (DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip2)(PORT=1521)))) |
| parametre du spfile des bd remote_listener | aix-scan:1521 |
| /etc/ohasd stop | arret du clusterware |
| local_listener sur node 1 | (DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip1)(PORT=1521)))) |
| local_listener sur node 2 | (DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip2)(PORT=1521)))) |
| remote_listener | (DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip2)(PORT=1521)))) (DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip1)(PORT=1521)))) |
| crsctl check cluster -all | check du cluster |
| crsctl status resource ora.mg.db -p | detail sur la ressource mg |
| crsctl start resource MG.db -n aix_rac1 | start de la ressource sur noeud 1 |
| srvctl relocate service -d PREPROD -s relocate_dba -i PREPROD2 -t PREPROD1 | relocate de preprod 1 vers preprod2 le service tourne au depart sur 1 |
| srvctl add service -d ADOPT -s L_PBSTSC_CI -r ADOPT1,ADOPT2 | Loption r c est les instances ici c est sur les 2 noeuds |
| srvctl start service -d ADOPT -s L_PBSTSC_CI | |
| srvctl stop asm -f | arret de l asm en mode force |
| srvctl config database -d ADOPTVAL | donne la config de la resource bd,inclus le role , les services … |
| srvctl modify database -d ADOPTVAL -a ADOPT_DATA | modifie le nom des dg |
| srvctl add service -d ADOPTVAL -s L_PBSTSC_CI | sur standalone avec ASM |
| dans ASMcmd md_backup ppr-mtlunt85_asm_Metadata_backup.bck | dans asmcmd backup des metadata de l asm |
| cluvfy comp admprv -o db_config -d /apps/db/11.2.0 -n ppr-mtlunt85 -verbose | apres le dbca en rac pour les privileges |
| $ORACLE_HOME/bin/crsctl start res ora.cssd | start css +diskmon |
| srvctl add asm | rajout de la resource ASM |
| /etc/oracle/scls_scr/qas-mtlunt89/root/crsstart | donne des info sur le mode demarrage Linux |
| /appl/grid/install/cluster.ini | clustername |
| srvctl start diskgroup -g TESTBACKUP -n mtlunt101 | |
| crsctl stat res -w "TYPE = ora.scan_listener.type" | NAME=ora.LISTENER_SCAN1.lsnr TYPE=ora.scan_listener.type TARGET=ONLINE STATE=ONLINE on mtlunt100 NAME=ora.LISTENER_SCAN2.lsnr TYPE=ora.scan_listener.type TARGET=ONLINE STATE=ONLINE on mtlunt101 NAME=ora.LISTENER_SCAN3.lsnr TYPE=ora.scan_listener.type TARGET=ONLINE STATE=ONLINE on mtlunt101 |
| lsnrctl status LISTENER_SCAN2 | |
| crsctl stat res -t | grep db | while read line ^Jdo^Jcrsctl status resource $line -f^Jecho "--------------------------------------"^Jdone | info complet crs |
| srvctl modify database -d TBX -p '+CLUSTER_BD/TBX/PARAMETERFILE/spfile.334.778421477' | modification du path du spfile. |
| srvctl enable cvu -n mtlunt002 | check sur clusterware 11.2.0.2 |
Rechercher dans ce blog
mercredi 18 mai 2011
Memo de commandes unix, oracle
Inscription à :
Publier les commentaires (Atom)
Aucun commentaire:
Enregistrer un commentaire