Rechercher dans ce blog

mercredi 18 mai 2011

Memo de commandes unix, oracle

commandesexlpication
Prtconf  voir la config SYSTEM
lsvg rac_fg1voir vg detail
lsvg  -l rac_fg1voir les raw devices
cat /etc/olr.locchemin de  inventory
olrconfig_loc=/u01/app/grid/11.2.0/cdata/aix_rac2.olr
crs_home=/u01/app/grid/11.2.0
Cat  /etc/oracle/ocr.loc 
ocrcheck -local 
ocrdump -local olr.lst    
mkgroupcreation des  groupes
mkusercreation  des user os
passwd pour modifier  les  passwrd
./runcluvfy.sh stage -pre crsinst -n aix-rac1,aix-rac2 -r 11gR2 -verbosepre requis  avant installation
cluvfynoeuds du  rac  se  voient
./runcluvfy.sh comp ssa -n aix-rac1,aix-rac2 -verbosecheck des  shared storage
./runcluvfy.sh comp admprv -n aix-rac1,aix-rac2 -o user_equivcheck  user equivalence
cluvfy comp clocksync -n allntp  + ctssd
./runcluvfy.sh stage -pre crsinst -n aix-rac1,aix-rac2 -r 11gR2 -verbose
  -fixup -fixupdir /tmp
l option fixup
oifcfg iflist -pliste les interfaces ca doit  etre identiques des  2  cotes.
./cluvfy comp nodecon -i aggr1 -n mtlunt100,mtlunt101 -verboseconnectivite   avec l interface -i
./runcluvfy.sh comp nodecon -n aix-rac1,aix-rac2connectivité entre les  noeuds
./runcluvfy.sh comp sys -n aix-rac1,aix-rac2 -p crs -verbosepre requis  systemes
scp -r grid@aix-rac1:/u01/app/grid/11.2.0/inst/grid/* .copier depuis le  noeud 2 le directory grid
ssh  aix-rac1  date;datecheck  les  date entre les 2  noeuds
nslookup mycluster-scancheck dns
crsctl status resource -tcheck des resources
 crsctl query crs softwareversionversion clusterware
crsctl query crs activeversion 
cluvfy stage -post crsinst -n aix_rac1,aix_rac2
cluvfy comp nodecon –n all –verbose
post  install  check
crsctl check cluster -alltout les  elements  du cluster
crsctl query css votediskavoir tous les  voting  disk (nbr  impair)
ocrconfig -local -manualbackupbackup  manuel , le premier  backup a lieu  lors de l installation 
ocrconfig -local  -showbackuplocal  registry  (ASM  standalone)
ocrconfig -showbackupvoit les  backups de  l ocr
ocrconfig -backuploc /home/oracledefinit  un Path  pour  les  backups  manuels
ocrconfig -manualbackupexecute  un backup manuel
crsctl status servervoir les  serveurs + online/offline
crsctl query crs administratorqui est  admin du  cluster 
srvctl  config  serverpoolvoir  de  maniere  generale
crsctl status serverpool -fvoir  la config   complete  avec  mmin max  importance
srvctl  status  serverpoolvoir les serverpool  en detail
./runcluvfy.sh stage -pre dbinst -n all -verbosecheck  avant  install db  software
rman  target  /  catalog  catalog_rman/XXXXr@mtlunt68:1521/catalogbackup  db  avec  catalog 
srvctl start diskgroup -g DATA -n "aix_rac2,aix_rac1"demarre  un dg 
crsctl getperm resource  ora.scan1.vipName: ora.scan1.vip
owner:root:rwx,pgrp:system:r-x,other::r--,group:oinstall:r-x,user:grid:r-x
srvctl  stop instance  -d RACTEST -i RACTEST1arrete  une  instance  du rac
srvctl  status  scanSCAN VIP scan1 is enabled
SCAN VIP scan1 is running on node aix_rac1
$GRID_HOME/bin/cluvfy comp scancheck  des scans
 srvctl   status  SCAN_LISTENER 
srvctl config scanSCAN name: aix-scan, Network: 1/192.168.100.0/255.255.252.0/en2
SCAN VIP name: scan1, IP: /aix-scan1/192.168.100.204
srvctl stop scan_listener  -i 1 
srvctl start scan_listener  -i 1 
srvctl config scan_listenerSCAN Listener LISTENER_SCAN1 exists. Port: TCP:2115
srvctl  relocate  scan_listener  -i 3relocate de  l IP  scan  3
olsnodes -t savoir si le serveur   pinned ==>number est  fixe
crsctl unpin css -n unpinned  a serveur
srvctl status  listenerListener LISTENER is enabled
Listener LISTENER is running on node(s): aix_rac1,aix_rac2
srvctl start listener 
srvctl   stop  listener  -n ppr-mtlunt86 
srvctl stop listener 
srvctl  config  listenerName: LISTENER
Network: 1, Owner: grid
Home: <CRS home>
End points: TCP:1521
local_listener  sur  node 1(DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip1)(PORT=1521))))
local_listener  sur  node 2(DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip2)(PORT=1521))))
parametre  du spfile   des bd remote_listener aix-scan:1521
/etc/ohasd  stoparret du  clusterware
local_listener  sur  node 1(DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip1)(PORT=1521))))
local_listener  sur  node 2(DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip2)(PORT=1521))))
remote_listener(DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip2)(PORT=1521))))
(DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=aix-vip1)(PORT=1521))))
crsctl  check cluster -allcheck du  cluster 
crsctl status  resource  ora.mg.db -pdetail   sur la  ressource  mg
crsctl  start resource MG.db -n aix_rac1start  de  la ressource   sur noeud  1
srvctl relocate service -d PREPROD -s  relocate_dba -i PREPROD2 -t PREPROD1relocate de  preprod 1 vers  preprod2
le service  tourne   au  depart  sur 1
srvctl  add  service  -d ADOPT -s L_PBSTSC_CI -r ADOPT1,ADOPT2Loption   r  c est  les  instances  ici  c est sur les 2  noeuds
srvctl  start  service  -d ADOPT -s L_PBSTSC_CI 
srvctl   stop  asm  -farret de   l asm  en  mode force 
srvctl  config  database -d  ADOPTVALdonne la config   de  la resource   bd,inclus le  role  , les  services …
 srvctl  modify   database -d  ADOPTVAL  -a ADOPT_DATAmodifie  le  nom des dg
 srvctl  add  service  -d ADOPTVAL -s L_PBSTSC_CI sur  standalone  avec ASM 
 dans  ASMcmd
md_backup ppr-mtlunt85_asm_Metadata_backup.bck
dans  asmcmd   backup des metadata  de l asm
 cluvfy comp admprv -o db_config -d /apps/db/11.2.0 -n ppr-mtlunt85 -verboseapres  le dbca  en  rac pour les  privileges 
$ORACLE_HOME/bin/crsctl start res ora.cssdstart  css +diskmon
srvctl add asmrajout de la resource   ASM
/etc/oracle/scls_scr/qas-mtlunt89/root/crsstartdonne des  info  sur le mode demarrage Linux
/appl/grid/install/cluster.iniclustername
srvctl   start  diskgroup -g TESTBACKUP  -n mtlunt101 
crsctl stat res -w "TYPE = ora.scan_listener.type"NAME=ora.LISTENER_SCAN1.lsnr
TYPE=ora.scan_listener.type
TARGET=ONLINE
STATE=ONLINE on mtlunt100

NAME=ora.LISTENER_SCAN2.lsnr
TYPE=ora.scan_listener.type
TARGET=ONLINE
STATE=ONLINE on mtlunt101

NAME=ora.LISTENER_SCAN3.lsnr
TYPE=ora.scan_listener.type
TARGET=ONLINE
STATE=ONLINE on mtlunt101
lsnrctl status LISTENER_SCAN2 
crsctl  stat  res  -t  |  grep   db  |  while read  line  ^Jdo^Jcrsctl  status  resource $line -f^Jecho  "--------------------------------------"^Jdone info   complet   crs  
srvctl  modify  database  -d TBX -p '+CLUSTER_BD/TBX/PARAMETERFILE/spfile.334.778421477'modification du path  du  spfile.
srvctl enable cvu  -n mtlunt002 check sur clusterware  11.2.0.2

Aucun commentaire:

Enregistrer un commentaire