More VIOS commands

RAID controller
USB UHC Spec --> local disk

Location code website need to find?

SCSI Adapter

create LVM on VIOS if we hv single physical disk

lsdev -virtul
ent1 -- virtual adapter


lsdev
ent0 ---physical adapter

lsmap -all -net

netstat -state

chdev -dev ent0 -attr state=detach

mkdev


VIOS

Adapter 2 Port VLAN 1
port 3 vlan 99

bridge NO


$ oem_setup_env


32 LPM_VIOS juno
37

c05076050e790000

c05076050e790001

show WWPN no
lscfg -vpl fcs0
http://9.126.134.190/na_admin/


show hardisks
lspv

mkvdev -sea ent0 -vadapter ent1 -default ent1 -defaultid 1


5) Scan for new disks from your server

Log into your server and scan for new hardware.

SCAN SAN disks LUNS
In AIX:
AIX# cfgmgr

AIX# fget_config -Avada

$ vfcmap -vadapter vfchost2 -fcp fcs1
$ lsmap -all -npiv
Name          Physloc                            ClntID ClntName       ClntOS
------------- ---------------------------------- ------ -------------- -------
vfchost0      U8205.E6B.065469R-V2-C4                 1

Status:NOT_LOGGED_IN
FC name:                        FC loc code:
Ports logged in:0
Flags:1
VFC client name:                VFC client DRC:

Name          Physloc                            ClntID ClntName       ClntOS
------------- ---------------------------------- ------ -------------- -------
vfchost2      U8205.E6B.065469R-V2-C5                 5 AIX_DISK2      AIX

Status:LOGGED_IN
FC name:fcs1                    FC loc code:U78AA.001.WZSH6T8-P1-C4-T2
Ports logged in:1
Flags:a
VFC client name:fcs0            VFC client DRC:U8205.E6B.065469R-V5-C4



Check version of blade or CEC
cupdcmd -f


"boot: linux
Please wait, loading kernel...
  Elf64 kernel loaded...
Loading ramdisk...
Claim failed for initrd memory
ramdisk load failed !
ENTER called ok
0 >

Try the following workaround:

In the OF prompt, type:

dev nvram
wipe-nvram
"






Error " Open in progress

 The open failed.
   -The session may already be open on another management console
   -The server may not be ready to accept connections.

 Attempts to open the session failed. Please close the terminal and retry the open at a later time.
  If the problem persists, Please contact IBM support.
  Received end of file, Exiting."
 
 Solution: Disable SOL in ASM page then it will fix issue


Virtual Fibre Channel adapter
This field requires a value.Adapter ID: 4

client Name aix(2)
client partition 2

 $ lsnports
name             physloc                        fabric tports aports swwpns  awwpns
fcs0             U78A5.001.WIHC61C-P1-C19-T1         1     64     64   2032    2032
fcs1             U78A5.001.WIHC61C-P1-C19-T2         1     64     64   2032    2032

$ lsdev -vpd | grep vfchost
  vfchost0         U7891.73X.060321B-V1-C4            Virtual FC Server Adapter

 $vfcmap -vadapter vfchost0 -fcp fcs0

 $ lsmap -vadapter vfchost0 -npiv
Name          Physloc                            ClntID ClntName       ClntOS
------------- ---------------------------------- ------ -------------- -------
vfchost0      U7891.73X.060321B-V1-C4                 2

Status:NOT_LOGGED_IN
FC name:fcs0                    FC loc code:U78A5.001.WIHC61C-P1-C19-T1
Ports logged in:0
Flags:4
VFC client name:                VFC client DRC:


WWPNs:

c05076049b5a0000

c05076049b5a0001


 48  48   023000   id    N8   Online      FC  E-Port  10:00:00:05:33:a3:3e:1a "b                                                                                                                     rocade8Gb" (downstream)
 49  49   023100   id    N8   Online      FC  E-Port  10:00:00:05:33:a6:64:e9 "b                                                                                                                     rocade8Gb"

 52  52   023400   id    N8   Online      FC  E-Port  10:00:00:05:33:a3:3e:1a "b                                                                                                                     rocade8Gb"
 53  53   023500   id    N8   Online      FC  E-Port  10:00:00:05:33:a6:64:e9 "b                                                                                                                     rocade8Gb" (downstream)



 $ lsdev -dev fscsi1 -child
name             status      description
hdisk14          Defined     MPIO DS5100/5300 Disk
hdisk15          Defined     MPIO DS5100/5300 Disk
hdisk16          Defined     MPIO DS5100/5300 Disk
hdisk17          Available   MPIO DS5100/5300 Disk
hdisk18          Available   MPIO DS5100/5300 Disk
hdisk19          Available   MPIO DS5100/5300 Disk
hdisk20          Available   MPIO DS5100/5300 Disk
hdisk21          Available   MPIO DS5100/5300 Disk
hdisk22          Available   MPIO DS5100/5300 Disk
hdisk23          Available   MPIO DS5100/5300 Disk
hdisk24          Available   MPIO DS5100/5300 Disk
hdisk25          Available   MPIO DS5100/5300 Disk
hdisk26          Available   MPIO DS5100/5300 Disk
hdisk27          Available   MPIO DS5100/5300 Disk
hdisk28          Available   MPIO DS5100/5300 Disk
hdisk29          Available   MPIO DS5100/5300 Disk
hdisk30          Available   MPIO DS5100/5300 Disk
hdisk31          Available   MPIO DS5100/5300 Disk
hdisk32          Available   MPIO DS5100/5300 Disk

lsdev -dev hdisk12 -parent
parent

sas0

 lsdev -dev sas0 -child
name             status      description
hdisk12          Available   SAS Disk Drive
hdisk13          Available   SAS Disk Drive
ses0             Available   SAS Enclosure Services Device
ses1             Available   SAS Enclosure Services Device
sfwcomm2         Available   SAS Storage Framework Comm


Remove the network en0
#ifconfig en0 down
#ifconfig en0 detach


$  mkvdev -sea ent12 -vadapter ent25 -default ent25 -defaultid 1
*******************************************************************************
The command's response was not recognized.  This may or may not indicate a problem.
*******************************************************************************
Command did not complete.

"Run mkdev" was last subcommand run.


# lsattr -El hdisk8
DIF_prot_type   none                                                           T10 protection type              False
DIF_protection  no                                                             T10 protection support           True
PCM             PCM/friend/otherapdisk                                         Path Control Module              False
PR_key_value    none                                                           Persistant Reserve Key Value     True
algorithm       fail_over                                                      Algorithm                        True
autorecovery    no                                                             Path/Ownership Autorecovery      True
clr_q           no                                                             Device CLEARS its Queue on error True
cntl_delay_time 90                                                             Controller Delay Time            True
cntl_hcheck_int 10                                                             Controller Health Check Interval True
dist_err_pcnt   0                                                              Distributed Error Percentage     True
dist_tw_width   50                                                             Distributed Error Sample Time    True
hcheck_cmd      inquiry                                                        Health Check Command             True
hcheck_interval 60                                                             Health Check Interval            True
hcheck_mode     nonactive                                                      Health Check Mode                True
location                                                                       Location Label                   True
lun_id          0x8000000000000                                                Logical Unit Number ID           False
lun_reset_spt   yes                                                            LUN Reset Supported              True
max_coalesce    0x10000                                                        Maximum Coalesce Size            True
max_retry_delay 60                                                             Maximum Quiesce Time             True
max_transfer    0x40000                                                        Maximum TRANSFER Size            True
node_name       0x200800a0b86e1992                                             FC Node Name                     False
pvid            00f75469243111d60000000000000000                               Physical volume identifier       False
q_err           yes                                                            Use QERR bit                     True
q_type          simple                                                         Queuing TYPE                     True
queue_depth     10                                                             Queue DEPTH                      True
reassign_to     120                                                            REASSIGN time out value          True
reserve_policy  no_reserve                                                     Reserve Policy                   True
rw_timeout      30                                                             READ/WRITE time out value        True
scsi_id         0x24500                                                        SCSI ID                          False
start_timeout   60                                                             START unit time out value        True
timeout_policy  retry_path                                                     Timeout Policy                   True
unique_id       3E213600A0B80006E1D2E0000D7FD4FC5A32D0F1818      FAStT03IBMfcp Unique device identifier         False
ww_name         0x202900a0b86e1992                                             FC World Wide Name               False

$ lsdev | grep fscsi
fscsi0           Available   FC SCSI I/O Controller Protocol Device
fscsi1           Available   FC SCSI I/O Controller Protocol Device
fscsi2           Defined     FC SCSI I/O Controller Protocol Device
fscsi3           Defined     FC SCSI I/O Controller Protocol Device


$ chdev -dev fscsi1 -attr fc_err_recov=fast_fail dyntrk=yes -perm
fscsi0 changed

Find Lun number or disk id
$ lsdev -dev hdisk43 -vpd
  hdisk43          U789D.001.DQD63VZ-P1-C1-T1-W203800A0B86E1992-L8000000000000  MPIO DS5100/5300 Disk

        Manufacturer................IBM
        Machine Type and Model......1818      FAStT
        ROS Level and ID............30373330
        Serial Number...............
        Device Specific.(Z0)........0000053245005032
        Device Specific.(Z1)........


  PLATFORM SPECIFIC

  Name:  disk
    Node:  disk
    Device Type:  block

To get complete Info about hardwar e& location codes
lsdev -vpd

SSP :
cluster -create -clustername teacher -repopvs hdisk9 -spname blackdog -sppvs hdisk8 -hostname saturn4vios1.blr.stglabs.ibm.com

$ cluster -list
CLUSTER_NAME:    teacher
CLUSTER_ID:      8068a714ddbc11e28907f67cc4c4af92


(0) padmin @ saturn4vios1: /home/padmin
$ cluster -status -clustername teacher
Cluster Name         State
teacher              OK

    Node Name        MTM           Partition Num  State  Pool State
    saturn4vios1     9117-MMB02067CC4P         1  OK     OK



cluster -addnode -clustername teacher -hostname saturn6vios3.blr.stglabs.ibm.com


cluster –rmnode –clustername teacher –hostname saturn6vios3.blr.stglabs.ibm.com

saturn6vios3.blr.stglabs.ibm.com

find CA agent version
# cd /opt/ibm/director/agent
# cat version.key
603231024 603030000 BASE
component=IBM Director Agent
version=6.3.3
version.displayable=6.3.3
builddate=2013-10-24
buildnum=usmi13b-0038
codebase_version=6.3.3
prodversion=BASE


/opt/freeware/cimom/pegasus/bin/slp_query --type=service:management-software.IBM:usma --address=127.0.0.1
# /opt/freeware/cimom/pegasus/bin/slp_query --type=service:management-software.IBM:usma --address=127.0.0.1
0
0
0


0
1
61
URL: service:management-software.IBM:usma://isdl3lpar27.in.ibm.com
ATTR: (ip-address=9.124.114.99),(mac-address=6c.ae.8b.5.0.53),(tivguid=AA3B02403A4511E3AEB4000106000000),(uid=7f997d21356f5b0d),(vendor=IBM),(System-Name=isdl3lpar27.in.ibm.com),(timezone-offset=360),(version=6.3.3),(port=9510),(manager=9.126.85.119)

Comments

Popular posts from this blog

How to delete SEA in VIOS

Webmin configuration for LDAP