VMware / Microsoft 製品はこう使う。

好きなことを好きに描く.

ESXi6.xのHost Client でセッションタイムアウトをなくす。

ESXi6.0やESXi6.5で実装されているHost Client はデフォルトでは放置していると自動的に15分でログアウトされます。

検証機で使う場合には、これはなかなか面倒です。

f:id:japan-vmware:20170902004121p:plain

 

タイムアウトしないように設定しようと思います。

 

Host Client にログインして

[管理] - [システム]タブ - [詳細設定] の中にある

[UserVars.HostClientSessionTimeout] をクリックして[オプションの編集]をクリックします。

f:id:japan-vmware:20170902004617p:plain

 

もともと900秒つまり、15分に設定されています。

f:id:japan-vmware:20170902004843p:plain

 

0を入力して、保存をクリックします。

f:id:japan-vmware:20170902005056p:plain

 

あとはHost Client 画面のリロードすれば終わりです。

 

Host Client でできることがいろいろ増えてきて嬉しい限りです。

 

 

仮想マシンがどのvmnicで通信しているかを確認する

こんにちは。

 

仮想スイッチにつながっている仮想マシンがどのvmnicで通信しているかを確認する方法をご紹介します。

 

一般的に運用の中では1つの仮想スイッチ(vSwitch)に複数vmnic(物理NIC)を割り当てているかとおもいます。1つの仮想スイッチにvmnicが2つ割り当てられている例として画面を貼ります。(vmnic0,1)

f:id:japan-vmware:20170829105325p:plain

 

vmnic0 , vmnic1 ともにアクティブなNICとして動作させることが大半かと思います。

 ※今回スイッチ側のLACPなどは構成していません。

f:id:japan-vmware:20170829133238p:plain

 

1つ仮想マシン(Windows7)を作成し、上記の仮想スイッチに接続させます。

f:id:japan-vmware:20170829125611p:plain

 

次にESXiにSSH接続します。(私はTeratermを使っています)

そして、esxtop と入力して Enterキーを押します。

f:id:japan-vmware:20170829125952p:plain

このままだと色んな情報が混在している状態です。

f:id:japan-vmware:20170829130057p:plain

 

キーボードの n キーを押下します。(ネットワークのViewに変更します)

[Windows7] という仮想マシンが、vmnic1 を使用していることがわかります。

f:id:japan-vmware:20170829133453p:plain

 

ためしにこのWindows7という仮想マシンが使用中のvmnic1をLinkDownさせてみます。

f:id:japan-vmware:20170829134351p:plain

 

瞬時に vmnic1 からvmnic0 に切り替わりました。

f:id:japan-vmware:20170829133836p:plain

 

仮想マシンがどのvmnicで通信しているかを確認する状況はあまり意識することがないかもしれないですが、メモとしてご紹介しました。

 

おわり

 

vCenter Server Appliance 6.5(Buuild:4602587) -> 6.5 Update1(Build:5973321) のバージョンアップをする。

いよいよ、VMwareからvCenter Server Appliance が主流になると宣言されたので、

vCenter Server Appliance 6.5 から6.5 Update 1 にバージョンアップしようと思う。

 

現在のvCenter  Server の情報

f:id:japan-vmware:20170828021529p:plain

f:id:japan-vmware:20170828021441p:plain

 

【ISOファイルをダウンロード】

アップデートモジュールがないと話にならないので、MyVMwareからダウンロードします。MyVMwareへのログインが必要です。

URL: https://my.vmware.com/ja/group/vmware/patch#search

f:id:japan-vmware:20170828021939p:plain

 

ダウンロードしたものをデータストアに置きます。

f:id:japan-vmware:20170828022206p:plain

 

データストアに置いた ISOファイルを既に稼働中のvCenter Server Appliance にマウントさせます。

f:id:japan-vmware:20170828022404p:plain

f:id:japan-vmware:20170828022530p:plain

Connected になりました。

f:id:japan-vmware:20170828022627p:plain

 

では次に、vCenter Server Appliance Management 画面にログインします。

ブラウザから <Server IP>:5480 アクセスし、rootユーザーでログインします。

 

f:id:japan-vmware:20170828022753p:plain

 

ログイン後、[更新]をクリックします。

f:id:japan-vmware:20170828023012p:plain

 

右上にある [更新の確認]をクリックし、[CDROM の確認]をクリックします。

インターネット上からアップデートモジュールをダウンロードすることもできますが、

インターネットにつながっているvCenter を使っている人は日本では少ない気がしたので、今回はISO(CDROM)でアップデートします。

f:id:japan-vmware:20170828023203p:plain

 

更新が可能である旨が表示されます。

f:id:japan-vmware:20170828024045p:plain

 

[アップデートのインストール]ボタンをクリックします。

f:id:japan-vmware:20170828024511p:plain

[インス…]をクリックします。

f:id:japan-vmware:20170828024644p:plain

 

アップデートが始まります。

f:id:japan-vmware:20170828035823p:plain

 おおよそ 6分くらいで完了しました。

f:id:japan-vmware:20170828040949p:plain

 

その後、再起動を実施します。

f:id:japan-vmware:20170828041105p:plain

f:id:japan-vmware:20170828041135p:plain

 

無事Buildが5973321になっています。

f:id:japan-vmware:20170828042136p:plain

 

以上で完了です。

 

おわり

 

vSANクラスタの構成情報やログを取得したログバンドルから見てみる。

こんにちは。

 

今回はvSANクラスタの構成情報やログを見てみようの回です。

 

ログバンドルの収集方法については、以前のポストが参考になります。


【環境情報】

 VMware ESXi 6.5.0 GA build-4564106(少し古くてすみません)

 SSD1本のハイブリッド構成

 

取得したログを解凍すると、以下のディレクトリ構造になっています。

# ls
README action.log altbootbank bootbank commands error.log errors-ignored.log etc  json lib64 proc scratch usr var vmfs

f:id:japan-vmware:20170827020935p:plain

 

【vSAN構成を見る】
定番ですが、[commands]ディレクトリに移動します。

構成が書いている txt ファイルは主に以下の3つです。

 ・localcli_vsan-storage-list.txt

 ・localcli_vsan-cluster-get.txt

 ・localcli_vsan-network-list.txt

 

+ localcli_vsan-cluster-get.txtの中身

本当にクラスタの情報だけが載っています。

クラスタにどんなUUIDのメンバがいるか記載されています。

f:id:japan-vmware:20170827024339p:plain

見づらいのでテキストでも貼ります。

============

Cluster Information:
Enabled: true
Current Local Time: 2017-08-26T17:16:47Z
Local Node UUID: 58b45069-ebb0-3412-cf73-00505698bebf
Local Node Type: NORMAL
Local Node State: AGENT
Local Node Health State: HEALTHY
Sub-Cluster Master UUID: 58b4cb67-68a8-8d79-9278-005056988112
Sub-Cluster Backup UUID: 58b4d367-4007-d15e-382a-005056987d57
Sub-Cluster UUID: 52499a56-64ea-7cad-bcef-3e4205108895
Sub-Cluster Membership Entry Revision: 1
Sub-Cluster Member Count: 3
Sub-Cluster Member UUIDs: 58b4d367-4007-d15e-382a-005056987d57, 58b4cb67-68a8-8d79-9278-005056988112, 58b45069-ebb0-3412-cf73-00505698bebf
Sub-Cluster Membership UUID: c68d9e59-a873-81d8-08d6-005056988112

============

 

 

+ localcli_vsan-storage-list.txt の中身

vSANで使用中のローカルディスクの情報が出ます。

どのディスクグループに所属しているのか、も表示されます。

f:id:japan-vmware:20170827023732p:plain

 

+localcli_vsan-network-list.txtの中身

f:id:japan-vmware:20170827024445p:plain

(テキスト)

Interface:
VmkNic Name: vmk1
IP Protocol: IP
Interface UUID: 3049b558-1db6-4c2c-d8cf-00505698bebf
Agent Group Multicast Address: 224.2.3.4
Agent Group IPv6 Multicast Address: ff19::2:3:4
Agent Group Multicast Port: 23451
Master Group Multicast Address: 224.1.2.3
Master Group IPv6 Multicast Address: ff19::1:2:3
Master Group Multicast Port: 12345
Host Unicast Channel Bound Port: 12321
Multicast TTL: 5
Traffic Type: vsan

=============

 

vSANのHealth 状態を見たりする場合は以下の結果も見たりします。

・python_usrlibvmwarevsanbinvsan-health-statuspyc-base_info.txt

・python_usrlibvmwarevsanbinvsan-health-statuspyc-obj_info.txt

・python_usrlibvmwarevsanperfsvcvsan-perfsvc-statuspyc-svc_info.txt

 

大体これらの結果を見ることでvSANで使用しているディスクがどれなのか判別がつきます。

 

【vSANの動きを大まかに見るには】

vSANで何か問題が発生したときvSANの挙動をまずはおおまかに把握する必要があります。このファイルを見るといろいろわかります。

 

# <vm-support fileName>/var/run/log

 FileName: vsansystem.log

 

例えば、新規にディスクグループを作成したときは、パーティションが作成されたことや、ディスクがフォーマットされる様子、ディスクグループの作成されたことがわかったりします。太字部分がそうです。

==================================■vsansystem.log
2017-08-27T09:43:34.491Z info vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] Checking 5 disks for uniqueness
2017-08-27T09:43:34.491Z info vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] Done checking disk uniqueness: OK
2017-08-27T09:43:34.491Z info vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] Done checking disk types: OK
2017-08-27T09:43:34.491Z warning vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] Get disks from Hostd. Note it should not be called with lock held
2017-08-27T09:43:34.491Z info vsansystem[4E41EFD700] [Originator@6876 sub=SimsHostdStub opId=7d31c144-59-fd98] Retrieve property from Hostd for vim.host.StorageSystem,storageSystem,storageDeviceInfo.
2017-08-27T09:43:34.505Z verbose vsansystem[4E41EFD700] [Originator@6876 sub=SimsHostdStub opId=7d31c144-59-fd98] Done Hostd property: vim.host.StorageSystem,storageSystem,storageDeviceInfo.Result:Not printed
2017-08-27T09:43:34.505Z info vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] Done checking for ineligible disks: OK
2017-08-27T09:43:34.505Z verbose vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] ValidateDiskMapping Complete
2017-08-27T09:43:34.505Z info vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] Formatting VSAN disks
2017-08-27T09:43:34.533Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanUtil: Successfully promoted node version.
2017-08-27T09:43:34.546Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanSysinfo: Loading module lsom
2017-08-27T09:43:34.547Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanInfoImpl: Creating disk-group with SSD: naa.44948575973cff5803286677d6b0720d
2017-08-27T09:43:34.675Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Device with 512 sector size.
2017-08-27T09:43:34.748Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Created partition for disk naa.44948575973cff5803286677d6b0720d ★(SSD)
2017-08-27T09:43:34.750Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Device with 512 sector size.
2017-08-27T09:43:34.894Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Created partition for disk naa.44948575973cf4ceececb6a756ede276 ★(Disk)
2017-08-27T09:43:34.895Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Device with 512 sector size.
2017-08-27T09:43:35.073Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Created partition for disk naa.48575973cf4c62d9168f994aab126cf0 ★(Disk)
2017-08-27T09:43:35.074Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Device with 512 sector size.
2017-08-27T09:43:35.227Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Created partition for disk naa.48575973cf4cb3d528e913d747423c56 ★(Disk)
2017-08-27T09:43:35.228Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Device with 512 sector size.
2017-08-27T09:43:35.361Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Created partition for disk naa.48575973cf4ccebe576f8704b2ab1e42 ★(Disk)
2017-08-27T09:43:35.362Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Formatting VSAN disk naa.44948575973cff5803286677d6b0720d
2017-08-27T09:43:35.365Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Read VSAN metadata for naa.44948575973cff5803286677d6b0720d
2017-08-27T09:44:27.730Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Formatting VSAN disk naa.44948575973cf4ceececb6a756ede276
2017-08-27T09:44:27.733Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Read VSAN metadata for naa.44948575973cff5803286677d6b0720d
2017-08-27T09:44:27.759Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Formatting VSAN disk naa.48575973cf4c62d9168f994aab126cf0
2017-08-27T09:44:27.787Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Formatting VSAN disk naa.48575973cf4cb3d528e913d747423c56
2017-08-27T09:44:27.812Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Formatting VSAN disk naa.48575973cf4ccebe576f8704b2ab1e42
2017-08-27T09:44:27.836Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanInfoImpl: VSAN clustering is enabled

==================================

 

【もっと詳細を調査する場合】

# <vm-support fileName>/var/run/log

・vsanmgmt.log

・vsanvpd.log

 

これらを見ることになります。

 

 

【感想】

vm-supportにはいろんな構成情報やログが含まれていますが、

まだvSANのログは少ない印象です。

 

終わり

 

 

vSphere Web Clientからログ収集を行う。

こんばんは。

 

しばらく体調がいまいちだったので、投稿が滞っていました。

 

今回はvSAN クラスタについて、どのような場所に何が書いているのかをご紹介しようかとおもったのですが、まず、vSphere Web Clientでのログ収集方法をポストしていなかったので、まずはそれから記載することにします… 

 

ログ(vm-support)のとり方はこちらが参考になります。

ただし、vSphere Web Clientの方法ではないです。

 

【vSphere Web Client(Flash)ログ収集】

vSphere Web Clientでは、vCenter アイコンを右クリックすると、

[Export System Logs]が表示されますので、クリックすることで収集できます。

f:id:japan-vmware:20170827012637p:plain

 

収集するホストにチェックを入れます。

f:id:japan-vmware:20170827011847p:plain

 

デフォルトのまま [Finish]ボタンをクリックすると、ログのダウンロードが始まる。

f:id:japan-vmware:20170827012057p:plain

 

非常にかんたんです。

 

次回はvSANのログを少しご紹介したいと思います。

vRealize Operations Manager 6.6をデプロイしていく。

 こんにちは。

 

私は、vRealize Operations Manager 6.2 までしかデプロイしたことがなかったので、vRealize Operations Manager 6.6をvSphere Web Client からデプロイする流れのメモとして、画面ペタペタ貼ろうかと思います。

 

あらかじめMyVMwareからダウンロードしておいた、ovaファイルをvSphere Web Client を使ってデプロイします。

f:id:japan-vmware:20170626125931p:plain

 デプロイするところを指定。

f:id:japan-vmware:20170626131902p:plain

 

デプロイされるテンプレートの概要が表示される。

f:id:japan-vmware:20170626132124p:plain

 

 [Next] ボタンをクリックしていく。

f:id:japan-vmware:20170626132551p:plain

 

デプロイ自体は完了。

f:id:japan-vmware:20170626000052p:plain

 

同じネットワーク上にあるPCのブラウザから IP Address を入力してアクセスすると以下の画面が表示される。[EXPRESS INSTALLATION] をクリックした。

f:id:japan-vmware:20170625235931p:plain

 

ウィザードが表示されるので、[Next]ボタンをクリックして進めていく。

f:id:japan-vmware:20170626000229p:plain

 

adminユーザーのパスワードを設定する。

f:id:japan-vmware:20170626000652p:plain

 

 [FINISH]ボタンをクリックする。

f:id:japan-vmware:20170626000813p:plain

 

構成が始まります。私の環境ではこの画面が20分くらい表示され続けました。パフォーマンス次第かと思います。

f:id:japan-vmware:20170626000857p:plain

 

自動的に画面が遷移し、VMware vRealize Operations Manager のログイン画面が表示されます。

f:id:japan-vmware:20170626003640p:plain

 

さっそくadmin ユーザーでログインすると、またまた初期構成を行うための画面が表示されます。[NEXT]ボタンで進めていきます。

f:id:japan-vmware:20170626003953p:plain

 

ライセンスキーを入力します。

f:id:japan-vmware:20170626004219p:plain

 

[FINISH]ボタンをクリックします。

f:id:japan-vmware:20170626004355p:plain

 

ログインすると [Administration]タブ が選択された状態で表示されます。

f:id:japan-vmware:20170626004908p:plain

 

情報を得るには、まずvCenter Server から情報を取得しなければいけないので、設定します。歯車のアイコンをクリックします。

f:id:japan-vmware:20170626004953p:plain

 

vR ops 6.2のときと似た画面になりました。vCenter Adapter にvCenter Server との通信必要な情報を入力して、[TEST CONNECTION]ボタンをクリックします。

f:id:japan-vmware:20170626005737p:plain

 

[TEST CONNECTION]ボタンをクリックし、vCenter Server と接続テストを行います。

f:id:japan-vmware:20170626005457p:plain

 

接続がうまくいくと、[Test connection Successful] と表示されます。[SAVE SETTINGS]ボタンをクリックします。

f:id:japan-vmware:20170626005516p:plain

 

 vCenter Adapter の中に自分が作成したものが表示されます。

f:id:japan-vmware:20170626010015p:plain

 

情報収集がはじまります。 

f:id:japan-vmware:20170626010216p:plain

 

ここまでの作業に何やら情報を取得してきていました。

(あまりvR Ops 詳しく無いので…)

f:id:japan-vmware:20170626153645p:plain

 

ただのメモでした。

 

オワリ