VMware製品はこう使うのよ。

好きなことを好きに描く、ん~のびしろですね!

Test-NetConnectionで指定したTCPポートが開いているか確認する。

まだWindows 上にvCenter Server をインストールされておられる環境が多いので、

少しネタとして。

 

Windows Server 2012 R2以降には、PowerShellで Test-NetConnectionというコマンドレットが用意されています。

指定したTCPポートが開いているか確認するためのものです。

f:id:japan-vmware:20171126010038p:plain

 

私はたまに開いているはずのTCPポートがなぜか通信できていなさそう、というときに使ったりします。

 

書式)

Test-NetConnection -ComputerName <IP or hostname> -Port <PortNo>

 

実行すると、青い画面が出ます。(出ないようにもオプションで可能)

f:id:japan-vmware:20171126010326p:plain

 

ダメだったときは、"TcpTestSucceeded: False" となります。

f:id:japan-vmware:20171126010407p:plain

 

Port 443が空いていたら "TcpTestSucceeded: True" になります。 

f:id:japan-vmware:20171126013435p:plain

 

Ping感覚で使えるのでとっさに切り分けするときなどに便利だなぁと思いました。

 

おわり

vCSA6.6 Beta をデプロイする(Deploying vCSA6.6 Beta)

こんにちは。

 

Beta program に登録したので、vCSA6.6 Betaをデプロイしてみました。

Build No 6840631 です。

f:id:japan-vmware:20171113020001p:plain

ただ、ひたすらにスクリーンショットを貼り付けていきます。

 

Deployと言いながら、VMware的にはInstall になります。

f:id:japan-vmware:20171113015156p:plain

 

f:id:japan-vmware:20171113020253p:plain

f:id:japan-vmware:20171113020536p:plain

f:id:japan-vmware:20171113020611p:plain

f:id:japan-vmware:20171113020636p:plain

f:id:japan-vmware:20171113020714p:plain

f:id:japan-vmware:20171113021717p:plain

f:id:japan-vmware:20171113021800p:plain

f:id:japan-vmware:20171113022254p:plain

f:id:japan-vmware:20171113024130p:plain

f:id:japan-vmware:20171113024244p:plain

f:id:japan-vmware:20171113024318p:plain

f:id:japan-vmware:20171113024403p:plain

f:id:japan-vmware:20171113024426p:plain

f:id:japan-vmware:20171113024513p:plain

f:id:japan-vmware:20171113024600p:plain

 

完了の画面撮り忘れた・・・

 

HTML 5のvSphere Client にログインします。

f:id:japan-vmware:20171113101017p:plain

 

エラーでみれなかったです・・・またトラブルシューティングします。

vSphere Client は同じだと思います。

f:id:japan-vmware:20171115003258p:plain

 

 おわり

(VDP)証明書のエラーでVDP(vSphere Data Protection)のデプロイができない。(回避策)

こんにちは。

 

この間、VDP6.1.4をダウンロードして、デプロイしようとしたら、

エラーでデプロイのウィザードを進めなかったので、回避策も含めて記載します。

 

まずは、OVAファイルをダウンロードします。

f:id:japan-vmware:20171001234433p:plain

 

vSphere Web Client からESXiホストを右クリックして、[Deploy OVF Template] をクリックします。(私の環境は英語環境)

f:id:japan-vmware:20171001234610p:plain

 

vSphareDataProtection-6.1.4.ova を選択します。

f:id:japan-vmware:20171001235050p:plain

 

ウィザードを進めていくと証明書のエラーにぶち当たります。

[Next]ボタンをクリックしても、進むことはできません。

f:id:japan-vmware:20171001235524p:plain

 

エラーの原因は、証明書の期限が切れています。おいおい、という感じです。

f:id:japan-vmware:20171002000813p:plain

 

このままではデプロイができないので、回避策をしていきます。

 

まず、vSphereDataProtection-6.1.4.ova のファイル拡張子を変更します。

"tar"  形式にします。

vSphereDataProtection-6.1.4.ova

vSphereDataProtection-6.1.4.tar

f:id:japan-vmware:20171002001405p:plain

そしてこのまま解凍します。

f:id:japan-vmware:20171002001531p:plain

 

解凍後のファイルたちです。

f:id:japan-vmware:20171002001753p:plain

 

デプロイ時には、以下2つのファイルを使用します。

・vSphereDataProtection-0.0TB.ovf

・vSphereDataProtection-0.0TB-disk1.vmdk

 

デプロイ時に .ovf と.vmdk だけを指定します。

f:id:japan-vmware:20171002161650p:plain

 

[Publisher] のところが "No certificate present" になっています。

そのため、Next ボタンをクリックできるようになっています。進めます。

f:id:japan-vmware:20171002161820p:plain

 

マツダ好きなので、データセンター名がまつだですが、[Finish]ボタンでデプロイが開始されます。

f:id:japan-vmware:20171002162449p:plain

特に問題もなく完了します。

f:id:japan-vmware:20171002163217p:plain

 

デプロイしたVDPをパワーオンします。

 

f:id:japan-vmware:20171002170833p:plain

 

特に問題なくアクセスできました。

f:id:japan-vmware:20171002171724p:plain

 

ここからは通常のVDPの構成と同じなので省略。f:id:japan-vmware:20171002171755p:plain

 

現時点のVDPをデプロイするには回避策をするしかないとおもいます。

 

証明書が更新されることを祈ります…

 

おわり

ESXi6.xのHost Client でセッションタイムアウトをなくす。

ESXi6.0やESXi6.5で実装されているHost Client はデフォルトでは放置していると自動的に15分でログアウトされます。

検証機で使う場合には、これはなかなか面倒です。

f:id:japan-vmware:20170902004121p:plain

 

タイムアウトしないように設定しようと思います。

 

Host Client にログインして

[管理] - [システム]タブ - [詳細設定] の中にある

[UserVars.HostClientSessionTimeout] をクリックして[オプションの編集]をクリックします。

f:id:japan-vmware:20170902004617p:plain

 

もともと900秒つまり、15分に設定されています。

f:id:japan-vmware:20170902004843p:plain

 

0を入力して、保存をクリックします。

f:id:japan-vmware:20170902005056p:plain

 

あとはHost Client 画面のリロードすれば終わりです。

 

Host Client でできることがいろいろ増えてきて嬉しい限りです。

 

 

仮想マシンがどのvmnicで通信しているかを確認する

こんにちは。

 

仮想スイッチにつながっている仮想マシンがどのvmnicで通信しているかを確認する方法をご紹介します。

 

一般的に運用の中では1つの仮想スイッチ(vSwitch)に複数vmnic(物理NIC)を割り当てているかとおもいます。1つの仮想スイッチにvmnicが2つ割り当てられている例として画面を貼ります。(vmnic0,1)

f:id:japan-vmware:20170829105325p:plain

 

vmnic0 , vmnic1 ともにアクティブなNICとして動作させることが大半かと思います。

 ※今回スイッチ側のLACPなどは構成していません。

f:id:japan-vmware:20170829133238p:plain

 

1つ仮想マシン(Windows7)を作成し、上記の仮想スイッチに接続させます。

f:id:japan-vmware:20170829125611p:plain

 

次にESXiにSSH接続します。(私はTeratermを使っています)

そして、esxtop と入力して Enterキーを押します。

f:id:japan-vmware:20170829125952p:plain

このままだと色んな情報が混在している状態です。

f:id:japan-vmware:20170829130057p:plain

 

キーボードの n キーを押下します。(ネットワークのViewに変更します)

[Windows7] という仮想マシンが、vmnic1 を使用していることがわかります。

f:id:japan-vmware:20170829133453p:plain

 

ためしにこのWindows7という仮想マシンが使用中のvmnic1をLinkDownさせてみます。

f:id:japan-vmware:20170829134351p:plain

 

瞬時に vmnic1 からvmnic0 に切り替わりました。

f:id:japan-vmware:20170829133836p:plain

 

仮想マシンがどのvmnicで通信しているかを確認する状況はあまり意識することがないかもしれないですが、メモとしてご紹介しました。

 

おわり

 

vCenter Server Appliance 6.5(Buuild:4602587) -> 6.5 Update1(Build:5973321) のバージョンアップをする。

いよいよ、VMwareからvCenter Server Appliance が主流になると宣言されたので、

vCenter Server Appliance 6.5 から6.5 Update 1 にバージョンアップしようと思う。

 

現在のvCenter  Server の情報

f:id:japan-vmware:20170828021529p:plain

f:id:japan-vmware:20170828021441p:plain

 

【ISOファイルをダウンロード】

アップデートモジュールがないと話にならないので、MyVMwareからダウンロードします。MyVMwareへのログインが必要です。

URL: https://my.vmware.com/ja/group/vmware/patch#search

f:id:japan-vmware:20170828021939p:plain

 

ダウンロードしたものをデータストアに置きます。

f:id:japan-vmware:20170828022206p:plain

 

データストアに置いた ISOファイルを既に稼働中のvCenter Server Appliance にマウントさせます。

f:id:japan-vmware:20170828022404p:plain

f:id:japan-vmware:20170828022530p:plain

Connected になりました。

f:id:japan-vmware:20170828022627p:plain

 

では次に、vCenter Server Appliance Management 画面にログインします。

ブラウザから <Server IP>:5480 アクセスし、rootユーザーでログインします。

 

f:id:japan-vmware:20170828022753p:plain

 

ログイン後、[更新]をクリックします。

f:id:japan-vmware:20170828023012p:plain

 

右上にある [更新の確認]をクリックし、[CDROM の確認]をクリックします。

インターネット上からアップデートモジュールをダウンロードすることもできますが、

インターネットにつながっているvCenter を使っている人は日本では少ない気がしたので、今回はISO(CDROM)でアップデートします。

f:id:japan-vmware:20170828023203p:plain

 

更新が可能である旨が表示されます。

f:id:japan-vmware:20170828024045p:plain

 

[アップデートのインストール]ボタンをクリックします。

f:id:japan-vmware:20170828024511p:plain

[インス…]をクリックします。

f:id:japan-vmware:20170828024644p:plain

 

アップデートが始まります。

f:id:japan-vmware:20170828035823p:plain

 おおよそ 6分くらいで完了しました。

f:id:japan-vmware:20170828040949p:plain

 

その後、再起動を実施します。

f:id:japan-vmware:20170828041105p:plain

f:id:japan-vmware:20170828041135p:plain

 

無事Buildが5973321になっています。

f:id:japan-vmware:20170828042136p:plain

 

以上で完了です。

 

おわり

 

vSANクラスタの構成情報やログを取得したログバンドルから見てみる。

こんにちは。

 

今回はvSANクラスタの構成情報やログを見てみようの回です。

 

ログバンドルの収集方法については、以前のポストが参考になります。


【環境情報】

 VMware ESXi 6.5.0 GA build-4564106(少し古くてすみません)

 SSD1本のハイブリッド構成

 

取得したログを解凍すると、以下のディレクトリ構造になっています。

# ls
README action.log altbootbank bootbank commands error.log errors-ignored.log etc  json lib64 proc scratch usr var vmfs

f:id:japan-vmware:20170827020935p:plain

 

【vSAN構成を見る】
定番ですが、[commands]ディレクトリに移動します。

構成が書いている txt ファイルは主に以下の3つです。

 ・localcli_vsan-storage-list.txt

 ・localcli_vsan-cluster-get.txt

 ・localcli_vsan-network-list.txt

 

+ localcli_vsan-cluster-get.txtの中身

本当にクラスタの情報だけが載っています。

クラスタにどんなUUIDのメンバがいるか記載されています。

f:id:japan-vmware:20170827024339p:plain

見づらいのでテキストでも貼ります。

============

Cluster Information:
Enabled: true
Current Local Time: 2017-08-26T17:16:47Z
Local Node UUID: 58b45069-ebb0-3412-cf73-00505698bebf
Local Node Type: NORMAL
Local Node State: AGENT
Local Node Health State: HEALTHY
Sub-Cluster Master UUID: 58b4cb67-68a8-8d79-9278-005056988112
Sub-Cluster Backup UUID: 58b4d367-4007-d15e-382a-005056987d57
Sub-Cluster UUID: 52499a56-64ea-7cad-bcef-3e4205108895
Sub-Cluster Membership Entry Revision: 1
Sub-Cluster Member Count: 3
Sub-Cluster Member UUIDs: 58b4d367-4007-d15e-382a-005056987d57, 58b4cb67-68a8-8d79-9278-005056988112, 58b45069-ebb0-3412-cf73-00505698bebf
Sub-Cluster Membership UUID: c68d9e59-a873-81d8-08d6-005056988112

============

 

 

+ localcli_vsan-storage-list.txt の中身

vSANで使用中のローカルディスクの情報が出ます。

どのディスクグループに所属しているのか、も表示されます。

f:id:japan-vmware:20170827023732p:plain

 

+localcli_vsan-network-list.txtの中身

f:id:japan-vmware:20170827024445p:plain

(テキスト)

Interface:
VmkNic Name: vmk1
IP Protocol: IP
Interface UUID: 3049b558-1db6-4c2c-d8cf-00505698bebf
Agent Group Multicast Address: 224.2.3.4
Agent Group IPv6 Multicast Address: ff19::2:3:4
Agent Group Multicast Port: 23451
Master Group Multicast Address: 224.1.2.3
Master Group IPv6 Multicast Address: ff19::1:2:3
Master Group Multicast Port: 12345
Host Unicast Channel Bound Port: 12321
Multicast TTL: 5
Traffic Type: vsan

=============

 

vSANのHealth 状態を見たりする場合は以下の結果も見たりします。

・python_usrlibvmwarevsanbinvsan-health-statuspyc-base_info.txt

・python_usrlibvmwarevsanbinvsan-health-statuspyc-obj_info.txt

・python_usrlibvmwarevsanperfsvcvsan-perfsvc-statuspyc-svc_info.txt

 

大体これらの結果を見ることでvSANで使用しているディスクがどれなのか判別がつきます。

 

【vSANの動きを大まかに見るには】

vSANで何か問題が発生したときvSANの挙動をまずはおおまかに把握する必要があります。このファイルを見るといろいろわかります。

# <vm-support fileName>/var/run/log

 FileName: vsansystem.log

 

例えば、新規にディスクグループを作成したときは、パーティションが作成されたことや、ディスクがフォーマットされる様子、ディスクグループの作成されたことがわかったりします。太字部分がそうです。

==================================■vsansystem.log
2017-08-27T09:43:34.491Z info vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] Checking 5 disks for uniqueness
2017-08-27T09:43:34.491Z info vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] Done checking disk uniqueness: OK
2017-08-27T09:43:34.491Z info vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] Done checking disk types: OK
2017-08-27T09:43:34.491Z warning vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] Get disks from Hostd. Note it should not be called with lock held
2017-08-27T09:43:34.491Z info vsansystem[4E41EFD700] [Originator@6876 sub=SimsHostdStub opId=7d31c144-59-fd98] Retrieve property from Hostd for vim.host.StorageSystem,storageSystem,storageDeviceInfo.
2017-08-27T09:43:34.505Z verbose vsansystem[4E41EFD700] [Originator@6876 sub=SimsHostdStub opId=7d31c144-59-fd98] Done Hostd property: vim.host.StorageSystem,storageSystem,storageDeviceInfo.Result:Not printed
2017-08-27T09:43:34.505Z info vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] Done checking for ineligible disks: OK
2017-08-27T09:43:34.505Z verbose vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] ValidateDiskMapping Complete
2017-08-27T09:43:34.505Z info vsansystem[4E41EFD700] [Originator@6876 sub=VsanPluginMgr opId=7d31c144-59-fd98] Formatting VSAN disks
2017-08-27T09:43:34.533Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanUtil: Successfully promoted node version.
2017-08-27T09:43:34.546Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanSysinfo: Loading module lsom
2017-08-27T09:43:34.547Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanInfoImpl: Creating disk-group with SSD: naa.44948575973cff5803286677d6b0720d
2017-08-27T09:43:34.675Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Device with 512 sector size.
2017-08-27T09:43:34.748Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Created partition for disk naa.44948575973cff5803286677d6b0720d ★(SSD)
2017-08-27T09:43:34.750Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Device with 512 sector size.
2017-08-27T09:43:34.894Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Created partition for disk naa.44948575973cf4ceececb6a756ede276 ★(Disk)
2017-08-27T09:43:34.895Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Device with 512 sector size.
2017-08-27T09:43:35.073Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Created partition for disk naa.48575973cf4c62d9168f994aab126cf0 ★(Disk)
2017-08-27T09:43:35.074Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Device with 512 sector size.
2017-08-27T09:43:35.227Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Created partition for disk naa.48575973cf4cb3d528e913d747423c56 ★(Disk)
2017-08-27T09:43:35.228Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Device with 512 sector size.
2017-08-27T09:43:35.361Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Created partition for disk naa.48575973cf4ccebe576f8704b2ab1e42 ★(Disk)
2017-08-27T09:43:35.362Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Formatting VSAN disk naa.44948575973cff5803286677d6b0720d
2017-08-27T09:43:35.365Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Read VSAN metadata for naa.44948575973cff5803286677d6b0720d
2017-08-27T09:44:27.730Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Formatting VSAN disk naa.44948575973cf4ceececb6a756ede276
2017-08-27T09:44:27.733Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Read VSAN metadata for naa.44948575973cff5803286677d6b0720d
2017-08-27T09:44:27.759Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Formatting VSAN disk naa.48575973cf4c62d9168f994aab126cf0
2017-08-27T09:44:27.787Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Formatting VSAN disk naa.48575973cf4cb3d528e913d747423c56
2017-08-27T09:44:27.812Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanDiskLunImpl: Formatting VSAN disk naa.48575973cf4ccebe576f8704b2ab1e42
2017-08-27T09:44:27.836Z info vsansystem[4E41EFD700] [Originator@6876 sub=Libs opId=7d31c144-59-fd98] VsanInfoImpl: VSAN clustering is enabled

==================================

 

【もっと詳細を調査する場合】

# <vm-support fileName>/var/run/log

・vsanmgmt.log

・vsanvpd.log

 

これらを見ることになります。

 

 

【感想】

vm-supportにはいろんな構成情報やログが含まれていますが、

まだvSANのログは少ない印象です。

 

終わり

 

 

vSphere Web Clientからログ収集を行う。

こんばんは。

 

しばらく体調がいまいちだったので、投稿が滞っていました。

 

今回はvSAN クラスタについて、どのような場所に何が書いているのかをご紹介しようかとおもったのですが、まず、vSphere Web Clientでのログ収集方法をポストしていなかったので、まずはそれから記載することにします… 

 

ログ(vm-support)のとり方はこちらが参考になります。

ただし、vSphere Web Clientの方法ではないです。

 

【vSphere Web Client(Flash)ログ収集】

vSphere Web Clientでは、vCenter アイコンを右クリックすると、

[Export System Logs]が表示されますので、クリックすることで収集できます。

f:id:japan-vmware:20170827012637p:plain

 

収集するホストにチェックを入れます。

f:id:japan-vmware:20170827011847p:plain

 

デフォルトのまま [Finish]ボタンをクリックすると、ログのダウンロードが始まる。

f:id:japan-vmware:20170827012057p:plain

 

非常にかんたんです。

 

次回はvSANのログを少しご紹介したいと思います。