転載・引用について

ユーザ用ツール

サイト用ツール


os:xenserver:tips

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

次のリビジョン
前のリビジョン
次のリビジョン両方とも次のリビジョン
os:xenserver:tips [2015/04/17 15:21] – 外部編集 127.0.0.1os:xenserver:tips [2019/01/04 02:08] – [XCP-ng上でのGuest VMのauto power on] seirios
行 1: 行 1:
 ====== XenServer Tips ====== ====== XenServer Tips ======
  
-**//__ Last Update: 2015/04/17 __//** +===== XCP-ngでlocaldisk処理をする ===== 
-===== XenServer 6.2 以降への Hotfixの適用 ===== +XCP-ng環境において(おそくXenServerもそまま適用できるず)、あるXenServer hostにlocal storage追加する必要れることがある。 
-XenServer 6.2かは、XenCenterでのPatch適用は出来なくなった。 +この時に以下の状況発生して酷い目あうことがあるので、復旧方法のメモを。
-XenCenterからHotFix適用するには、Citrixかライセンスを買う必要がある。 +
-しかしさすがに個人でそんなことをするのは馬鹿げているので、手動でpatch適用する+
  
-Patch適用の方法は、HotFix記載されてるが、ここに一応記載して+  - XenServerでPoolを組んでいる 
 +    * ここでは、Pool masterをXS-M/その他バーとしてXS-Sの2台でPoolを構成していると仮定する 
 +  - Pool masterではないPool構成ServerLocal Diskを追加して、そを認識させる 
 +    * XS-Sに2TのDiskを接続し、Local SRとしVMを設定す。接続されたDisk仮にsdbとして認識されたとする 
 +    * Diskとしてどう認識されたのか、はdmesgなどを利用して確認すると。いくつかの段は後述する 
 +  - 新たに接続したDiskLocal SR(name-label=Local-Add-1)として認識させる 
 +  - VMなどを設置して稼働させる 
 +  - なんらかの理由でXS-Sから追加したLocal-Add-1が消えた 
 +    * 今回は、XCP-ngのUpdate時にうま更新ができず、一度Poolから外してPoolに再度接続したら事象が発生した
  
-  - とにかく HotFix をDownloadする +よう局面で通常通りLocal SR構築まうと、Local-Add-1に記されたVMのDisk Imageなくなっしまい、痛い思いをするとにる。
-  - とにかく XenServer PoolPool MasterにHotFixを転送する +
-    * HotFixを転送する前は、Archive展開、XS62Exxx.xsupdateファイルを転送ておくこ +
-  - pool masterにloginし以下のコマンドを突っ込む +
-    ''xe patch-upload -s localhost -u root -pw <password> file-name=<path_to_update_file>/XSxxExxx.xsupdate'' +
-      * ここで、出力されるUUIDをメモする。 +
-    - このタイミングで、もしXenServer側で認識されるNICをe1000変えているならば、以下を実施 +
-      * (XenServer 6.2まで) chattr -i /usr/lib/xen/bin/qemu-dm +
-      * (XenServer 6.5から) chattr -i /usr/lib64/xen/bin/qemu-dm +
-    - xe -s localhost -u root -pw <password> patch-pool-apply uuid=[上UUID] +
-      * これで patchが適用されるはず +
-    - xe patch-list -s localhost -u root -pw <password> name-label=XSxxExxx +
-      * システムにpatch適用されているか確認。なおname-label省略すると、適用されている全HotFixが表示される +
-    - 必要応じて、xe-toolstack-restartかサーバーの再起動を行う。特に、kernelの置き換えの場合には再起動必須。 +
-      * 再起動すべきかどうかは、after-apply-guidanceを見れば判断できる。 +
-        * restartXAPI → xe-toolstack-restart +
-        * restartHost → 再起動+
  
-各VM移設してから実すること。必要じて、Storage Migration/Pool間Migration活用すること+というわけで、ここでは、 
 +  - Local SRの作り方 
 +  - 切り離されたLocal SRをReAttachする方法 
 +を記述する 
 + 
 +=== Local SRの作り方 === 
 +  * HDDをXS-Sに接続する 
 +    * 近年では、Hot Plugができる筐体とMotherBoardが普及しているので、rebootしいで済む可能性がある 
 +  * ''dmesg'' コマンドや''cat /proc/partitions'' などから新たに接続されたDeviceのdevice name確認する 
 +    * どのDiskが新しいDiskかを判断するのは実は結構難しい。 
 +    * 個人的には、''dmesg''を利用してDevice nameを確認し、''/proc/partition''の当該の#blocksを見て容量から正誤判断することが多い 
 +  * ''ls -l /dev/disk/by-id''の出力を確認し、Symbolic Linkの出力を見ながら、DiskのLabelを確認する。 
 +    * 今回は、''wwn-0xzzzzzzzzzzzzzzzz -> ../../sdb''から、DiskのLabelが''wwn-0xzzzzzzzzzzzzzzzz''であるとする 
 +  * ''xe host-list''行し、XS-Sのhost-UUIDを取得する 
 +    * 今回は、host-uuidが''yyyyyyyy-yyyy-yyyy-yyyy-yyyyyyyyyyyy''であるとする。 
 +  * ''xe sr-create name-label="Local-Add-1" type=lvm device-config:device=/dev/disk/by-id/wwn-0xzzzzzzzzzzzzzzzz host-uuid=yyyyyyyy-yyyy-yyyy-yyyy-yyyyyyyyyyyy'' を実行する 
 +    * この時、追加したsdbはlvmで初期化されてしまうことに注意 
 +    * 通常は問題にならないが、Partitionが分離されている場合、注意すること 
 + 
 +これで、XCP-ng Center(XenCenter)の左側のペイン(Resource Pain)のXS-Sに、Local-Add-1が追加される 
 + 
 +=== (おまけ) 追加したLocal Storageを完全に切り離す方法 === 
 +  * ''xe sr-list name-label="Local-Add-1"'' を実行し、SRのUUIDを取得する 
 +    * SRのUUIDを''xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx''とする 
 +  * ''xe pbd-list sr-uuid=xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx''を実行し、PBDのUUIDを取得する 
 +    * PBDのUUIDを''wwwwwwww-wwww-wwww-wwww-wwwwwwwwwwww''とする 
 +  * ''xe pbd-unplug uuid=wwwwwwww-wwww-wwww-wwww-wwwwwwwwwwww'' を実行し、PBDを切り離す 
 +  * ''xe sr-forget uuid=xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'' を実行し、SRを削除する 
 +  * ''xe pbd-destroy uuid=wwwwwwww-wwww-wwww-wwww-wwwwwwwwwwww'' を実行し、PBDを削除する 
 + 
 +これで、コマンドラインからlocal SRとLocal Diskを切り離せる 
 + 
 +=== 切り離されたLocal SRをReattachする方法 === 
 + 
 +ここで、切り離さ亜れたDiskをLocal SRとして再度認識させる方法を以下記載する 
 + 
 +  - pvdisplayを実行する 
 +    * 対象となる''/dev/sdb''のVG Nameを確認する。このVG Nameが存在しない場合、本件のScope外となるので色々調べてください。 
 +    * ここでは、VG Nameが''VG_XenStorage-xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx''であるとする。 
 +    * つまり、VG Name内に、SR-UUIDが記録されているということである。 
 +  - ''xe sr-introduce uuid=xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx name-label="Local-Add-1" type=lvm''を実行して、SRを作成する 
 +    * この段階で Resource PainにDisk Iconに''×''が付いた状態ではあるが、SRが認識される 
 +  - ''xe pbd-create host-uuid=yyyyyyyy-yyyy-yyyy-yyyy-yyyyyyyyyyyy sr-uuid=xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx device-config:device=/dev/disk/by-id/wwn-0xzzzzzzzzzzzzzzzz'' を実行し、PBDを作成する 
 +    * これで、SRと物理Diskの接続が明確になる 
 +    * PBDのUUIDが表示される。ここでは、''vvvvvvvv-vvvv-vvvv-vvvv-vvvvvvvvvvvv''とする 
 +  - ''xe pbd-list uuid=vvvvvvvv-vvvv-vvvv-vvvv-vvvvvvvvvvvv''を実行し、PBDの状況を確認する 
 +    * これで、Resource PainのXS-Sの所に、''Local-Add-1''が''×''付きのまま移動する 
 +    * currently-attachedが**false**であることに注意。 
 +  - ''xe pbd-plug uuid=vvvvvvvv-vvvv-vvvv-vvvv-vvvvvvvvvvvv''を実行し、PBDを接続する 
 +    * これで、Resource PainのXS-Sの所あった''×''が消える 
 +    * Resource Painから''Local-Add-1''を選択し、Storage Tabを確認すると、DiskのListが表示される 
 +    * あとは、っくり、正しいVMにDiskを接続しいけばよい 
 +  - (おまけ) ''xe vdi-list sr-uuid=xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx''とするとSR内に存在するVDI(Virtual Disk Image)が表示される。 
 +    * Storage Tabで表示される情報が出る。 
 + 
 +===== XCP-ng 7.5から7.5.1へのUpdate ===== 
 +  - 以下のコマンドを実行 
 +    * <code> 
 +yum update -y 
 +</code> 
 +  - Pool Master再起動 
 +  - Poolを構成るMaster以外のServerを再起動 
 + 
 +===== XCP-ng 7.4から7.5へのUpgrade ===== 
 + 
 +  * [[https://xcp-ng.org/2018/08/10/xcp-ng-7-5-upgrade/]] を参照 
 +    * 記事執筆時点で、7.6がRelease Candidateになっており、7.5系は7.5.1になっていることに注意。 
 +    * 手順はおそらく変わらないだろうから、記載しておく。 
 + 
 +  - まず、対象poolのpool masterにsshなどでloginする 
 +  - xsconsoleコマンドを実行する 
 +    - ''Backup, Restore and Update'' を選択する 
 +    - ''Backup Virtual Machine Metadata'' を選択する 
 +    - Root passwordを入力する 
 +    - Backupファイルを設置するSRを選択する。今回は ''local storage'' 
 +    - 数分待つ 
 +    - QUITする 
 +  - 別の手段としてCommandlineから ''xe pool-dump-database filename=[Filename].xml'' を実行 
 +  - 以下のコマンドを実行 
 +    * <code> 
 +wget https://updates.xcp-ng.org/7/xcp-ng-7.5.repo -O /etc/yum.repos.d/xcp-ng.repo 
 +yum clean metadata 
 +yum install xcp-ng-deps 
 +yum update 
 +</code> 
 +  - Pool masterを再起動 
 +  - 以下、Poolに所属している他のServerも同様に更新する 
 +===== XCP-ng上でのGuest VMのauto power on ===== 
 +  - xe pool-list で、pool の uuid をゲット ''xe pool-list'' 
 +  - POOL上の auto startを有効化 ''xe pool-param-set uuid=xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxx other-config:auto_poweron=true'' 
 +  - 有効化したい VM でこれを実行 ''xe vm-param-set uuid=UUID other-config:auto_poweron=true''
  
 ===== FV時にVMに割り当てるNICをe1000にする ===== ===== FV時にVMに割り当てるNICをe1000にする =====
行 178: 行 258:
     * ''ovs-vsctl show''     * ''ovs-vsctl show''
 詳しいことは、これから調査... 詳しいことは、これから調査...
- 
os/xenserver/tips.txt · 最終更新: 2023/10/25 03:06 by seirios

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki