Quantcast
Channel: OSAKANA TAROのメモ帳
Viewing all 1117 articles
Browse latest View live

NetApp ONTAPから他サーバに気軽にsshできる穴がふさがれてしまった

$
0
0

NetApp ONTAP 9.xに長らく存在していた diagアカウントをロックしていても、lsなどのコマンドを実行できる、という技があった。

ontap98::> set diag

Warning: These diagnostic commands are for use by NetApp personnel only.
Do you want to continue? {y|n}: y

ontap98::*> systemshell -node localhost -command ls /
  (system node systemshell)
BUILD                           mroot_late
COMPAT.TXT                      mroot_late.tgz
COPYRIGHT                       netapp_nodar_build_check
INSTALL                         nfsroot
README.TXT                      ontap
VERSION                         ovl
bin                             partner
boot                            platform
cap.xml                         proc
cfcard                          root
clus                            sbin
dev                             sim
etc                             sldiag
fw                              tmp
kmip                            usr
lib                             var
libexec                         varfs.tgz
mnt                             vs_conf_files.tgz
mroot                           webjail
mroot.tgz

ontap98::*>

ONTAP 9.10.1でも使えていたのだが、Active Directory暗号化問題パッチを適用したONTAP 9.10.1P12で試したところ、実行できなくなっていた。

netapp9101::> set diag

Warning: These diagnostic commands are for use by NetApp personnel only.
Do you want to continue? {y|n}: y

netapp9101::*> systemshell -node localhost -command ls /
  (system node systemshell)

Error: command failed: Error: Account currently locked. Contact the storage
       administrator to unlock it.

netapp9101::*>

え!?と調べたら ONTAP 9.12.1リリースのころからのパッチバージョンから使えなくなっていた模様。

diagアカウントがロックされている場合は、systemshellを禁止します

以降のバージョンが対象
9.7P22
9.8P15
9.9.1P13
9.10.1P9
9.11.1P5.
9.12.1.
9.13.0
9.13.1.

ということで、いまのONTAPだとdiag モードのロックを解除しないと実行できなくなっていました。

公式の解除手順 SystemShell diagユーザアカウントのロックを解除する方法

上記手順だと、diagユーザアカウントにパスワードを設定していますが、「systemshell -node localhost -command コマンド」で実行する場合はパスワード設定は必須ではありません。

現在のdiagユーザのロック状況を確認「security login show -username diag」

netapp9101::> security login show -username diag

Vserver: netapp9101
                                                                 Second
User/Group                 Authentication                 Acct   Authentication
Name           Application Method        Role Name        Locked Method
-------------- ----------- ------------- ---------------- ------ --------------
diag           console     password      admin            yes    none

netapp9101::>

「Acct Locked: yes」だとロックされている

「security login unlock -username diag」を実行して、ロック解除する

netapp9101::> security login unlock -username diag

netapp9101::> security login show -username diag

Vserver: netapp9101
                                                                 Second
User/Group                 Authentication                 Acct   Authentication
Name           Application Method        Role Name        Locked Method
-------------- ----------- ------------- ---------------- ------ --------------
diag           console     password      admin            no     none

netapp9101::>

ロック解除したあとであれば従来通り実行できた

netapp9101::> set diag

Warning: These diagnostic commands are for use by NetApp personnel only.
Do you want to continue? {y|n}: y

netapp9101::*> systemshell -node localhost -command ls /
  (system node systemshell)
BUILD                           mroot_late
COMPAT.TXT                      mroot_late.tgz
COPYRIGHT                       netapp_nodar_build_check
INSTALL                         nfsroot
README.TXT                      ontap
VERSION                         ovl
bin                             partner
boot                            platform
cap.xml                         proc
cfcard                          root
clus                            sbin
dev                             sim
etc                             sldiag
fw                              tmp
kmip                            usr
lib                             var
libexec                         varfs.tgz
mnt                             vs_conf_files.tgz
mroot                           webjail
mroot.tgz

netapp9101::*>

なお、ONTAP OSの標準値が変わっていますので、利用が終わったら「security login lock -username diag」を実行してロック状態を戻しておきましょう

netapp9101::*> set admin

netapp9101::> security login lock -username diag

netapp9101::> security login show -username diag

Vserver: netapp9101
                                                                 Second
User/Group                 Authentication                 Acct   Authentication
Name           Application Method        Role Name        Locked Method
-------------- ----------- ------------- ---------------- ------ --------------
diag           console     password      admin            yes    none

netapp9101::>

NEC PC-9801互換機のPROSIDE VS2,AST DualStation, TOMCAT PC-3/Xについて調べた

$
0
0

国立国会図書館に来たついでに、なんか正体がつかめないNEC PC-9801互換機について検索してみた。

各URLは国会図書館内の端末でないと中身が読めないものです。

PROSIDE VS2/P-VS2 について

まず80286搭載の互換機「PROSIDE VS2」を検索ワードとして出てきものから・・・


月刊アスキー (ASCII) 1987年9月号の「日経バイト10月号予告」として「創刊3周年記念 総力特集 互換機時代がはじまる」となっており

「PART 2 互換機はこうしてつくられる」
・チップセットとBIOSをめぐる動き
・クローン実現手法: エプソンPC-286, Proside 286/386など
・デュアルモードマシンの姿: マイクロソフトが提唱する日本語版 PC AT規格、プロサイドのPC AT/PC-9801互換機など
・BIOSエミュレーションの限界:シャープMZ-2861
・アドオンボードで互換性はかるワークステーション

となっている。

しかし、日経バイトは 国立国会図書館では貸し出しを受けないとダメなやつだった・・・

次の 月刊アスキー (ASCII) 1987年10月号 に「EXPRESS 緊急レポート 明らかになったIBM PC/ATコンパチ日本語仕様 松下.FMR互換パソコン」とあったので見てみると、その手前に興味深いものがいくつかあった

まず シャープMZ-2861広告 があり「エミュレーションソフトV2.0上で動作するPC-98UV2アプリケーション」として、一太郎2.1、MIFES-98、RED++、Multiplan、上海など23本が動作確認としてあげられていた

横河ヒューレットパッカードのVectra-D広告 で「日本語モード(日本語MS-DOS 3.1)と英語モード(PC/ATコンパチブル)の相互切り替えが可能」とうたっているものの日本語MS-DOS3.1側ってなんだったのかがよく分からない。次にくるニュースがAXが新登場するものなので、AX以前の独自仕様だと思われるが・・・

で、「ASCII EXPRESS IBM PC/ATコンパチの統一日本語仕様AXが固まる 来春にも各社から発売か」というのが、緊急レポートの内容だった。

で、後段の「松下.FMR互換パソコン」はなんだったのかというと「松下がFMR 50相当/FMR 60相当マシンを販売する」って話だった(あと富士通からは80386搭載のFMR新製品が出ると)

ヘッドラインには「PCEngineが10月下旬から発売され本年度80万台を生産」という話ものっていた


月刊アスキー(ASCII) 1987年11月号」に「プロサイド P-VS2」として貴重なカラー写真が掲載されている。


インターフェース 1987年11月号」のプロサイドの広告で「i80286 386新世代パソコン PROSIDE VS2 IBM-AT PC9801用互換機」が掲載されている。

この広告にはマザーボードの写真が掲載されているが、これがVS2用なのが、汎用PC/AT用なのかは不明


月刊アスキー(ASCII) 1987年12月号」にHORIGO/堀剛コンピューターサービスという業平にある会社の広告として「PROSIDE VS2(P-VS2)」が掲載されている。

次世代機とよぶにふさわしい!! PC-9801互換機IBM/AT PROSIDE VS2

とのこと


AST DualStation 386SX/16

つづいて「ast dualstation」を検索・・・


ASAHIパソコン 1991年1/1,15合併号」の「プロサイドの広告」に

日米の豊富なソフトウェアアプリケーションプログラムが使える AST DualStation 386SX/16

PC98(RS21)/PCAT両互換機

NEC/AT Dual互換機にAX機能をつけると全日本互換機チャンピオン!!

プロサイドはいつも新鮮!!

・ハードディスクをPC-98用、IBM PC/AT用に分けて使用!
・キーボード操作で98もd-お、ATモードに変換!
・VGAピギーパックアダプタ(オプション)を使用するとマルチシンクモニターと1本にケーブルで接続可能
・JEGA日本語AXグラフィックアダプタを入れるとAXとしても使用可能(ATバージョンはEGAで使用可能)
・98バスマウス、AT用シリアルマウス使用可能
・プリンタは98用NEC PC-PR系、NM系、EPSON使用可能
・キーボードは 98用標準装備、101/AXキーボードオプション

という記載があった。


ファクトリ・オートメーション 9(1)(93) には「ASTリサーチ、デュアルモードPC DualStation386 SX/16の販売代理店を発表」という記事があり、スワイヤトランステック、 大倉商事、プロサイドの3社の販売代理店を通じて発売する、ということが記載されている。


インターフェース = Interface : コンピュータ・サイエンス&テクノロジ専門誌 17(1)(164) に「AST DualStation 386 SX/16のカラー広告」、「T-ZONEの販売商品にDualStation」と広告掲載が2つあったうえで「発売のお知らせ」も掲載されている


1991年5月の ASCII 15(3)(165) に3ページのカラー記事として「PC-9801とIBM PCが合体 DualStation 386SX/16」が掲載されている。

これについてはDairy of windというサイトの「昔のPC雑誌を読む 月刊アスキー91/03よりAST DualStation」という記事で3ページあるうちの最初の2ページについては転載されている。

3ページ目にはIBM DOS J4.0/Vの提供が開始されたあとであるため、DOS/V機としても使えるようになってるということも記述されていた。


1991年9月のインターフェース = Interface : コンピュータ・サイエンス&テクノロジ専門誌 17(9)(172) の「プロサイド広告」に

IBM PC/AT互換機で98ソフトを! DOS/V動作可 PC98(RS21) PC/ATダブル互換機 AST Dualstation 386SX/16 特別セール 限定20台! 早い者勝ち

という広告があったのが最後の掲載である模様


TOMCAT PC-3/X

一番謎に包まれているTOMCAT PC-3/X

どうもPROSIDE VS2やAST DualStationで使われてる技術っぽいのが、TOMCATの技術らしい

とりあえず「TOMCAT PC-3/X」で検索

飛行機のTOMCATの中に2つほどあったが、互換回路を作るための技術の方しか記事が見つからなかった・・・


1988年8月 ASCII 12(8)(134) に「トムキャット VSLチップセットを開発」という記事があった。

トムキャットコンピュータは 川崎製鉄と共同で パーソナルコンピュータ互換機用回路「VSL(仮想システム論理)回路」のLSI化を完了し、チップセット「TOMCAT」として発売した。同チップセットは、システム回路3個、ディスプレイ回路3個の合計6個のLSIで構成されており、これを使うことでPC/AT、PC-9800シリーズ、J-3100シリーズと互換性をとることが可能となる。80286/80386の4~20MHzのクロック周波数レンジでの使用が可能。サンプル価格は1セット5万円。


1988年8月 インターフェース = Interface : コンピュータ・サイエンス&テクノロジ専門誌 14(8)(135) に「パソコン互換機用チップセット

パソコン互換機用チップセット
トムキャットコンピュータは川崎製鉄と共同で開発したパソコン互換機用チップセットTOMCATを共同で販売を開始すると発表した。
これはトムキャットが開発した仮想システム論理回路を用いており、パソコンのシステム回路を構成するアドレス、I/O、割込み、DMAなどの配置をプログラマブルにしている。
これにより IBM PC/AT、PC-9801、J-3100などの各社のパソコン(80286/80386搭載のもの)と互換性のあるパソコンを製作することができる。システム回路用3個とディスプレイ用3個の計6個からなる。
【サンプル価格】5万円/セット


ここから下は次の国会図書館訪問で内容を確認するところ
とりあえず検索結果を見ただけの記述


帰ってから思いついたのだが、「トムキャットコンピュータ」で検索すれば他にもあったんだろうか?と試してみたら、いろいろでてきた・・・

1988年4月 ASCII 12(4)(130)
「的な技術提供元であるトムキャットコンピュータ(株)からもPC/3として発売されることがアナウン」という要約が見えるのでなかなか怪しい

1988年7月 Newton = ニュートン : graphic science magazine 8(8)
なんかいろいろ書かれている雰囲気

1989年2月 ASCII 13(2)(140)
「洋MBC-17JF·トムキャットコンピュータPC/3·ソニーPDD-150·プロサイドP-VS2·スーパータブロ」という要約内容からすると、プロサイドの広告っぽい雰囲気が・・・

1990年6月 インターフェース = Interface : コンピュータ・サイエンス&テクノロジ専門誌 16(6)(157)
「X」を,BIOSにはトムキャット·コンピュータ製の「TOMCATBIOS」を採用. OEM で拡販をはかる.(各」という要約が気になる・・・

1998年7月 ASCII 22(7)(253)
「ple) PC/3(トムキャットコンピュータ)の互換を実現したマルチ互換機。換用)と80386(AT互換用)を」という要約があるので、このことだと思うんだけど、なんで1998年の雑誌に??

Oracle Linux 9でWordPressサーバを立てる

$
0
0

Oracle Linux 9でwordpressサーバをたてる、という記事を2022年9月に書き始めたのですが、Oracle Linux 9用のEPELレポジトリにfail2banが含まれていなかっため、sshへの簡単な対策が行えないため書くのを中断していました。

2023年7月25日の更新でfail2banが収録されたようなので、改めて手順を作成してみます

準備1: Oracle Cloud用手順

準備1-1: IPv6アドレス割り当て:Oracle Cloudコンソール側

Oracle Cloudのコンソールを開いて、インスタンスにIPv6アドレスを割り当てます。

また、割り当てられたIPv6アドレスを確認します。

準備1-2: インスタンス側操作

Oracle Linux 9のイメージではIPv6が有効化されていたので、特に設定する必要はありませんでした。

準備2: 一般的な前準備

準備2-1: 日本時間にする

日本に住んでいる場合、日本時間表記の方が使いやすいので、OSも日本時間表示に設定する。

$ sudo timedatectl set-timezone Japan
$ 

準備2-2: パッケージを最新にアップデートする

現時点でインストール済みパッケージを最新にします。

Oracle Linux 8ではyum updateではなくdnf updateとなります。アップデート後は再起動します。(yumコマンドでも動きます)

$ sudo dnf update -y
<略>
$ sudo reboot

手順2-3:日本語Locale対応

ja_JP.UTF-8など日本語Localeで設定した際、「Failed to set locale, defaulting to C.UTF-8」というメッセージが出力される場合があります。

その場合は日本語Localeを追加インストールします。

$ sudo dnf install langpacks-ja glibc-langpack-ja
<略>
$

手順3: EPELレポジトリの追加

EPELレポジトリを使うので、使用できるようにします。

Oracle Linux 8と異なり、Oracle-Linux-9.2-2023.08.31-0 ではOracle CloudのOS管理下にレポジトリ管理が委託されていませんでした。

手順3-1:レポジトリの状態を確認

現状のレポジトリ設定状況を「sudo dnf repolist –all」を実行して確認します。

出力内に「This system is receiving updates from OSMS server.」という文字がなければこの手順で実行できます。

$ sudo dnf repolist --all
repo id                      repo name                                  status
ol9_MODRHCK                  Latest RHCK with fixes from Oracle for Ora disabled
ol9_RDMA                     Oracle Linux 9 (x86_64) RDMA               disabled
ol9_UEKR7                    Oracle Linux 9 UEK Release 7 (x86_64)      enabled
ol9_addons                   Oracle Linux 9 Addons (x86_64)             enabled
ol9_appstream                Oracle Linux 9 Application Stream Packages enabled
ol9_baseos_latest            Oracle Linux 9 BaseOS Latest (x86_64)      enabled
ol9_codeready_builder        Oracle Linux 9 CodeReady Builder (x86_64)  disabled
ol9_developer                Oracle Linux 9 Development Packages (x86_6 disabled
ol9_developer_EPEL           Oracle Linux 9 EPEL Packages for Developme disabled
ol9_developer_UEKR7          Developer Preview of UEK Release 7 (x86_64 disabled
ol9_developer_kvm_utils      Oracle Linux 9 KVM Utilities for Developme disabled
ol9_distro_builder           Oracle Linux 9 Distro Builder (x86_64) - ( disabled
ol9_ksplice                  Ksplice for Oracle Linux 9 (x86_64)        enabled
ol9_kvm_utils                Oracle Linux 9 KVM Utilities (x86_64)      disabled
ol9_oci_included             Oracle Linux 9 OCI Included Packages (x86_ enabled
ol9_u0_baseos_base           Oracle Linux 9 BaseOS GA (x86_64)          disabled
ol9_u1_baseos_base           Oracle Linux 9.1 BaseOS (x86_64)           disabled
ol9_u2_baseos_base           Oracle Linux 9.2 BaseOS (x86_64)           disabled
ol9_x86_64_userspace_ksplice Ksplice aware userspace packages for Oracl disabled
$

有効化するために「sudo dnf config-manager –set-enabled ol9_developer_EPEL」を実行します。

$ sudo dnf config-manager --set-enabled ol9_developer_EPEL
$ sudo dnf repolist --all
repo id                      repo name                                  status
ol9_MODRHCK                  Latest RHCK with fixes from Oracle for Ora disabled
ol9_RDMA                     Oracle Linux 9 (x86_64) RDMA               disabled
ol9_UEKR7                    Oracle Linux 9 UEK Release 7 (x86_64)      enabled
ol9_addons                   Oracle Linux 9 Addons (x86_64)             enabled
ol9_appstream                Oracle Linux 9 Application Stream Packages enabled
ol9_baseos_latest            Oracle Linux 9 BaseOS Latest (x86_64)      enabled
ol9_codeready_builder        Oracle Linux 9 CodeReady Builder (x86_64)  disabled
ol9_developer                Oracle Linux 9 Development Packages (x86_6 disabled
ol9_developer_EPEL           Oracle Linux 9 EPEL Packages for Developme enabled
ol9_developer_UEKR7          Developer Preview of UEK Release 7 (x86_64 disabled
ol9_developer_kvm_utils      Oracle Linux 9 KVM Utilities for Developme disabled
ol9_distro_builder           Oracle Linux 9 Distro Builder (x86_64) - ( disabled
ol9_ksplice                  Ksplice for Oracle Linux 9 (x86_64)        enabled
ol9_kvm_utils                Oracle Linux 9 KVM Utilities (x86_64)      disabled
ol9_oci_included             Oracle Linux 9 OCI Included Packages (x86_ enabled
ol9_u0_baseos_base           Oracle Linux 9 BaseOS GA (x86_64)          disabled
ol9_u1_baseos_base           Oracle Linux 9.1 BaseOS (x86_64)           disabled
ol9_u2_baseos_base           Oracle Linux 9.2 BaseOS (x86_64)           disabled
ol9_x86_64_userspace_ksplice Ksplice aware userspace packages for Oracl disabled
$

手順4: インターネット公開用設定

手順4-1: fail2ban導入

公開サーバは各種のアタックにさらされます。管理用sshポートにもやってきます。

多少なりとも軽減するためにEPELレポジトリ収録のfail2banを使用します。

$ sudo dnf install fail2ban -y
<略>
$

カスタム設定は/etc/fail2ban/jail.local に対して行います。

$ sudo vi /etc/fail2ban/jail.local
$ cat /etc/fail2ban/jail.local
[DEFAULT]
# 86400秒=24時間以内に5回不審なアクセスがあったら24時間BAN
bantime  = 86400
findtime  = 86400
maxretry = 5
# 259200秒=3日以内に5回不審なアクセスがあったら3日間BAN
#bantime  = 259200
#findtime  = 259200
#maxretry = 5

# 除外IP
ignoreip = 127.0.0.1 127.0.0.0/8 10.0.0.0/8 172.16.0.0/12 192.168.0.0/16

[sshd]
enabled = true
banaction = firewallcmd-ipset
$

上記設定では24時間BANにしていますが、まぁ、3日BANでもかまわないとは思います。(本当に間違えた場合に困るのでほどほどにしておくとよい)

fail2banをOS起動時に実行する設定と、今すぐfail2banを起動するコマンドを実行します。

$ sudo systemctl enable fail2ban
$ sudo systemctl start fail2ban
$

以降、アタックがあると /var/log/fail2ban.log にログが出ます。

手順4-2: Webサーバ用ポート公開設定

この段階では、dhcpv6-clientとsshのみが許可されています。

Webサーバ公開用にhttp(ポート80)とhttps(ポート443)を追加します。

$ sudo firewall-cmd --list-all
public (active)
  target: default
  icmp-block-inversion: no
  interfaces: ens3
  sources:
  services: dhcpv6-client ssh
  ports:
  protocols:
  forward: yes
  masquerade: no
  forward-ports:
  source-ports:
  icmp-blocks:
  rich rules:
$
$ sudo firewall-cmd --permanent --add-service=http
success
$ sudo firewall-cmd --permanent --add-service=https
success
$ sudo firewall-cmd --reload
success
$ sudo firewall-cmd --list-all
public (active)
  target: default
  icmp-block-inversion: no
  interfaces: ens3
  sources:
  services: dhcpv6-client http https ssh
  ports:
  protocols:
  forward: yes
  masquerade: no
  forward-ports:
  source-ports:
  icmp-blocks:
  rich rules:
$

手順5: php 7.4追加

Oracle Linux 9環境では、moduleという形で複数バージョンのソフトウェアが提供されている場合があります。

phpに関してどのようなものがあるのかを「dnf module list | grep php」を実行して確認します。

$ dnf module list | grep php
php        8.1    common [d], devel, minimal            PHP scripting language  
$

Oracle Linux 9.2では php 8.1だけが提供されているようなので、phpとだけ指定してインストールします。

$ sudo dnf install php -y
Last metadata expiration check: 0:18:54 ago on Tue 12 Sep 2023 11:13:37 AM JST.
Dependencies resolved.
================================================================================
 Package             Arch    Version                   Repository          Size
================================================================================
Installing:
 php                 x86_64  8.0.27-1.el9_1            ol9_appstream       10 k
Installing dependencies:
 apr                 x86_64  1.7.0-11.el9              ol9_appstream      132 k
 apr-util            x86_64  1.6.1-20.el9_2.1          ol9_appstream       98 k
 apr-util-bdb        x86_64  1.6.1-20.el9_2.1          ol9_appstream       12 k
 httpd-core          x86_64  2.4.53-11.0.1.el9_2.5     ol9_appstream      1.8 M
 httpd-filesystem    noarch  2.4.53-11.0.1.el9_2.5     ol9_appstream       14 k
 httpd-tools         x86_64  2.4.53-11.0.1.el9_2.5     ol9_appstream       96 k
 nginx-filesystem    noarch  1:1.20.1-14.0.1.el9       ol9_appstream       11 k
 oracle-logos-httpd  noarch  90.2-1.0.2.el9            ol9_baseos_latest   37 k
 php-common          x86_64  8.0.27-1.el9_1            ol9_appstream      716 k
Installing weak dependencies:
 apr-util-openssl    x86_64  1.6.1-20.el9_2.1          ol9_appstream       14 k
 httpd               x86_64  2.4.53-11.0.1.el9_2.5     ol9_appstream       67 k
 mod_http2           x86_64  1.15.19-4.el9_2.4         ol9_appstream      157 k
 mod_lua             x86_64  2.4.53-11.0.1.el9_2.5     ol9_appstream       61 k
 php-cli             x86_64  8.0.27-1.el9_1            ol9_appstream      3.1 M
 php-fpm             x86_64  8.0.27-1.el9_1            ol9_appstream      1.6 M
 php-mbstring        x86_64  8.0.27-1.el9_1            ol9_appstream      470 k
 php-opcache         x86_64  8.0.27-1.el9_1            ol9_appstream      512 k
 php-pdo             x86_64  8.0.27-1.el9_1            ol9_appstream       90 k
 php-xml             x86_64  8.0.27-1.el9_1            ol9_appstream      144 k

Transaction Summary
================================================================================
Install  20 Packages
<略>
  php-pdo-8.0.27-1.el9_1.x86_64
  php-xml-8.0.27-1.el9_1.x86_64

Complete!
$

手順6: MySQL設定編

Oralce Linux 9.2ではMySQL 8.0.32 か mariadb 10.5.16が提供されています。

とりあえず、Oracle直営なのでMySQLを使っておきます。

$ sudo dnf install mysql-server -y
Last metadata expiration check: 0:23:36 ago on Tue 12 Sep 2023 11:13:37 AM JST.
Dependencies resolved.
================================================================================
 Package                      Arch     Version            Repository       Size
================================================================================
Installing:
 mysql-server                 x86_64   8.0.32-1.el9_2     ol9_appstream    17 M
Installing dependencies:
 mariadb-connector-c-config   noarch   3.2.6-1.el9_0      ol9_appstream   9.7 k
 mecab                        x86_64   0.996-3.el9.3      ol9_appstream   384 k
 mysql                        x86_64   8.0.32-1.el9_2     ol9_appstream   2.8 M
 mysql-common                 x86_64   8.0.32-1.el9_2     ol9_appstream   103 k
 mysql-errmsg                 x86_64   8.0.32-1.el9_2     ol9_appstream   513 k
 mysql-selinux                noarch   1.0.5-1.el9_0      ol9_appstream    35 k
 protobuf-lite                x86_64   3.14.0-13.el9      ol9_appstream   233 k

Transaction Summary
================================================================================
Install  8 Packages
<略>
Installed:
  mariadb-connector-c-config-3.2.6-1.el9_0.noarch
  mecab-0.996-3.el9.3.x86_64
  mysql-8.0.32-1.el9_2.x86_64
  mysql-common-8.0.32-1.el9_2.x86_64
  mysql-errmsg-8.0.32-1.el9_2.x86_64
  mysql-selinux-1.0.5-1.el9_0.noarch
  mysql-server-8.0.32-1.el9_2.x86_64
  protobuf-lite-3.14.0-13.el9.x86_64

Complete!
$

mysqldを自動起動する設定とします。

$ sudo systemctl enable mysqld
Created symlink /etc/systemd/system/multi-user.target.wants/mysqld.service → /usr/lib/systemd/system/mysqld.service.
$

mysqldを起動します。

$ sudo systemctl start mysqld
$

WordPress用データベースを作成します。

MySQL 8におけるデータベースユーザ作成と権限の割り当てが従来の「grant all on DB名.* to wordpress@localhost identified by ‘パスワード’;」という一文から、「create user ~」と「grant ~」の2つに分かれている点に注意が必要です。

$ sudo mysql -u root
Welcome to the MySQL monitor.  Commands end with ; or \g.
Your MySQL connection id is 8
Server version: 8.0.32 Source distribution

Copyright (c) 2000, 2023, Oracle and/or its affiliates.

Oracle is a registered trademark of Oracle Corporation and/or its
affiliates. Other names may be trademarks of their respective
owners.

Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.

mysql> create database DB名 character set utf8;
Query OK, 1 row affected, 1 warning (0.01 sec)

mysql> create user wordpress@localhost  identified by 'パスワード';
Query OK, 0 rows affected (0.01 sec)

mysql> grant all privileges on DB名.* to wordpress@localhost;
Query OK, 0 rows affected (0.00 sec)

mysql> quit
Bye
$

手順7: Webサーバ設定

手順7-1: httpdインストール

httpdをインストールします。

Oracle Linux 9.2ではWebサーバとして Apache(httpd) 2.4.53 、nginx 1.20.1、nginx 1.22.1が使えるが、apacheを使う。

$ sudo dnf install httpd -y

Last metadata expiration check: 0:05:50 ago on Tue 12 Sep 2023 11:38:07 AM JST.
Package httpd-2.4.53-11.0.1.el9_2.5.x86_64 is already installed.
Dependencies resolved.
Nothing to do.
Complete!
$

って・・・よくみたらphpインストール時にインストール済みでした。

次で設定変更をするので、この段階ではhttpdを起動しません。

OS起動時に自動起動する設定だけを行います。

$ sudo systemctl enable httpd
$

手順7-2: dehydratedによるLet’s Encrypt導入

Let’s EncryptによるSSL証明書導入はcertbotを使うのが一般的ではあるのだが、python環境とあわせてパッケージサイズが大きいので、コンパクトでEPELにも収録されているdehydratedを使用する。

$ sudo dnf install dehydrated -y
Last metadata expiration check: 0:07:19 ago on Tue 12 Sep 2023 11:38:07 AM JST.
Dependencies resolved.
================================================================================
 Package         Arch        Version              Repository               Size
================================================================================
Installing:
 dehydrated      noarch      0.7.1-1.el9          ol9_developer_EPEL      154 k
Installing dependencies:
 s-nail          x86_64      14.9.22-6.el9        ol9_appstream           626 k

Transaction Summary
================================================================================
Install  2 Packages
<略>
Installed:
  dehydrated-0.7.1-1.el9.noarch           s-nail-14.9.22-6.el9.x86_64

Complete!
$

dehydratedによるSSL証明書取得処理には /var/www/dehydrated が使用されるためディレクトリを作成します。

$ sudo mkdir  /var/www/dehydrated
$

http://~/.well-known/acme-challenge でアクセスした時に上記ディレクトリが開くようApacheの設定を /etc/httpd/conf.d/dehydrated.conf として作成します。(sudo vi /etc/httpd/conf.d/dehydrated.conf )

$ sudo vi /etc/httpd/conf.d/dehydrated.conf
$ cat /etc/httpd/conf.d/dehydrated.conf
Alias /.well-known/acme-challenge /var/www/dehydrated
<Directory /var/www/dehydrated/>
</Directory>
$

httpdを起動します

$ sudo systemctl start httpd
$

SSL証明書を発行するホスト名を /etc/dehydrated/domains.txt に記載する。(sudo vi /etc/dehydrated/domains.txt)

1行に複数のホスト名を記載するとaliasになります。

$ sudo vi /etc/dehydrated/domains.txt
$ sudo cat /etc/dehydrated/domains.txt
ホスト1名.ドメイン名 ホスト2名.ドメイン名
$

登録操作を開始します。

$ sudo dehydrated --register
# INFO: Using main config file /etc/dehydrated/config
# INFO: Using additional config file /etc/dehydrated/conf.d/local.sh

To use dehydrated with this certificate authority you have to agree to their terms of service which you can find here: https://letsencrypt.org/documents/LE-SA-v1.3-September-21-2022.pdf

To accept these terms of service run "/bin/dehydrated --register --accept-terms".
$ sudo /bin/dehydrated --register --accept-terms
# INFO: Using main config file /etc/dehydrated/config
# INFO: Using additional config file /etc/dehydrated/conf.d/local.sh
+ Generating account key...
+ Registering account key with ACME server...
+ Fetching account URL...
+ Done!
$

初回のSSL証明書発行処理を実行します。

$ sudo dehydrated --cron
# INFO: Using main config file /etc/dehydrated/config
# INFO: Using additional config file /etc/dehydrated/conf.d/local.sh
 + Creating chain cache directory /etc/dehydrated/chains
Processing ホスト1名.ドメイン名 with alternative names: ホスト2名.ドメイン名
 + Creating new directory /etc/dehydrated/certs/ホスト1名.ドメイン名 ...
 + Signing domains...
 + Generating private key...
 + Generating signing request...
 + Requesting new certificate order from CA...
 + Received 2 authorizations URLs from the CA
 + Handling authorization for ホスト1名.ドメイン名
 + Handling authorization for ホスト2名.ドメイン名
 + 2 pending challenge(s)
 + Deploying challenge tokens...
 + Responding to challenge for ホスト1名.ドメイン名 authorization...
 + Challenge is valid!
 + Responding to challenge for ホスト2名.ドメイン名 authorization...
 + Challenge is valid!
 + Cleaning challenge tokens...
 + Requesting certificate...
 + Checking certificate...
 + Done!
 + Creating fullchain.pem...
 + Done!
 + Running automatic cleanup
$

手順7-3: WebサーバへのSSL証明書設定

まず、httpdにmod_sslを追加します。

$ sudo dnf install mod_ssl -y
Last metadata expiration check: 0:13:55 ago on Tue 12 Sep 2023 11:38:07 AM JST.
Dependencies resolved.
================================================================================
 Package      Arch        Version                      Repository          Size
================================================================================
Installing:
 mod_ssl      x86_64      1:2.4.53-11.0.1.el9_2.5      ol9_appstream      119 k

Transaction Summary
================================================================================
Install  1 Package
<略>
$

標準の /etc/httpd/conf.d/ssl.conf は使わず、Mozilla SSL Configuration Generatorベースの設定を /etc/httpd/conf.d/ssl-mozilla.conf として作成します。(なお、ssl.conf には”Listen 443 https”設定もあるので、そのままにしています)

$ sudo vi /etc/httpd/conf.d/ssl-mozilla.conf
$ cat /etc/httpd/conf.d/ssl-mozilla.conf
# generated 2023-09-12, Mozilla Guideline v5.7, Apache 2.4.53, OpenSSL 3.0.7, intermediate configuration
# https://ssl-config.mozilla.org/#server=apache&version=2.4.53&config=intermediate&openssl=3.0.7&guideline=5.7

# this configuration requires mod_ssl, mod_socache_shmcb, mod_rewrite, and mod_headers
<VirtualHost *:80>
    RewriteEngine On
    RewriteCond %{REQUEST_URI} !^/\.well\-known/acme\-challenge/
    RewriteRule ^(.*)$ https://%{HTTP_HOST}$1 [R=301,L]
</VirtualHost>

<VirtualHost *:443>
    SSLEngine on

    # curl https://ssl-config.mozilla.org/ffdhe2048.txt >> /path/to/signed_cert_and_intermediate_certs_and_dhparams
    SSLCertificateFile      /etc/dehydrated/certs/<ホスト名>/cert.pem
    SSLCertificateKeyFile   /etc/dehydrated/certs/<ホスト名>/privkey.pem

    # enable HTTP/2, if available
    Protocols h2 http/1.1

    # HTTP Strict Transport Security (mod_headers is required) (63072000 seconds)
    Header always set Strict-Transport-Security "max-age=63072000"
</VirtualHost>

# intermediate configuration
SSLProtocol             all -SSLv3 -TLSv1 -TLSv1.1
SSLCipherSuite          ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GCM-SHA384:DHE-RSA-CHACHA20-POLY1305
SSLHonorCipherOrder     off
SSLSessionTickets       off

SSLUseStapling On
SSLStaplingCache "shmcb:logs/ssl_stapling(32768)"
$

httpdを再起動します。

$ sudo systemctl restart httpd
$

手順8: WordPress導入

手順8-1: WordPressの基本インストール

WordPressのWebから最新版をダウンロードして、/var/www/html以下に展開します。
(日本語環境向けのlatest-ja.tar.gzファイルを使っていないのはWordpressプラグインが正常にインストールできるかを確認するためにWP Multibyte Patchを手動インストールする手順を入れているためです)

$ cd /var/www/html
$ ls
$ sudo curl -O https://wordpress.org/latest.tar.gz
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100 22.3M  100 22.3M    0     0  17.6M      0  0:00:01  0:00:01 --:--:-- 17.6M
$ ls
latest.tar.gz
$ sudo tar xfz latest.tar.gz
$ ls -l
total 22904
-rw-r--r--. 1 root   root   23447259 Sep 12 11:57 latest.tar.gz
drwxr-xr-x. 5 nobody nobody     4096 Aug 29 23:14 wordpress
$ sudo rm latest.tar.gz
$

WordPressディレクトリの所有者をWebサービスのユーザである「apache」に変更します。

$ ps -ef|grep http
root       44914       1  0 11:56 ?        00:00:00 /usr/sbin/httpd -DFOREGROUND
apache     44915   44914  0 11:56 ?        00:00:00 /usr/sbin/httpd -DFOREGROUND
apache     44916   44914  0 11:56 ?        00:00:00 /usr/sbin/httpd -DFOREGROUND
apache     44917   44914  0 11:56 ?        00:00:00 /usr/sbin/httpd -DFOREGROUND
apache     44918   44914  0 11:56 ?        00:00:00 /usr/sbin/httpd -DFOREGROUND
opc        45353    7003  0 11:59 pts/0    00:00:00 grep --color=auto http
$ sudo chown -R apache:apache wordpress/
$ ls -l
total 4
drwxr-xr-x. 5 apache apache 4096 Aug 29 23:14 wordpress
$

/var/www/html/wordpress をDocumentRootとするように ssl-mozilla.conf に追加して、httpdを再起動します。

$ sudo vi /etc/httpd/conf.d/ssl-mozilla.conf
$ cat /etc/httpd/conf.d/ssl-mozilla.conf
# generated 2023-09-12, Mozilla Guideline v5.7, Apache 2.4.53, OpenSSL 3.0.7, intermediate configuration
# https://ssl-config.mozilla.org/#server=apache&version=2.4.53&config=intermediate&openssl=3.0.7&guideline=5.7

# this configuration requires mod_ssl, mod_socache_shmcb, mod_rewrite, and mod_headers
<VirtualHost *:80>
    RewriteEngine On
    RewriteCond %{REQUEST_URI} !^/\.well\-known/acme\-challenge/
    RewriteRule ^(.*)$ https://%{HTTP_HOST}$1 [R=301,L]
</VirtualHost>

<VirtualHost *:443>
    DocumentRoot /var/www/html/wordpress
    SSLEngine on

    # curl https://ssl-config.mozilla.org/ffdhe2048.txt >> /path/to/signed_cert_and_intermediate_certs_and_dhparams
    SSLCertificateFile      /etc/dehydrated/certs/<ホスト名>/cert.pem
    SSLCertificateKeyFile   /etc/dehydrated/certs/<ホスト名>/privkey.pem

    # enable HTTP/2, if available
    Protocols h2 http/1.1

    # HTTP Strict Transport Security (mod_headers is required) (63072000 seconds)
    Header always set Strict-Transport-Security "max-age=63072000"
</VirtualHost>

# intermediate configuration
SSLProtocol             all -SSLv3 -TLSv1 -TLSv1.1
SSLCipherSuite          ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GCM-SHA384:DHE-RSA-CHACHA20-POLY1305
SSLHonorCipherOrder     off
SSLSessionTickets       off

SSLUseStapling On
SSLStaplingCache "shmcb:logs/ssl_stapling(32768)"

$
$ sudo systemctl restart httpd
$

手順8-2: 「missing the MySQL extension」がでる場合の手順

いまの状態でブラウザからアクセスすると、下記の表示になります。

これはphpからMySQLにアクセスするためのパッケージがインストールされていないためなので、php-mysqlndを追加して、httpdを再起動します。

$ sudo dnf install php-mysqlnd -y
Last metadata expiration check: 0:25:26 ago on Tue 12 Sep 2023 11:38:07 AM JST.
Dependencies resolved.
================================================================================
 Package           Architecture Version               Repository           Size
================================================================================
Installing:
 php-mysqlnd       x86_64       8.0.27-1.el9_1        ol9_appstream       157 k

Transaction Summary
================================================================================
Install  1 Package
<略>
$ sudo systemctl restart httpd
$

WordPressの設定手順を進めると wp-config.php に書き込めない、と出ますので、「sudo vi /var/www/html/wordpress/wp-config.php」を実行し、指定された内容を記載します。

手順9: SELinux設定

手順9-1: httpdのネットワーク接続問題

一見するとここまででうまく動いているように見えます。

しかし、プラグインをインストールしようとするとエラーになります。

/var/log/audit/audit.logを確認すると下記のようなログが出ています。

type=AVC msg=audit(1622095859.957:2064): avc:  denied  { name_connect } for  pid=8908 comm="php-fpm" dest=443 scontext=system_u:system_r:httpd_t:s0 tcontext=system_u:object_r:http_port_t:s0 tclass=tcp_socket permissive=0
type=AVC msg=audit(1622095868.397:2065): avc:  denied  { name_connect } for  pid=8313 comm="php-fpm" dest=443 scontext=system_u:system_r:httpd_t:s0 tcontext=system_u:object_r:http_port_t:s0 tclass=tcp_socket permissive=0
type=AVC msg=audit(1622095868.401:2066): avc:  denied  { name_connect } for  pid=8313 comm="php-fpm" dest=80 scontext=system_u:system_r:httpd_t:s0 tcontext=system_u:object_r:http_port_t:s0 tclass=tcp_socket permissive=0

これはhttpd_can_network_connect という値で制御されている

現在の設定値を「sudo getsebool -a |grep httpd_can_network」で確認し、「sudo setsebool -P httpd_can_network_connect on」で有効にする

$ sudo getsebool -a |grep httpd_can_network
httpd_can_network_connect --> off
httpd_can_network_connect_cobbler --> off
httpd_can_network_connect_db --> off
httpd_can_network_memcache --> off
httpd_can_network_relay --> off
$ sudo setsebool -P httpd_can_network_connect on
$ sudo getsebool -a |grep httpd_can_network
httpd_can_network_connect --> on
httpd_can_network_connect_cobbler --> off
httpd_can_network_connect_db --> off
httpd_can_network_memcache --> off
httpd_can_network_relay --> off
$

この変更ではhttpdの再起動は不要。

手順9-2:Wordpressプラグイン追加の動作確認

WordPressプラグインがインストールできる状態になっているかを確認するために「WP Multibyte Patch」をインストールします。

これをインストールするとWordpressの設定画面([Settings]-[General])に「Site language(サイトの言語)」が追加され、「日本語」表示に切り替えることができるようになります。

手順10: WordPressで取り扱えるファイルサイズの拡大

WordPressで取り扱えるファイルは標準状態だと2MBになっている。

WordPressのドキュメントのFile Upload Sizes を見ると、これはphpの設定ファイル /etc/php.ini による制限となっている。

Oracle Linux 9の標準設定では下記の値となっている。

<略>
post_max_size = 8M
<略>
upload_max_filesize = 2M
<略>

で・・・よくある手順だと軽率に /etc/php.ini を書き換えていますが、 /etc/php.d/ 以下にファイルを追加することで、そちらの設定項目を優先させることができる機能があるため、 /etc/php.d/90-wordpress.ini に変更したい2行だけを記載したファイルを作成します。

$ sudo vi /etc/php.d/90-wordpress.ini
$ cat /etc/php.d/90-wordpress.ini
post_max_size = 100M
upload_max_filesize = 100M
$

phpの設定変更を反映させるために「sudo systemctl restart php-fpm」を実行します。

$ sudo systemctl restart php-fpm
$

手順11: WordPressのSite Health Status対応

WordPressのサイトステータスを見てみると、いくつかパッケージを要求されている。

上から順に調査

Oracle Linux 8ではimagemagickのphpモジュールはなかったが、Oracle Linux 9だとあったので「sudo dnf install php-pecl-imagick」でインストール

$ sudo dnf install php-pecl-imagick
Last metadata expiration check: 1:22:23 ago on Tue 12 Sep 2023 11:38:07 AM JST.
Dependencies resolved.
================================================================================
 Package                        Arch   Version         Repository          Size
================================================================================
Installing:
 php-pecl-imagick               x86_64 3.7.0-1.el9     ol9_developer_EPEL 149 k
Installing dependencies:
 ImageMagick-libs               x86_64 6.9.12.93-1.el9 ol9_developer_EPEL 2.6 M
 LibRaw                         x86_64 0.20.2-5.el9    ol9_appstream      382 k
 ModemManager-glib              x86_64 1.20.2-1.el9    ol9_baseos_latest  334 k
 adobe-mappings-cmap            noarch 20171205-12.el9 ol9_appstream      2.0 M
 adobe-mappings-cmap-deprecated noarch 20171205-12.el9 ol9_appstream      129 k
 adobe-mappings-pdf             noarch 20180407-10.el9 ol9_appstream      686 k
 adwaita-cursor-theme           noarch 40.1.1-3.el9    ol9_appstream      686 k
 adwaita-icon-theme             noarch 40.1.1-3.el9    ol9_appstream       16 M
 alsa-lib                       x86_64 1.2.8-3.el9     ol9_appstream      586 k
 at-spi2-atk                    x86_64 2.38.0-4.el9    ol9_appstream       92 k
 at-spi2-core                   x86_64 2.40.3-1.el9    ol9_appstream      262 k
 atk                            x86_64 2.36.0-5.el9    ol9_appstream      378 k
 avahi-glib                     x86_64 0.8-12.el9_2.1  ol9_appstream       13 k
 bluez-libs                     x86_64 5.64-2.el9      ol9_baseos_latest   83 k
 bubblewrap                     x86_64 0.4.1-6.el9     ol9_baseos_latest   50 k
 colord-libs                    x86_64 1.4.5-4.el9     ol9_appstream      235 k
 cups-libs                      x86_64 1:2.3.3op2-16.el9_2.1
                                                       ol9_baseos_latest  264 k
 exempi                         x86_64 2.6.0-0.2.20211007gite23c213.el9
                                                       ol9_appstream      531 k
 exiv2-libs                     x86_64 0.27.5-2.el9    ol9_appstream      780 k
 fdk-aac-free                   x86_64 2.0.0-8.el9     ol9_appstream      325 k
 flac-libs                      x86_64 1.3.3-10.el9    ol9_appstream      226 k
 flatpak-selinux                noarch 1.12.7-2.el9    ol9_appstream       22 k
 flatpak-session-helper         x86_64 1.12.7-2.el9    ol9_appstream       80 k
 fuse                           x86_64 2.9.9-15.el9    ol9_baseos_latest   91 k
 gd                             x86_64 2.3.2-3.el9     ol9_appstream      132 k
 gdk-pixbuf2-modules            x86_64 2.42.6-3.el9    ol9_appstream       96 k
 geoclue2                       x86_64 2.6.0-7.el9     ol9_appstream      136 k
 giflib                         x86_64 5.2.1-9.el9     ol9_appstream       53 k
 google-droid-sans-fonts        noarch 20200215-11.el9.2
                                                       ol9_appstream      2.7 M
 graphene                       x86_64 1.10.6-2.el9    ol9_appstream       64 k
 graphviz                       x86_64 2.44.0-25.el9   ol9_appstream      3.4 M
 gsm                            x86_64 1.0.19-6.el9    ol9_appstream       39 k
 gstreamer1                     x86_64 1.18.4-4.el9    ol9_appstream      1.5 M
 gstreamer1-plugins-base        x86_64 1.18.4-5.el9    ol9_appstream      2.1 M
 gtk-update-icon-cache          x86_64 3.24.31-2.el9   ol9_appstream       34 k
 gtk2                           x86_64 2.24.33-8.el9   ol9_appstream      3.6 M
 gtk3                           x86_64 3.24.31-2.el9   ol9_appstream      5.0 M
 hicolor-icon-theme             noarch 0.17-13.el9     ol9_appstream       70 k
 imath                          x86_64 3.1.2-1.el9     ol9_appstream      102 k
 iso-codes                      noarch 4.6.0-3.el9     ol9_appstream      4.0 M
 jasper-libs                    x86_64 2.0.28-3.el9    ol9_appstream      151 k
 jbig2dec-libs                  x86_64 0.19-7.el9      ol9_appstream       77 k
 jbigkit-libs                   x86_64 2.1-23.el9      ol9_appstream       58 k
 lcms2                          x86_64 2.12-3.el9      ol9_appstream      167 k
 libICE                         x86_64 1.0.10-8.el9    ol9_appstream       71 k
 libSM                          x86_64 1.2.3-10.el9    ol9_appstream       42 k
 libX11-xcb                     x86_64 1.7.0-7.el9     ol9_appstream       12 k
 libXaw                         x86_64 1.0.13-19.el9   ol9_appstream      198 k
 libXcomposite                  x86_64 0.4.5-7.el9     ol9_appstream       29 k
 libXcursor                     x86_64 1.2.0-7.el9     ol9_appstream       35 k
 libXdamage                     x86_64 1.1.5-7.el9     ol9_appstream       27 k
 libXfixes                      x86_64 5.0.3-16.el9    ol9_appstream       20 k
 libXi                          x86_64 1.7.10-8.el9    ol9_appstream       40 k
 libXinerama                    x86_64 1.1.4-10.el9    ol9_appstream       15 k
 libXmu                         x86_64 1.1.3-8.el9     ol9_appstream       79 k
 libXpm                         x86_64 3.5.13-8.el9_1  ol9_appstream       62 k
 libXrandr                      x86_64 1.5.2-8.el9     ol9_appstream       28 k
 libXt                          x86_64 1.2.0-6.el9     ol9_appstream      180 k
 libXtst                        x86_64 1.2.3-16.el9    ol9_appstream       21 k
 libXv                          x86_64 1.0.11-16.el9   ol9_appstream       19 k
 libXxf86vm                     x86_64 1.1.4-18.el9    ol9_appstream       19 k
 libasyncns                     x86_64 0.8-22.el9      ol9_appstream       30 k
 libcanberra                    x86_64 0.30-26.el9     ol9_appstream      100 k
 libcanberra-gtk3               x86_64 0.30-26.el9     ol9_appstream       39 k
 libdrm                         x86_64 2.4.114-1.el9   ol9_appstream      165 k
 libepoxy                       x86_64 1.5.5-4.el9     ol9_appstream      246 k
 libexif                        x86_64 0.6.22-6.el9    ol9_appstream      462 k
 libfontenc                     x86_64 1.1.3-17.el9    ol9_appstream       31 k
 libgexiv2                      x86_64 0.12.3-1.el9    ol9_appstream       88 k
 libglvnd                       x86_64 1:1.3.4-1.el9   ol9_appstream      134 k
 libglvnd-egl                   x86_64 1:1.3.4-1.el9   ol9_appstream       35 k
 libglvnd-glx                   x86_64 1:1.3.4-1.el9   ol9_appstream      141 k
 libgs                          x86_64 9.54.0-9.el9    ol9_appstream      3.4 M
 libgsf                         x86_64 1.14.47-5.el9   ol9_appstream      302 k
 libgxps                        x86_64 0.3.2-3.el9     ol9_appstream       86 k
 libijs                         x86_64 0.35-15.el9     ol9_appstream       30 k
 libiptcdata                    x86_64 1.0.5-9.el9     ol9_appstream       73 k
 libldac                        x86_64 2.0.2.3-10.el9  ol9_appstream       41 k
 liblqr-1                       x86_64 0.4.2-19.el9    ol9_developer_EPEL  53 k
 libnotify                      x86_64 0.7.9-8.el9     ol9_appstream       50 k
 libogg                         x86_64 2:1.3.4-6.el9   ol9_appstream       38 k
 libosinfo                      x86_64 1.10.0-1.el9    ol9_appstream      345 k
 libpaper                       x86_64 1.1.28-4.el9    ol9_appstream       67 k
 libpciaccess                   x86_64 0.16-6.el9      ol9_baseos_latest   28 k
 libraqm                        x86_64 0.8.0-1.el9     ol9_developer_EPEL  19 k
 libsbc                         x86_64 1.4-9.el9       ol9_appstream       45 k
 libsndfile                     x86_64 1.0.31-7.el9    ol9_appstream      212 k
 libtheora                      x86_64 1:1.1.1-31.el9  ol9_appstream      168 k
 libtiff                        x86_64 4.4.0-8.el9_2   ol9_appstream      202 k
 libtool-ltdl                   x86_64 2.4.6-45.el9    ol9_appstream       36 k
 libtracker-sparql              x86_64 3.1.2-3.el9_1   ol9_appstream      354 k
 libvisual                      x86_64 1:0.4.0-34.el9  ol9_appstream      152 k
 libvorbis                      x86_64 1:1.3.7-5.el9   ol9_appstream      198 k
 libwayland-client              x86_64 1.21.0-1.el9    ol9_appstream       32 k
 libwayland-cursor              x86_64 1.21.0-1.el9    ol9_appstream       18 k
 libwayland-egl                 x86_64 1.21.0-1.el9    ol9_appstream       12 k
 libwayland-server              x86_64 1.21.0-1.el9    ol9_appstream       41 k
 libwebp                        x86_64 1.2.0-6.el9_1   ol9_appstream      284 k
 libwmf-lite                    x86_64 0.2.12-10.el9   ol9_appstream       77 k
 libxkbcommon                   x86_64 1.0.3-4.el9     ol9_appstream      133 k
 libxshmfence                   x86_64 1.3-10.el9      ol9_appstream       13 k
 low-memory-monitor             x86_64 2.1-4.el9       ol9_appstream       42 k
 mesa-libEGL                    x86_64 22.3.0-2.el9    ol9_appstream      123 k
 mesa-libGL                     x86_64 22.3.0-2.el9    ol9_appstream      168 k
 mesa-libgbm                    x86_64 22.3.0-2.el9    ol9_appstream       37 k
 mesa-libglapi                  x86_64 22.3.0-2.el9    ol9_appstream       49 k
 mesa-vulkan-drivers            x86_64 22.3.0-2.el9    ol9_appstream      7.4 M
 mkfontscale                    x86_64 1.2.1-3.el9     ol9_appstream       37 k
 openexr-libs                   x86_64 3.1.1-2.el9     ol9_appstream      1.1 M
 openjpeg2                      x86_64 2.4.0-7.el9     ol9_appstream      170 k
 opus                           x86_64 1.3.1-10.el9    ol9_appstream      200 k
 orc                            x86_64 0.4.31-6.el9    ol9_appstream      188 k
 osinfo-db                      noarch 20221130-1.0.2.el9
                                                       ol9_appstream      1.2 M
 osinfo-db-tools                x86_64 1.10.0-1.el9    ol9_appstream       96 k
 ostree-libs                    x86_64 2023.1-6.el9_2  ol9_appstream      441 k
 pipewire-libs                  x86_64 0.3.47-3.el9_2  ol9_appstream      1.7 M
 poppler                        x86_64 21.01.0-14.el9  ol9_appstream      1.1 M
 poppler-data                   noarch 0.4.9-9.el9     ol9_appstream      2.1 M
 poppler-glib                   x86_64 21.01.0-14.el9  ol9_appstream      152 k
 pulseaudio-libs                x86_64 15.0-2.el9      ol9_appstream      726 k
 pulseaudio-utils               x86_64 15.0-2.el9      ol9_appstream       82 k
 rtkit                          x86_64 0.11-28.el9     ol9_appstream       69 k
 sound-theme-freedesktop        noarch 0.8-17.el9      ol9_appstream      407 k
 totem-pl-parser                x86_64 3.26.6-2.el9    ol9_appstream      238 k
 tracker                        x86_64 3.1.2-3.el9_1   ol9_appstream      616 k
 upower                         x86_64 0.99.13-2.el9   ol9_appstream      188 k
 urw-base35-bookman-fonts       noarch 20200910-6.el9  ol9_appstream      861 k
 urw-base35-c059-fonts          noarch 20200910-6.el9  ol9_appstream      888 k
 urw-base35-d050000l-fonts      noarch 20200910-6.el9  ol9_appstream       81 k
 urw-base35-fonts               noarch 20200910-6.el9  ol9_appstream       11 k
 urw-base35-fonts-common        noarch 20200910-6.el9  ol9_appstream       22 k
 urw-base35-gothic-fonts        noarch 20200910-6.el9  ol9_appstream      657 k
 urw-base35-nimbus-mono-ps-fonts
                                noarch 20200910-6.el9  ol9_appstream      810 k
 urw-base35-nimbus-roman-fonts  noarch 20200910-6.el9  ol9_appstream      870 k
 urw-base35-nimbus-sans-fonts   noarch 20200910-6.el9  ol9_appstream      1.3 M
 urw-base35-p052-fonts          noarch 20200910-6.el9  ol9_appstream      987 k
 urw-base35-standard-symbols-ps-fonts
                                noarch 20200910-6.el9  ol9_appstream       42 k
 urw-base35-z003-fonts          noarch 20200910-6.el9  ol9_appstream      281 k
 vulkan-loader                  x86_64 1.3.239.0-1.el9 ol9_appstream      143 k
 webrtc-audio-processing        x86_64 0.3.1-8.el9     ol9_appstream      310 k
 wireplumber                    x86_64 0.4.8-1.0.1.el9 ol9_appstream      123 k
 wireplumber-libs               x86_64 0.4.8-1.0.1.el9 ol9_appstream      335 k
 xdg-dbus-proxy                 x86_64 0.1.3-1.el9     ol9_appstream       41 k
 xdg-desktop-portal             x86_64 1.12.4-1.el9    ol9_appstream      453 k
 xkeyboard-config               noarch 2.33-2.el9      ol9_appstream      1.1 M
 xorg-x11-fonts-ISO8859-1-100dpi
                                noarch 7.5-33.el9      ol9_appstream      1.2 M
Installing weak dependencies:
 dconf                          x86_64 0.40.0-6.el9    ol9_appstream      121 k
 exiv2                          x86_64 0.27.5-2.el9    ol9_appstream      1.0 M
 flatpak                        x86_64 1.12.7-2.el9    ol9_appstream      1.8 M
 libcanberra-gtk2               x86_64 0.30-26.el9     ol9_appstream       26 k
 p11-kit-server                 x86_64 0.24.1-2.el9    ol9_appstream      202 k
 pipewire                       x86_64 0.3.47-3.el9_2  ol9_appstream       49 k
 pipewire-alsa                  x86_64 0.3.47-3.el9_2  ol9_appstream       59 k
 pipewire-jack-audio-connection-kit
                                x86_64 0.3.47-3.el9_2  ol9_appstream      133 k
 pipewire-pulseaudio            x86_64 0.3.47-3.el9_2  ol9_appstream       24 k
 tracker-miners                 x86_64 3.1.2-3.el9     ol9_appstream      1.0 M
 xdg-desktop-portal-gtk         x86_64 1.12.0-3.el9    ol9_appstream      162 k

Transaction Summary
================================================================================
Install  158 Packages
<略>
$

インストール後にサイトヘルスステータスを確認するとgdも消えている

続いて「sudo dnf install php-pecl-zip php-intl」をインストール

$ sudo dnf install php-pecl-zip php-intl
Last metadata expiration check: 1:28:15 ago on Tue 12 Sep 2023 11:38:07 AM JST.
Dependencies resolved.
================================================================================
 Package            Architecture Version              Repository           Size
================================================================================
Installing:
 php-intl           x86_64       8.0.27-1.el9_1       ol9_appstream       150 k
 php-pecl-zip       x86_64       1.19.2-6.el9         ol9_appstream        78 k
Installing dependencies:
 libzip             x86_64       1.7.3-7.el9          ol9_appstream        63 k

Transaction Summary
================================================================================
Install  3 Packages
<略>
$

これで、サイトヘルスステータスのパッケージ関連のメッセージは消えた。

手順12: WordPressの.htaccess有効化

/var/www/html/wordpress/.htaccess が作成されているが、Oracle Linux 8のhttpd標準設定ではこれを読み込むようにはなっていない。

これが有効になっていないと、パーマリンク設定を「基本」から変えた場合に個別記事にアクセスできなくなる。

/etc/httpd/conf.d/wordpress.conf にファイルを作って設定する。

$ sudo vi /etc/httpd/conf.d/wordpress.conf
$ cat /etc/httpd/conf.d/wordpress.conf
<Directory /var/www/html/wordpress/>
 Allowoverride All
</Directory>
$ sudo systemctl restart httpd
$

手順13: OS自動更新の設定

メンテナンスがめんどくさくなって忘れる可能性があるので、Oracle Linux 8の自動更新設定を実施。

以前はyum-cronでしたが、現在は dnf-automatic に変わったので、パッケージをインストールします。

$ sudo dnf install dnf-automatic -y
Last metadata expiration check: 1:30:59 ago on Tue 12 Sep 2023 11:38:07 AM JST.
Dependencies resolved.
================================================================================
 Package          Arch      Version                  Repository            Size
================================================================================
Installing:
 dnf-automatic    noarch    4.14.0-5.0.1.el9_2       ol9_baseos_latest     53 k

Transaction Summary
================================================================================
Install  1 Package
<略>
$

/etc/dnf/automatic.conf 内の「apply_updates = no」を「apply_updates = yes」に変更

$ sudo vi /etc/dnf/automatic.conf
$ cat /etc/dnf/automatic.conf
[commands]
#  What kind of upgrade to perform:
# default                            = all available upgrades
# security                           = only the security upgrades
upgrade_type = default
random_sleep = 0

# Maximum time in seconds to wait until the system is on-line and able to
# connect to remote repositories.
network_online_timeout = 60

# To just receive updates use dnf-automatic-notifyonly.timer

# Whether updates should be downloaded when they are available, by
# dnf-automatic.timer. notifyonly.timer, download.timer and
# install.timer override this setting.
download_updates = yes

# Whether updates should be applied when they are available, by
# dnf-automatic.timer. notifyonly.timer, download.timer and
# install.timer override this setting.
apply_updates = yes


[emitters]
# Name to use for this system in messages that are emitted.  Default is the
# hostname.
# system_name = my-host

# How to send messages.  Valid options are stdio, email and motd.  If
# emit_via includes stdio, messages will be sent to stdout; this is useful
# to have cron send the messages.  If emit_via includes email, this
# program will send email itself according to the configured options.
# If emit_via includes motd, /etc/motd file will have the messages. if
# emit_via includes command_email, then messages will be send via a shell
# command compatible with sendmail.
# Default is email,stdio.
# If emit_via is None or left blank, no messages will be sent.
emit_via = stdio


[email]
# The address to send email messages from.
email_from = root@example.com

# List of addresses to send messages to.
email_to = root

# Name of the host to connect to to send email messages.
email_host = localhost


[command]
# The shell command to execute. This is a Python format string, as used in
# str.format(). The format function will pass a shell-quoted argument called
# `body`.
# command_format = "cat"

# The contents of stdin to pass to the command. It is a format string with the
# same arguments as `command_format`.
# stdin_format = "{body}"


[command_email]
# The shell command to use to send email. This is a Python format string,
# as used in str.format(). The format function will pass shell-quoted arguments
# called body, subject, email_from, email_to.
# command_format = "mail -Ssendwait -s {subject} -r {email_from} {email_to}"

# The contents of stdin to pass to the command. It is a format string with the
# same arguments as `command_format`.
# stdin_format = "{body}"

# The address to send email messages from.
email_from = root@example.com

# List of addresses to send messages to.
email_to = root


[base]
# This section overrides dnf.conf

# Use this to filter DNF core messages
debuglevel = 1
$

そしてdnf-automatic.timerを有効化し、開始します。

$ sudo systemctl enable dnf-automatic.timer
Created symlink /etc/systemd/system/timers.target.wants/dnf-automatic.timer → /usr/lib/systemd/system/dnf-automatic.timer.
$ sudo systemctl status dnf-automatic
○ dnf-automatic.service - dnf automatic
     Loaded: loaded (/usr/lib/systemd/system/dnf-automatic.service; static)
     Active: inactive (dead)
TriggeredBy: ○ dnf-automatic.timer
$ sudo systemctl start dnf-automatic.timer
$ sudo systemctl status dnf-automatic.timer
● dnf-automatic.timer - dnf-automatic timer
     Loaded: loaded (/usr/lib/systemd/system/dnf-automatic.timer; enabled; pres>
     Active: active (waiting) since Tue 2023-09-12 13:11:00 JST; 5s ago
      Until: Tue 2023-09-12 13:11:00 JST; 5s ago
    Trigger: Wed 2023-09-13 06:44:33 JST; 17h left
   Triggers: ● dnf-automatic.service

Sep 12 13:11:00 ホスト名 systemd[1]: Started dnf-automatic timer.
$

Windows Updateしたらsamba ADへの接続がおかしくなった

$
0
0

sambaで作ったsamba AD環境がある。

最近、新しい仮想マシン作ってドメイン参加したあと、PowerShellで「Test-ComputerSecureChannel」を実行したら「False」と出た。

repairしても状況が変わらない

いまつかっているsambaバージョンを確認すると4.18.2

# /usr/local/samba/sbin/smbd --version
Version 4.18.2
#

sambaのリリース履歴を見るとNetAppでも問題になったセキュリティ修正関連での修正が出ている。

CVE-2023-34967CVE-2022-2127CVE-2023-34968CVE-2023-34966 and CVE-2023-3347.

というわけで、samba 4.18.5へアップデート

展開して、make;make install; systemctl restart samba-ad-dc っと

# /usr/local/samba/sbin/smbd --version
Version 4.18.5
#

で、repairすると、今度は成功しました

Windows Server 2012R2に .Net framework 3.5が追加できない場合の解決方法

$
0
0

実験するためWindows Server 2012R2を新規インストールして、まずはWindows Updateを全部適用してから、いろいろ設定していこう!と行ってみたところ思わぬところで問題が発生した。

Windows Updateが一通り終わったあとで、今回の実験対象のソフトウェアは.NET Framework 3.5が必要だな、と追加しようとしたらエラーとなった。

「代替ソースパスを指定」からDVD内のsources\sxs\を指定

で、エラー

このとき、イベントログのWindowsログの「Setup」に「パッケージ Microsoft .NET Framework 3.0の更新 NetFx3 を有効にできませんでした。 状態 0x800f0906。」と出ている

「0x800f0906」で調べると「.NET Framework 3.5 の展開エラーと解決手順」が出てくるが、コレではなかった。

[MS14-046] Windows 8.1 および Windows Server 2012 R2 用の .NET Framework 3.5 のセキュリティ更新プログラムについて (2014 年 8 月 12 日)」に以下の記載がある

Microsoft .NET Framework 3.5 用のセキュリティ更新プログラム 2966828 (マイクロソフト セキュリティ情報 MS14-046 に記載されています) をインストールした後、[Windows の機能] で Microsoft .NET Framework 3.5 のオプションの機能を初めて有効にしようとしたときに、機能がインストールされないことがあります。Microsoft .NET Framework 3.5 の機能を追加する前にインストールを “段階的に実行” した場合にこのエラーが発生することがあります。
この問題を解決するには、更新プログラム 3005628 をインストールします。
この問題を回避する方法の詳細については、以下のサポート技術情報番号をクリックしてください。
3002547Windows 8、Windows Server 2012、Windows 8.1、または Windows Server 2012 R2 でセキュリティ更新プログラム 2966827 または 2966828 をインストールした後に Microsoft .NET Framework 3.5 のオプションの Windows 機能を有効化できないことがある

更新プログラム 3005628「Windows 8、Windows 8.1、Windows Server 2012、および Windows Server 2012 R2 上の .NET Framework 3.5 の更新プログラム」の説明を読むと、原因としては、.NET Framework 3.5がインストールされていないのに、.NET Framework 3.5に関する更新プログラムがインストールされていることが原因である模様。

しかし、2023年9月現在では更新プログラム3005628 を適用してみたが効力はなかった。

更新履歴をみると「.NET Framework 3.5, 4.6.1, 4.7, 4.7.1, 4.7.2, 4.8 のセキュリティおよび品質ロールアップ」がある。

しかし、インストールされた更新プログラムを確認すると、.NET Framework関連のパッチがないのでインストールできないように見える。

ただ、調べたところwusaコマンドを使うとアンインストールできそうな感じだったので「wusa /uninstall /kb:5030184」でアンインストールを試みたが「インストールされていない」と表示される。

2023 年 9 月 12 日 – Windows Server 2012 R2 用 .NET Framework 3.5、4.6.2、4.7、4.7.1、4.7.2、4.8 のセキュリティおよび品質ロールアップ (KB5030184)」を確認すると、実はこの更新プログラム「Windows Server 2012 R2 用 .NET Framework 3.5 のセキュリティおよび品質ロールアップについて (KB5029915)」「Windows Server 2012 R2 用 .NET Framework 4.6.2、4.7、4.7.1、4.7.2 のセキュリティおよび品質ロールアップについて (KB5029916)」「Windows Server 2012 R2 用 .NET Framework 4.8 のセキュリティおよび品質ロールアップについて (KB5029917)」の3本だてらしい。

更新履歴上にこの3つは載ってないけど、試してみるかと「wusa /uninstall /kb:5029915」を実行すると、アンインストールに成功した。

これで大丈夫?と思って、.Net 3.5追加を試してみたらエラーになった。

もう一度更新一覧を確認しなおすともう1つ「.NET Framework 3.5, 4.6.1, 4.7, 4.7.1, 4.7.2, 4.8 のセキュリティおよび品質ロールアップ」があった

そちらは「2023 年 8 月 8 日 – Windows Server 2012 R2 用 .NET Framework 3.5、4.6.2、4.7、4.7.1、4.7.2、4.8 のセキュリティおよび品質ロールアップ (KB5029653)」で、「Windows Server 2012 R2 用 .NET Framework 3.5 のセキュリティおよび品質ロールアップについて (KB5028970)」「Windows Server 2012 R2 用 .NET Framework 4.6.2、4.7、4.7.1、4.7.2 のセキュリティおよび品質ロールアップについて (KB5028962)」「Windows Server 2012 R2 用 .NET Framework 4.8 のセキュリティおよび品質ロールアップについて (KB5028957)」なので、「wusa /uninstall /kb:5028970」でアンインストールを実行。

役割と機能の追加から「.NET Framework 3.5」を実施してみたところ、今度は成功した。

この状態で新しくインストールされる更新プログラムを確認したところ、.NET 3.5専用のものの他に、先ほど.NET 3.5用のみアンインストールしたKB5030184もインストールされること、ということが確認出来た。

で、実際に適用したあとに、履歴一覧を確認するとKB5030184 が2回適用されていることが確認できた。

CVE-2022-38023適用後 NetAppがActive Directoryに参加できない

$
0
0

いままでも「SMB2 Enabled for DC Connections設定に起因する接続できない問題」というのがあったが、先日話題になった「Active Directoryサーバのセキュリティ強化アップデート(CVE-2022-38023)に伴うONTAPファイルサーバへの影響」で、2023年7月以降のActive Directory環境ではONTAP をCIFSに新規作成しようとした場合にエラーがでる、という問題が出ていた。

Is AES Encryption Enabled設定」と「AES session key enabled for NetLogon channel設定」の2つの設定を変更する必要がある。

前者はONTAP 9.12.1から初期値変更、後者はONTAP 9.10.1から初期値変更となっているが、どちらも以前のバージョンからアップデートしているような環境の場合は以前の値のままとなっているため注意が必要となっている。

その1: Is AES Encryption Enabled 設定

以前からONTAPを使っていてアップデートしているような環境では、SMB内部接続での暗号化形式でAESを使わない、という設定になっているせいで、下記の様なエラーとなる。

netapp9101::> vserver cifs create -vserver svm3 -cifs-server svm3 -domain adosakana.local

In order to create an Active Directory machine account for the CIFS server, you must supply the name and password of a Windows account with
sufficient privileges to add computers to the "CN=Computers" container within the "ADOSAKANA.LOCAL" domain.

Enter the user name: administrator

Enter the password:

Error: Machine account creation procedure failed
  [    47] Loaded the preliminary configuration.
  [   130] Created a machine account in the domain
  [   130] SID to name translations of Domain Users and Admins
           completed successfully
  [   131] Successfully connected to ip 172.17.44.49, port 88 using
           TCP
  [   142] Successfully connected to ip 172.17.44.49, port 464 using
           TCP
  [   233] Kerberos password set for 'SVM3$@ADOSAKANA.LOCAL' succeeded
  [   233] Set initial account password
  [   244] Successfully connected to ip 172.17.44.49, port 445 using
           TCP
  [   276] Successfully connected to ip 172.17.44.49, port 88 using
           TCP
  [   311] Successfully authenticated with DC
           adserver.adosakana.local
  [   324] Unable to connect to NetLogon service on
           adserver.adosakana.local (Error:
           RESULT_ERROR_GENERAL_FAILURE)
**[   324] FAILURE: Unable to make a connection
**         (NetLogon:ADOSAKANA.LOCAL), result: 3
  [   324] Unable to make a NetLogon connection to
           adserver.adosakana.local using the new machine account
  [   346] Deleted existing account
           'CN=SVM3,CN=Computers,DC=adosakana,DC=local'

Error: command failed: Failed to create the Active Directory machine account "SVM3". Reason: general failure.

netapp9101::>

この問題はマニュアルの「Enable or disable AES encryption for Kerberos-based communication」に記載されているように「is-aes-encryption-enabled」設定をtrueに変更することで解決する。

netapp9101::> vserver cifs security modify -vserver svm3 -is-aes-encryption-enabled true
netapp9101::> vserver cifs security show -fields is-aes-encryption-enabled
vserver is-aes-encryption-enabled
------- -------------------------
Cluster -
Snapmirror-WAN
        -
netapp9101
        -
netapp9101-01
        -
svm0    true
svm2    false
svm3    true
7 entries were displayed.

netapp9101::>

その2: AES session key enabled for NetLogon channel 設定

上記を設定しても、下記の様なエラーとなった。

netapp9101::> vserver cifs create -vserver svm3 -cifs-server svm3 -domain vm2.adosakana.local

In order to create an Active Directory machine account for the CIFS server, you must supply the name and password of
a Windows account with sufficient privileges to add computers to the "CN=Computers" container within the
"ADOSAKANA.LOCAL" domain.

Enter the user name: administrator

Enter the password:

Error: Machine account creation procedure failed
  [    43] Loaded the preliminary configuration.
  [   133] Created a machine account in the domain
  [   133] SID to name translations of Domain Users and Admins
           completed successfully
  [   134] Successfully connected to ip 172.17.44.49, port 88 using
           TCP
  [   144] Successfully connected to ip 172.17.44.49, port 464 using
           TCP
  [   226] Kerberos password set for 'SVM3$@ADOSAKANA.LOCAL' succeeded
  [   226] Set initial account password
  [   253] Successfully connected to ip 172.17.44.49, port 445 using
           TCP
  [   284] Successfully connected to ip 172.17.44.49, port 88 using
           TCP
  [   316] Successfully authenticated with DC
           adserver.adosakana.local
  [   323] Encountered NT error (NT_STATUS_PENDING) for SMB command
           Read
  [   327] Unable to connect to NetLogon service on
           adserver.adosakana.local (Error:
           RESULT_ERROR_GENERAL_FAILURE)
**[   327] FAILURE: Unable to make a connection
**         (NetLogon:ADOSAKANA.LOCAL), result: 3
  [   327] Unable to make a NetLogon connection to
           adserver.adosakana.local using the new machine account
  [   344] Deleted existing account
           'CN=SVM3,CN=Computers,DC=ADOSAKANA,DC=local'

Error: command failed: Failed to create the Active Directory machine account "SVM3". Reason: general failure.

netapp9101::>

この状況となった環境のActive Directoryサーバはsambaで作成しているため /usr/local/samba/var/log.samba を確認してみると下記のエラーがでていた。

[2023/10/20 14:48:22.301935,  0] ../../source4/rpc_server/netlogon/dcerpc_netlogon.c:281(dcesrv_netr_ServerAuthenticate3_check_downgrade)
  CVE-2022-38023: client_account[SVM3$] computer_name[SVM3] schannel_type[2] client_negotiate_flags[0x741ff] real_account[SVM3$] NT_STATUS_DOWNGRADE_DETECTED reject_des[0] reject_md5[1]
[2023/10/20 14:48:22.302215,  0] ../../source4/rpc_server/netlogon/dcerpc_netlogon.c:291(dcesrv_netr_ServerAuthenticate3_check_downgrade)
  CVE-2022-38023: Check if option 'server reject md5 schannel:SVM3$ = no' might be needed for a legacy client.
[2023/10/20 14:48:22.304539,  0] ../../source4/rpc_server/netlogon/dcerpc_netlogon.c:281(dcesrv_netr_ServerAuthenticate3_check_downgrade)
  CVE-2022-38023: client_account[SVM3$] computer_name[SVM3] schannel_type[2] client_negotiate_flags[0x701ff] real_account[SVM3$] NT_STATUS_DOWNGRADE_DETECTED reject_des[1] reject_md5[1]
[2023/10/20 14:48:22.304600,  0] ../../source4/rpc_server/netlogon/dcerpc_netlogon.c:291(dcesrv_netr_ServerAuthenticate3_check_downgrade)
  CVE-2022-38023: Check if option 'server reject md5 schannel:SVM3$ = no' might be needed for a legacy client.
[2023/10/20 14:48:22.304638,  0] ../../source4/rpc_server/netlogon/dcerpc_netlogon.c:298(dcesrv_netr_ServerAuthenticate3_check_downgrade)
  CVE-2022-38023: Check if option 'allow nt4 crypto:SVM3$ = yes' might be needed for a legacy client.

もしやkerneberosではなくNTLMで接続されてたりする?と lm-compatibility-level をkrb に設定しても同じ結果となった。

netapp9101::> vserver cifs security modify -vserver svm3 -lm-compatibility-level krb

netapp9101::> vserver cifs security show -fields lm-compatibility-level
vserver lm-compatibility-level
------- ----------------------
Cluster -
Snapmirror-WAN -
netapp9101 -
netapp9101-01 -
svm0    lm-ntlm-ntlmv2-krb
svm2    lm-ntlm-ntlmv2-krb
svm3    krb
7 entries were displayed.

netapp9101::>

さらに調べると「Configure Active Directory domain controller access overview」に、Netlogon にAESを使いたい場合は「aes-enabled-for-netlogon-channel」をtrueに設定する、と書いてあった

netapp9101::> vserver cifs security show -fields aes-enabled-for-netlogon-channel
vserver aes-enabled-for-netlogon-channel
------- --------------------------------
Cluster -
Snapmirror-WAN -
netapp9101 -
netapp9101-01 -
svm0    false
svm2    false
svm3    false
7 entries were displayed.

netapp9101::> vserver cifs security modify -vserver svm3 -aes-enabled-for-netlogon-channel true

netapp9101::> vserver cifs security show -fields aes-enabled-for-netlogon-channel
vserver aes-enabled-for-netlogon-channel
------- --------------------------------
Cluster -
Snapmirror-WAN -
netapp9101 -
netapp9101-01 -
svm0    false
svm2    false
svm3    true
7 entries were displayed.

netapp9101::>

設定変更後に再実行したところ、Active Directory参加に成功した。

netapp9101::> vserver cifs create -vserver svm3 -cifs-server svm3 -domain adosakana.local

In order to create an Active Directory machine account for the CIFS server, you must supply the name and password of
a Windows account with sufficient privileges to add computers to the "CN=Computers" container within the
"ADOSAKANA.LOCAL" domain.

Enter the user name: administrator

Enter the password:

Notice: SMB1 protocol version is obsolete and considered insecure. Therefore it is deprecated and disabled on this
CIFS server. Support for SMB1 might be removed in a future release. If required, use the (privilege: advanced)
"vserver cifs options modify -vserver svm3 -smb1-enabled true" to enable it.

netapp9101::>

ONTAP 9.6以前からONTAP 9.7以降にアップデートする際に容量の問題が発生する可能性

$
0
0

ONTAP 9.5P5シミュレータ環境をONTAP 9.7にアップデートした場合には問題なかったのに、運用中のONTAP 9.5P10環境をアップデートしようとしたところ、firmwareアップロードの段階で「THe request body must have content type multipart/form-data with a field named file」というエラーとなった。

確認すると、ONTAP 9.5P10, ONTAP9.6~ONTAP 9.6P6で発生するというえらくピンポイントな仕様問題だった。(System Manager ONTAP 9.7 image upload fails with multipart/form-data error)

ファイルをアップロードする領域が2GBと設定されているが、ONTAP 9.7では2GBでは足らなくなったためエラーになる、という問題だった。

webのアップロード用パラメータを2GBから4GBに変更することで対処できるとのことで実施した。

まず、diagモードに切り替えて現在の設定確認

netappcluster::> set diag

Warning: These diagnostic commands are for use by NetApp personnel only.
Do you want to continue? {y|n}: y

netappcluster::*> system services web file-uploads config show
Node              Size
----------------- ------------
netappcluster-01  2GB
netappcluster-02  2GB
2 entries were displayed.

netappcluster::*>

次に変更を実施

netappcluster::*> system services web file-uploads config modify -node * -size 4GB

Warning: Files already uploaded or are being uploaded will be lost. Starting a
         file upload before the resize operation is finished will cause the
         uploaded file to be unavailable.
Do you want to continue? {y|n}: y
[Job 14002] Job is queued: Web File Upload Resize Node Job.
[Job 14003] Job is queued: Web File Upload Resize Node Job.
2 entries were modified.

netappcluster::*> 

すぐに反映されないので、上記で出力されたジョブIDのステータスを確認する。


netappcluster::*> job show -id 14002
                            Owning
Job ID Name                 Vserver    Node           State
------ -------------------- ---------- -------------- ----------
14002  Web File Upload Resize Node Job netappcluster netappcluster-01 Success
       Description: Web File Upload Resize Node Job

netappcluster::*> job show -id 14003
                            Owning
Job ID Name                 Vserver    Node           State
------ -------------------- ---------- -------------- ----------
14003  Web File Upload Resize Node Job netappcluster netappcluster-02 Success
       Description: Web File Upload Resize Node Job

netappcluster::*>

「Success」が含まれていれば変更が完了している。(変更途中は Running )

ただ、変更が終わったあとの設定表記は4GBとならずに「0B」となるが、これで正常とのこと

netappcluster::*> system services web file-uploads config show
Node              Size
----------------- ------------
netappcluster-01  0B
netappcluster-02  0B
2 entries were displayed.

netappcluster::*>

KBには「system node systemshell -node * -command df -h /mroot/etc/upload」を実行して /mroot/etc/upload に割り当てられた容量を確認する、という記載がある。

ここで使っているsystemshellコマンドは最近のONTAP OSでは標準で使えない状態に変更されているため「Error: command failed: Error: Account currently locked. Contact the storage administrator to unlock it.」というエラーとなる場合がある。その場合は、ロックを解除する必要がある。手順については「NetApp ONTAPから他サーバに気軽にsshできる穴がふさがれてしまった」を参考のこと

で、ONTAP 9.13.1ぐらいになってくると状況によっては4GBより必要な可能性もあるようで、最近になって「System Manager fails to upload ONTAP image due to insufficient space」というKBが追加されていた。こちらは7GBに変更するとあるが、2023年11月時点ではこの問題が発生する状況が未公開となっているため、4GBのままで良さそうである。

iSCSIストレージ上のvSphere仮想マシンのSANバックアップを仮想マシン上で実験する

$
0
0

vSphere仮想環境でFC-SANやiSCSI-SANの共有ディスク上に作ったVMFSデータストアがあり、そこにあるvSphere仮想マシンのバックアップを行う場合の手法はいくつかある。

・SAN
・HotAdd
・NBD/NBDSSL

ここらを解説してる資料があるかなーと探してみると

vSphere 5時代の「Virtual Disk Transport Methods」だと絵付きで解説されてるんですが、現状のVMware公式記述はVMware Virtual Disk Development Kit Programming Guide 8.0の「Virtual Disk Transport Methods」は絵が省略されてしまった文章のみの記述しか見つからない

じゃあ、とバックアップソフト側を探すといろいろでてくる

その中でも、Veritas NetBackup「VMware のトランスポートモード: ベストプラクティスとトラブルシューティング」が分かりやすいかなぁ、と感じた。

SAN Transport

SAN Transportについて、何の変哲もないiSCSIストレージを、ESXiサーバとWindowsサーバの両方につなげただけでも使えるのかな、と検証してみようとした。

(上記画像はVMwareから転載)

まあ、実機の環境がなかったので、vSphere仮想マシンのWindowsサーバからiSCSI接続して構築してみたところ、commvaultの場合は「SAN access is only supported for physical machines.」というメッセージでバックアップさせてくれなかった。

Event Code: 91:248
Severity: Minor
Program: vsbkp
Description:
Unable to open the disks for virtual machine [仮想マシン名] for SAN access. SAN access is only supported for physical machines.

なにを設定すればごまかせるかな?と試行錯誤・・・とりあえず以下の設定で仮想マシンを作ってみたものの駄目だった。

CPU:ハードウェア仮想化 ハードウェアアシストによる仮想化をゲストOSに公開
IOMMU:IOMMUをゲストOSに公開
パフォーマンスカウント:仮想CPUパフォーマンスカウンタの有効化
SCSIコントローラ:LSI Logic SAS
ネットワークアダプタ:E1000e
ゲストOS:その他 その他(64ビット)
VMware-toolsインストールなし

結局のところ、普通に作ってから、[構成パラメータ]で「smbios.reflecthost」を「TRUE」とするだけで成功した。以下は実際に使った設定。

SCSIコントローラ:LSI Logic SAS
ネットワークアダプタ:E1000e
ゲストOS:Windows Windows Server 2016以降
VMware-toolsインストールあり
構成パラメータ: smbios.reflecthost 「TRUE」

どうやらBIOS stringにVMwareの文字列が入っているかどうかで判定していた模様。

今回はCommvaultバックアップでの事例だったけど、NetBackupなど他のバックアップソフトウェアでもvSphere環境へのアクセスはVDDK経由で行っているので、おそらく同じような制限がかかっているのではないかと想定している。


DataDomainをAWS上にたてる場合の構成のメモ 2023/12/07

$
0
0

DELL PowerProtect DD(DataDomain)には、オブジェクトストレージにデータを保存するような機能がある。

1つはAvamarと連動した場合に使用できる、Data Domain全体のバックアップをオブジェクトストレージに対して保存するというDataDomain CloudDR機能。

もう1つは、Data Domainにある、高速でコストが高いActive Tierにデータを保存して、一定日数経ってアクセスする可能性が少なくなったデータを遅くてコストが安いCold Tierに移動する、という階層化構造を利用するCloud Tier機能である。

Cloud Tier機能を使う場合、一度DataDomainに接続されているディスクに対してデータを保存し、一定日数(最小14日)経過後にオブジェクトストレージに転送される、という設定になる。

この2種類の方法だと、クラウド上だけにデータが保存されている、というわけではないので使いにくい。

いろいろ資料を調べると、AWS, Azure, GCP上に仮想的なDataDomain、DELL PowerProtect DD Virtual Edition(DDVE)が提供されていて、これらにおいては、オブジェクトストレージのみに対してデータを保存するという、Active Tier on Object Storage (ATOS) という機能があるようだ。

ローカル(オンプレ)のvSphere, Hyper-V上に対してDDVEも展開できるのだが、その場合はその機能はついていない。(これは評価版を入れて確認した)

Dell PowerProtect DDVE on Amazon Web Services 7.12 Installation and Administration Guide」の「初期設定手順」を確認すると、「File System」の「Active Tier」設定で、Storage Typeとして「Object Store」で設定している。

なので、DDVEをクラウド上に展開するときだけ、使えるんだと思うんだけど、認識はあってるんだろうか?

Data Domain: DDVE and ATOS Supported Configurations, Event Message: Unsupported virtual hardware configuration

Data Domain: Data Domain Virtual Edition(DDVE) which are Cloud deployed (ATOS), may run out of Local-Metadata Storage

AWS上に作成する場合、「APEX Protection Storage for AWS (DDVE)」(以前DDVEと呼ばれいたAPEX Protection Storageと注釈が入ってる)にはサンプル構成として以下のようなものが書かれている

ドキュメントをいろいろ眺めてみると

・インスタンスについて
保存領域のサイズによってインスタンス選択が変わり
2023年12月時点では M5.xlarge(16TB), M5.2xlarge(32TB), M5.4xlarge(96TB), M5.8xlarge(256TB) となっている。
なお、以前は M4シリーズだった模様

・インスタンスが動作するために必要なEBSについて
GP3のストレージが要求されている(以前はGP2)
root領域 250GB
NVRAM disk領域 10GB
data disk領域 1024GB(これ不要かも?)
metadata disk領域が最小2TB~26TB以上

metadata disk領域は、重複排除/圧縮状況により変化し、重複排除率が上がると使用容量も増え、残り容量が20%を切ると増設が必要となるので注意。
16TB構成時 1TB*2個
32TB構成時 1TB*4個
96TB構成時 1TB*10個
256TB構成時 2TB*13個

metadata用領域が足らなくなった場合の対処→「Data Domain: Data Domain Virtual Edition(DDVE) which are Cloud deployed (ATOS), may run out of Local-Metadata Storage

・このほかにデータを保存するオブジェクトストレージ AWS S3

・ATOS構成の場合、Cloud Tierは使用できない
いきなりクラウドに書いてるので、そこからさらにクラウドに移動させる、という機能は使えない(not support)

ONTAPシミュレータの新規導入手順

$
0
0

ONTAPシミュレータを標準設定でインストールすると結構面倒くさいので、トラブルが起きにくいように設定するやりかたのメモ書き

2023/12/14時点でONTAP 9.13.1のシミュレータもあるのですが、デプロイ後再起動するとブートループに陥る、という謎現象が発生していたりするので、この手順はONTAP 9.12.1で作っています。ONTAP 9.12.1で導入して9.13.1P2や9.13.1P7にアップデートしても動きが怪しい状況です。

1) 普通にovaファイルをデプロイ

2) 初回起動前にハードディスク2を拡大

これ、やる必要があるのかあまり確信はないのですが、ONTAPシミュレータで作成した場合、データは仮想マシン上のハードディスク2に保存されているようです。

初期値は200GB程度なので、実データがそれ以上保存できないんじゃないかなぁと思っているので、2000GBに増やしています。(下記画像は2000GBで指定したあとのTB表記)

3) 初回起動し、adminでログイン

ログイン後、初期セットアップが始まる状態の場合は、Ctrl+Cで強制終了して、プロンプトを出す

4) systemshellでローカルコマンドが実行できるか確認

最近のONTAPだと標準無効化されていると思うので、まずは状態を確認

「set diag」コマンドでdiagモードに移行したあとで「system node systemshell -node localhost -command ls /」を実行してどうなるかを確認する。

::> set diag

Warning: These diagnostic commands are for use by NetApp personnel only.
Do you want to continue? {y|n}: y

::*> system node systemshell -node localhost -command ls /
  (system node systemshell)

Error: command failed: Error: Account currently locked. Contact the storage
       administrator to unlock it.

::*>

ONTAPシミュレータ 9.12.1以降は上記の様な「Error」となると思われる。

5) diagアカウントのロックを解除

上記のエラーはdiagアカウントがロック状態であることが原因であるため、ロックを解除する。

「security login show -user-or-group-name diag」を実行して現在の状態を確認(ONTAPバージョンによっては “security login show -username diag”)

::*> security login show -user-or-group-name diag

Vserver: Default
                                                                 Second
User/Group                 Authentication                 Acct   Authentication
Name           Application Method        Role Name        Locked Method
-------------- ----------- ------------- ---------------- ------ --------------
diag           console     password      admin            yes    none

::*>

「Acct Lock: yes」であるためロックされていることを確認できる。

「security login unlock -username diag」を実行する

::*> security login unlock -username diag

Error: command failed: The admin password is not set. Use the "security login
          password" command to set the password, then try the command again.

::*>

上記のエラーがでた場合は「security login password -username admin」コマンドを実行して、adminユーザのパスワードを設定した後で、再度「security login unlock -username diag」を実行する

::*> security login password -username admin

Enter your current password: <初期設定前であればエンターキー入力>
Enter a new password: <新しいパスワード>
Enter it again: <新しいパスワード>

::*> security login unlock -username diag

::*>

ロック解除に成功した場合、なにも表示されないため、確認のために「security login show -user-or-group-name diag」を実行する

::*> security login show -user-or-group-name diag

Vserver: Default
                                                                 Second
User/Group                 Authentication                 Acct   Authentication
Name           Application Method        Role Name        Locked Method
-------------- ----------- ------------- ---------------- ------ --------------
diag           console     password      admin            no     none

::*>

6) 現状のディスク構成を確認

現状のディスク構成を確認するために「system node systemshell -node local -command “ls -l /sim/dev/,disks”」を実行する。

なお、日本語キーボードで「”」を入力する場合はShiftキーを押しながら「*:け」のキーを押すと入力できる。

::*> system node systemshell -node local -command "ls -l /sim/dev/,disks"

total 1849640
-rwxr-xr-x  1 root  wheel         912 Mar 10 16:07 ,reservations
-rw-r--r--  1 root  wheel        1372 Mar 10 16:07 Shelf:DiskShelf14
-rw-r--r--  1 root  wheel  1094312960 Mar 10 16:45 v0.16:NETAPP__:VD-1000MB-FZ-520:13511800:2104448
-rw-r--r--  1 root  wheel  1094312960 Mar 10 16:45 v0.17:NETAPP__:VD-1000MB-FZ-520:13511901:2104448
<略>
-rw-r--r--  1 root  wheel  1094312960 Mar 10 16:23 v1.29:NETAPP__:VD-1000MB-FZ-520:15901912:2104448
-rw-r--r--  1 root  wheel  1094312960 Mar 10 16:23 v1.32:NETAPP__:VD-1000MB-FZ-520:15901913:2104448

::*>

7) いまあるディスクを削除

/sim/dev/,disks にあるファイルを削除するために「system node systemshell -node local -command “cd /sim/dev/,disks; sudo rm *”」を実行します。

(日本語キーボードで「*」を入力する場合はShiftキーを押しながら「8(ゆ」のキーを押すと入力できる。)

実行後「system node systemshell -node local -command “ls -l /sim/dev/,disks”」を実行し、ファイルが削除されたことも確認します。

::*> system node systemshell -node local -command "cd /sim/dev/,disks; sudo rm *"

::*> system node systemshell -node local -command "ls -l /sim/dev/,disks"
total 0

::*>

8) ディスク作成

「system node systemshell -node localhost -command “cd /sim/dev;sudo vsim_makedisks -t 36 -n 20 -a 0″」を実行してディスクを20本追加します。

(日本語キーボードで「_」を入力する場合はShiftキーを押しながら「=-ほ」のキーを押すと入力できる。)

「system node systemshell -node localhost -command “cd /sim/dev;sudo vsim_makedisks -t 36 -n 20 -a 1″」を追加実行して、さらに20本追加します。

9) 再起動

「reboot」を実行します。

10) Boot Menuを出す

再起動の始めに、下記のような「Press Ctrl-C for Boot Menu.」と出力されたタイミングでCtrl+Cキーを押す。

しばらく待つと下記の選択肢が表示される。

11) ディスク初期化を実行

“4. Clean configuration and initialize all disks.”の「4」を入力

“Zero disks, reset config and install a new file system?:”に「yes」と入力

続く”This will erase all the data on the disks, are you sure?:”も「yes」

初期化が終わると、自動再起動します。

12) 初期設定開始

ONTAP初期設定プロセスを実行していきます

初期セットアップ終了して、プロンプトを確認します。

13) 初期設定完了後追加設定

初期設定後、追加でしておくべき設定項目です。

この他に、SVM作ってCIFS/NFSファイルサーバをたてたりしていきます。

13a) aggr0へのディスク追加

ONTAPバージョンアップを行う場合、初期aggregateのサイズが10GB以上あった方が安全です。(ONTAP 9.7からいろいろバージョンアップテストを実施した結果)

ontap9121::> storage aggregate show


Aggregate     Size Available Used% State   #Vols  Nodes            RAID Status
--------- -------- --------- ----- ------- ------ ---------------- ------------
aggr0_ontap9121_01
            7.51GB   374.8MB   95% online       1 ontap9121-01     raid_dp,
                                                                   normal

ontap9121::> df -A -h
Aggregate                total       used      avail capacity
aggr0_ontap9121_01      7695MB     7320MB      374MB      95%
aggr0_ontap9121_01/.snapshot 405MB     0B      405MB       0%
2 entries were displayed.

ontap9121::>

7.51GBで、この容量であればパッチ適用程度であれば問題ないが、2段階アップデートを行う場合は少し容量が足らない可能性があります。

とりあえずディスク1本追加するため「storage aggregate add-disks -aggregate <aggregate名> -diskcount 1」を実行します。

ontap9121::> storage aggregate add-disks -aggregate aggr0_ontap9121_01 -diskcount 1

Warning: Aggregate "aggr0_ontap9121_01" is a root aggregate. Adding disks to
         the root aggregate is not recommended. Once added, disks cannot be
         removed without re-initializing the node.
Do you want to continue? {y|n}: y

Info: Disks would be added to aggregate "aggr0_ontap9121_01" on node
      "ontap9121-01" in the following manner:

      First Plex

        RAID Group rg0, 4 disks (block checksum, raid_dp)
                                                            Usable Physical
          Position   Disk                      Type           Size     Size
          ---------- ------------------------- ---------- -------- --------
          data       NET-1.11                  FCAL         8.79GB   8.82GB

      Aggregate capacity available for volume use would be increased by 7.91GB.

Do you want to continue? {y|n}: y

ontap9121::> storage aggregate show


Aggregate     Size Available Used% State   #Vols  Nodes            RAID Status
--------- -------- --------- ----- ------- ------ ---------------- ------------
aggr0_ontap9121_01
           15.03GB    7.88GB   48% online       1 ontap9121-01     raid_dp,
                                                                   normal

ontap9121::> df -A -h
Aggregate                total       used      avail capacity
aggr0_ontap9121_01        15GB     7320MB     8069MB      48%
aggr0_ontap9121_01/.snapshot 810MB     0B      810MB       0%
2 entries were displayed.

ontap9121::>

13b) vol0領域の拡大

aggregateを拡大しただけでは、実際のアップデート時に使うvol0領域の大きさは変わりません。

vol0を拡大します。

現在値は「volume show」もしくは「df -h」で確認します。

ontap9121::> volume show
Vserver   Volume       Aggregate    State      Type       Size  Available Used%
--------- ------------ ------------ ---------- ---- ---------- ---------- -----
ontap9121-01 vol0      aggr0_ontap9121_01 online RW     7.11GB     6.04GB   10%

ontap9121::> df -h
Filesystem               total       used      avail capacity  Mounted on                 Vserver
/vol/vol0/              6915MB      731MB     6184MB      10%  ---                        ontap9121-01
/vol/vol0/.snapshot      363MB         0B      363MB       0%  ---                        ontap9121-01
2 entries were displayed.

ontap9121::>

vol0の容量を10GBに設定する「volume size -vserver <クラスタ名> -volume vol0 -new-size 10g」を実行します。

ontap9121::> volume size -vserver ontap9121-01 -volume vol0 -new-size 10g
vol size: Volume "ontap9121-01:vol0" size set to 10g.

ontap9121::> volume show
Vserver   Volume       Aggregate    State      Type       Size  Available Used%
--------- ------------ ------------ ---------- ---- ---------- ---------- -----
ontap9121-01 vol0      aggr0_ontap9121_01 online RW       10GB     8.78GB    7%

ontap9121::> df -h
Filesystem               total       used      avail capacity  Mounted on                 Vserver
/vol/vol0/              9728MB      740MB     8987MB       7%  ---                        ontap9121-01
/vol/vol0/.snapshot      512MB         0B      512MB       0%  ---                        ontap9121-01
2 entries were displayed.

ontap9121::>

13c) 未割り当てディスク追加

現在のONTAP上で認識しているディスクを確認するために「storage disk show」を実行します。

ontap9121::> storage disk show
                     Usable           Disk    Container   Container
Disk                   Size Shelf Bay Type    Type        Name      Owner
---------------- ---------- ----- --- ------- ----------- --------- --------
NET-1.1                   -     -  16 FCAL    unassigned  -         -
NET-1.2                   -     -  17 FCAL    unassigned  -         -
NET-1.3                   -     -  18 FCAL    unassigned  -         -
NET-1.4                   -     -  19 FCAL    unassigned  -         -
NET-1.5                   -     -  20 FCAL    unassigned  -         -
NET-1.6                   -     -  21 FCAL    unassigned  -         -
NET-1.7                   -     -  22 FCAL    unassigned  -         -
NET-1.8              8.81GB     -  16 FCAL    aggregate   aggr0_ontap9121_01 ontap9121-01
NET-1.9              8.81GB     -  17 FCAL    aggregate   aggr0_ontap9121_01 ontap9121-01
NET-1.10             8.81GB     -  18 FCAL    aggregate   aggr0_ontap9121_01 ontap9121-01
NET-1.11             8.81GB     -  19 FCAL    aggregate   aggr0_ontap9121_01 ontap9121-01
NET-1.12                  -     -  24 FCAL    unassigned  -         -
NET-1.13                  -     -  25 FCAL    unassigned  -         -
NET-1.14                  -     -  26 FCAL    unassigned  -         -
NET-1.15                  -     -  27 FCAL    unassigned  -         -
NET-1.16                  -     -  28 FCAL    unassigned  -         -
NET-1.17                  -     -  29 FCAL    unassigned  -         -
NET-1.18             8.81GB     -  20 FCAL    spare       Pool0     ontap9121-01
NET-1.19             8.81GB     -  21 FCAL    spare       Pool0     ontap9121-01
NET-1.20             8.81GB     -  22 FCAL    spare       Pool0     ontap9121-01
NET-1.21             8.81GB     -  24 FCAL    spare       Pool0     ontap9121-01
NET-1.22             8.81GB     -  25 FCAL    spare       Pool0     ontap9121-01
NET-1.23             8.81GB     -  26 FCAL    spare       Pool0     ontap9121-01
NET-1.24             8.81GB     -  27 FCAL    spare       Pool0     ontap9121-01
NET-1.25                  -     -  32 FCAL    unassigned  -         -
NET-1.26                  -     -  33 FCAL    unassigned  -         -
NET-1.27             8.81GB     -  28 FCAL    spare       Pool0     ontap9121-01
NET-1.28             8.81GB     -  29 FCAL    spare       Pool0     ontap9121-01
NET-1.29             8.81GB     -  32 FCAL    spare       Pool0     ontap9121-01
NET-1.30             8.81GB     -  33 FCAL    spare       Pool0     ontap9121-01
NET-1.31                  -     -  34 FCAL    unassigned  -         -
NET-1.32                  -     -  35 FCAL    unassigned  -         -
NET-1.33                  -     -  36 FCAL    unassigned  -         -
NET-1.34                  -     -  37 FCAL    unassigned  -         -
NET-1.35             8.81GB     -  34 FCAL    spare       Pool0     ontap9121-01
NET-1.36             8.81GB     -  35 FCAL    spare       Pool0     ontap9121-01
NET-1.37                  -     -  38 FCAL    unassigned  -         -
NET-1.38             8.81GB     -  36 FCAL    spare       Pool0     ontap9121-01
NET-1.39             8.81GB     -  37 FCAL    spare       Pool0     ontap9121-01
NET-1.40             8.81GB     -  38 FCAL    spare       Pool0     ontap9121-01
40 entries were displayed.

ontap9121::>

10本は割り当てられていますが、10本は未割り当て(unassigned)となっています。

割り当てるためには「storage disk assign -disklist *」を実行します。

ontap9121::> storage disk assign -disklist *

ontap9121::> storage disk show
                     Usable           Disk    Container   Container
Disk                   Size Shelf Bay Type    Type        Name      Owner
---------------- ---------- ----- --- ------- ----------- --------- --------
NET-1.1              8.81GB     -  16 FCAL    spare       Pool0     ontap9121-01
NET-1.2              8.81GB     -  17 FCAL    spare       Pool0     ontap9121-01
NET-1.3              8.81GB     -  18 FCAL    spare       Pool0     ontap9121-01
NET-1.4              8.81GB     -  19 FCAL    spare       Pool0     ontap9121-01
NET-1.5              8.81GB     -  20 FCAL    spare       Pool0     ontap9121-01
NET-1.6              8.81GB     -  21 FCAL    spare       Pool0     ontap9121-01
NET-1.7              8.81GB     -  22 FCAL    spare       Pool0     ontap9121-01
NET-1.8              8.81GB     -  16 FCAL    aggregate   aggr0_ontap9121_01 ontap9121-01
NET-1.9              8.81GB     -  17 FCAL    aggregate   aggr0_ontap9121_01 ontap9121-01
NET-1.10             8.81GB     -  18 FCAL    aggregate   aggr0_ontap9121_01 ontap9121-01
NET-1.11             8.81GB     -  19 FCAL    aggregate   aggr0_ontap9121_01 ontap9121-01
NET-1.12             8.81GB     -  24 FCAL    spare       Pool0     ontap9121-01
NET-1.13             8.81GB     -  25 FCAL    spare       Pool0     ontap9121-01
NET-1.14             8.81GB     -  26 FCAL    spare       Pool0     ontap9121-01
NET-1.15             8.81GB     -  27 FCAL    spare       Pool0     ontap9121-01
NET-1.16             8.81GB     -  28 FCAL    spare       Pool0     ontap9121-01
NET-1.17             8.81GB     -  29 FCAL    spare       Pool0     ontap9121-01
NET-1.18             8.81GB     -  20 FCAL    spare       Pool0     ontap9121-01
NET-1.19             8.81GB     -  21 FCAL    spare       Pool0     ontap9121-01
NET-1.20             8.81GB     -  22 FCAL    spare       Pool0     ontap9121-01
NET-1.21             8.81GB     -  24 FCAL    spare       Pool0     ontap9121-01
NET-1.22             8.81GB     -  25 FCAL    spare       Pool0     ontap9121-01
NET-1.23             8.81GB     -  26 FCAL    spare       Pool0     ontap9121-01
NET-1.24             8.81GB     -  27 FCAL    spare       Pool0     ontap9121-01
NET-1.25             8.81GB     -  32 FCAL    spare       Pool0     ontap9121-01
NET-1.26             8.81GB     -  33 FCAL    spare       Pool0     ontap9121-01
NET-1.27             8.81GB     -  28 FCAL    spare       Pool0     ontap9121-01
NET-1.28             8.81GB     -  29 FCAL    spare       Pool0     ontap9121-01
NET-1.29             8.81GB     -  32 FCAL    spare       Pool0     ontap9121-01
NET-1.30             8.81GB     -  33 FCAL    spare       Pool0     ontap9121-01
NET-1.31             8.81GB     -  34 FCAL    spare       Pool0     ontap9121-01
NET-1.32             8.81GB     -  35 FCAL    spare       Pool0     ontap9121-01
NET-1.33             8.81GB     -  36 FCAL    spare       Pool0     ontap9121-01
NET-1.34             8.81GB     -  37 FCAL    spare       Pool0     ontap9121-01
NET-1.35             8.81GB     -  34 FCAL    spare       Pool0     ontap9121-01
NET-1.36             8.81GB     -  35 FCAL    spare       Pool0     ontap9121-01
NET-1.37             8.81GB     -  38 FCAL    spare       Pool0     ontap9121-01
NET-1.38             8.81GB     -  36 FCAL    spare       Pool0     ontap9121-01
NET-1.39             8.81GB     -  37 FCAL    spare       Pool0     ontap9121-01
NET-1.40             8.81GB     -  38 FCAL    spare       Pool0     ontap9121-01
40 entries were displayed.

ontap9121::>

「storage disk show -container-type unsupported」を実行してunassigned のディスクが無いことを確認します。

ontap9121::> storage disk show -container-type unsupported
There are no entries matching your query.

ontap9121::>

13d) vol0に対するsnapshot設定無効化

現在のvol0に対するスナップショット設定を確認するため「node run -node localhost -command snap sched」を実行

ontap9121::> node run -node localhost -command snap sched
Volume vol0: 0 2 6@8,12,16,20

ontap9121::>

上記の場合、vol0に対して定期的なsnapshotが作成される設定となっています。

この場合、vol0の使用容量枯渇のエラーになる場合があるため、定期取得を停止したほうがいいので、変更します。

変更は「node run -node localhost -command snap sched vol0 0 0 0」で行います。

ontap9121::> node run -node localhost -command snap sched vol0 0 0 0

ontap9121::> node run -node localhost -command snap sched
Volume vol0: 0 0 0

ontap9121::>

上記の様に「vol0: 0 0 0」となっていれば無効化されています。

ONTAPアップデート時の警告についてのメモ

$
0
0

ONTAPアップデート時に検証を行うと、下記の様な警告が表示される。

とはいえ、ここで表示される警告の大半はノードが再起動するので問題があるかも?というものになる。

ONTAPシミュレータの場合はシングルノードなので再起動したら完全に止まりますが、ちゃんとしたハードウェアNetAppであれば2ノード以上あるので、実行するノードを切り替えつつアップデートされるので、影響は最小限となっています。

警告の例

Manual checks that can be done using Upgrade ONTAP documentation

これはほぼ必ず表示される警告

片ノード運用になるけど、I/O負荷大丈夫?SVMが動作しているノードを切り替える時に1回I/O止まってリトライされるけど大丈夫?という確認

Manual checks that can be done using Upgrade ONTAP documentation

メッセージ
Manual validation checks need to be performed. Refer to the Upgrade Advisor Plan or the "What should I verify before I upgrade with or without Upgrade Advisor" section in the "Upgrade ONTAP" documentation for the remaining validation checks that need to be performed before update. Failing to do so can result in an update failure or an I/O disruption.
解決策
Refer to the Upgrade Advisor Plan or the "What should I verify before I upgrade with or without Upgrade Advisor" section in the "Upgrade ONTAP" documentation for the remaining validation checks that need to be performed before update.

ONTAP API to REST transition warning

ONTAP 9.12.1以降だと

ONTAP API to REST transition warning

メッセージ
NetApp ONTAP API has been used on this cluster for ONTAP data storage management within the last 30 days. NetApp ONTAP API is approaching end of availability.
解決策
Transition your automation tools from ONTAP API to ONTAP REST API. CPC-00410 - End of availability: ONTAPI : https://mysupport.netapp.com/info/communications/ECMLP2880232.html

LIFs on home node status

LIF(ネットワークインタフェース)がホーム以外のポートで運用されている場合に表示されます。

home portに戻すことで警告は消えます。home portに戻すことができない場合はONTAP OSのアップデートできません。

One or more LIFs are not on the node, verify that all LIFs are on the home node before attempting NDU.

Cluster/management switch support

Netappの各ノード間を接続しているクラスタネットワークの設定を確認してくれ、というものだが2ノード直結時でも出るので、謎。基本無視している。

Ensure that the NX-OS (cluster network switches), IOS (management network switches), and reference configuration file (RCF) software ersions are compatible with the target Data ONTAP release.
Refer to http://mysupport.netapp.com/NOW/download/software/cm_switches/ and http://mysupport.netapp.com/NOW/download/software/cm_switches_ntap/ for more details.

Name Service Configuration DNS Check

設定されているDNSサーバにアクセスできない状態で表示されますが、無視できる警告です。

無視してアップデートは可能ですが、名前解決ができないということはCIFS/Active Directory環境からのアクセスで問題が発生するかもしれないので注意が必要です。(再起動によりキャッシュが消えることによる問題)

Name Service Configuration DNS Check

メッセージ
None of the configured DNS servers are reacjanle for the following Vservers: 名前. There might be other Vservers for DNS servers are not reachable.

解決策
Delete the DNS server, or verify that the DNS status is "up". Delete the DNS configuration for the Vservers which do not have "dns" as a configured source in the ns-switch database.

NFS mounts

NFSサービスを提供している場合、NFS client側のマウント設定でsoft mountが使用されている場合、NetApp側ノード切り替え時にNFS client側の動作がイマイチな場合がある、という警告。

基本的にはNFS client側はhard mount設定で使ってほしい。

NetApp側で対処出来ることはないので無視する。

NFS mounts

メッセージ
This cluster is serving NFS clients. If NFS soft mounts are used, there is a possibility of frequent NFS timeouts and race conditions that can lead to data corruption during the upgrade

解決策
Use NFS hard mounts, if possible

CIFS status

CIFSサービスを提供している場合、NetApp側ノード切り替え時にCIFS clientのアクセス手法によってはイマイチな動作をする可能性がある、という警告。

これも無視しちゃう

CIFS status

メッセージ
CIFS is currently in use. Any unprotected sessions may be affected with possible loss of data.

解決作
Stop all unprotected CIFS workloads before performing the update. To list the unprotected CIFS workloads, run the command: vserver cifs session show -continuously-available No, Partial


警告内容は「cluster image show-update-progress」を実行すると確認できる

ontap9121::> cluster image show-update-progress

                                             Estimated         Elapsed
Update Phase         Status                   Duration        Duration
-------------------- ----------------- --------------- ---------------
Pre-update checks    completed                00:10:00        00:00:38

Details:

Pre-update Check     Status            Error-Action
-------------------- ----------------- --------------------------------------
AMPQ Router and      OK                N/A
Broker Config
Cleanup
Aggregate online     OK                N/A
status and parity
check
Application          OK                N/A
Provisioning Cleanup
Autoboot Bootargs    OK                N/A
Status
Backend              OK                N/A
Configuration Status
Boot Menu Status     OK                N/A
CIFS compatibility   OK                N/A
status check
Capacity licenses    OK                N/A
install status check
Check For SP/BMC     OK                N/A
Connectivity To
Nodes
Check LDAP fastbind  OK                N/A
users using
unsecure connection.
Cloud keymanager     OK                N/A
connectivity check
Cluster health and   OK                N/A
eligibility status
Cluster/management   OK                N/A
switch check
Compatible New       OK                N/A
Image Check
Current system       OK                N/A
version check if it
is susceptible to
possible outage
during NDU
Data ONTAP Version   OK                N/A
and Previous
Upgrade Status
Data aggregates HA   OK                N/A
policy check
Disk status check    OK                N/A
for failed, broken
or non-compatibility
Duplicate Initiator  OK                N/A
Check
Encryption key       OK                N/A
migration status
check
External             OK                N/A
key-manager with
legacy KMIP client
check
External keymanager  OK                N/A
key server status
check
Infinite Volume      OK                N/A
availibility check
Logically over       OK                N/A
allocated DP
volumes check
Manual checks that   Warning           Warning: Manual validation checks
can be done using                      need to be performed. Refer to the
Upgrade ONTAP                          Upgrade Advisor Plan or the "What
documentation                          should I verify before I upgrade with
                                       or without Upgrade Advisor" section
                                       in the "Upgrade ONTAP" documentation
                                       for the remaining validation checks
                                       that need to be performed before
                                       update. Failing to do so can result
                                       in an update failure or an I/O
                                       disruption.
                                       Action: Refer to the Upgrade Advisor
                                       Plan or the "What should I verify
                                       before I upgrade with or without
                                       Upgrade Advisor" section in the
                                       "Upgrade ONTAP" documentation for the
                                       remaining validation checks that need
                                       to be performed before update.
MetroCluster         OK                N/A
configuration
status check for
compatibility
Minimum number of    OK                N/A
aggregate disks
check
NAE Aggregate and    OK                N/A
NVE Volume
Encryption Check
NDMP sessions check  OK                N/A
NFS mounts status    OK                N/A
check
NVMe over Fabrics    OK                N/A
license check
Name Service         OK                N/A
Configuration DNS
Check
Name Service         OK                N/A
Configuration LDAP
Check
Node to SP/BMC       OK                N/A
connectivity check
OKM/KMIP enabled     OK                N/A
systems - Missing
keys check
ONTAP API to REST    Warning           Warning: NetApp ONTAP API has been
transition warning                     used on this cluster for ONTAP data
                                       storage management within the last 30
                                       days. NetApp ONTAP API is approaching
                                       end of availability.
                                       Action: Transition your automation
                                       tools from ONTAP API to ONTAP REST
                                       API. For more details, refer to
                                       CPC-00410 - End of availability:
                                       ONTAPI
                                       https://mysupport.netapp.com/info/
                                       communications/ECMLP2880232.html
ONTAP Image          OK                N/A
Capability Status
OpenSSL 3.0.x        OK                N/A
upgrade validation
check
Openssh 7.2 upgrade  OK                N/A
validation check
Pre-Update           OK                N/A
Configuration
Verification
RDB Replica Health   OK                N/A
Check
Replicated database  OK                N/A
schema consistency
check
Running Jobs Status  OK                N/A
SAN and NVMe LIF     OK                N/A
Online Check
SAN compatibility    OK                N/A
for manual
configurability
check
SAN kernel agent     OK                N/A
status check
Secure Purge         OK                N/A
operation Check
Shelves and Sensors  OK                N/A
check
SnapLock Version     OK                N/A
Check
SnapMirror           OK                N/A
Synchronous
relationship status
check
SnapMirror           OK                N/A
compatibility
status check
Supported platform   OK                N/A
check
Target ONTAP         OK                N/A
release support for
FiberBridge 6500N
check
Upgrade Version      OK                N/A
Compatibility Status
Verify all bgp       OK                N/A
peer-groups are in
the up state
Verify that e0M is   OK                N/A
home to no LIFs
with high speed
services.
Volume Conversion    OK                N/A
In Progress Check
Volume move          OK                N/A
progress status
check
Volume online        OK                N/A
status check
iSCSI target portal  OK                N/A
groups status check
Overall Status       Warning           Warning
61 entries were displayed.

ontap9121::>

ARCserve UDPでバックアップネットワーク設定を行う&UDPマニュアルメモ

$
0
0

ARCserve UDPは ver7 Update 1でバックアップネットワーク設定をサポートしました。

なので、2019年とかに導入したUDP ver6.xだと無理やりな設定を行っていました。

バックアップ LAN を使用した Arcserve UDP の運用について (Arcserve UDP 7.0 GA 以前)

UDP ver 7 Update 1からはプラン設定時にどのインタフェースを使用するかが選択できるようになりました。

バックアップ LAN を使用した Arcserve UDP の運用について (Arcserve UDP 7.0 Update 1 以降)

期待通りに動作していない場合は「バックアップ/リストア用のネットワークを指定しているにも関わらず、指定したネットワークが使用されない」などを確認。

UDP ver9でどのような画面になっているかは「ホスト ベースのバックアップ プランの作成」などを参考のこと

ARCserve UDPマニュアル類

ARCserve UDP ver9 日本語マニュアル一覧

Arcserve UDP 9.0 Documentation (各言語版)

Arcserve UDP 9.0 / 9.1 / 9.2 Software Compatibility Matrix

Arcserve Unified Data Protection 9.x 動作要件

ARCserve UDP KB情報

メモ Nutanix AHVの管理画面で仮想マシンにClient certificatesのエラーがでていた

$
0
0

時々テスト用に起動することがあるNutanix環境がある。

テスト用なのでNutanix Community Editionで構築したのだがしばらくアップデートが出てなかったので結構古い。

確認することがあったのでWindows仮想マシンとLinux仮想マシンを作って、Windows側にNutanix Guest Toolsをインストールしてみたところエラーが・・・

Summary
Client certificates for VM <仮想マシン名> with uuid 33dd4645-3dcf-4efc-b837-0b1cb3a8d7d9 are expiring in -19717 days and need to be regenerated.Upon Certificate expiry, the CVM-Guest VM communication will be broken.

Possible Cause
Description
NGT Client certificates have definite expiry period of 1000 days based on ISO standards.

Recommendation
NGT Client certificates need to be regenerated on the guest VMs. Refer to KB 10075 for further details

KB 10075「NCC Health Check: ngt_client_cert_expiry_check

AOS 5.19.1以降と、AOS 5.19.1より前とで対処が違う模様。

2020.09.16はAOS5.18らしいので、より前なので対処策は KB-8120のようなのだが、Community Edition権限では読めない・・・

で・・・アップデートが出てないと思ってたNutanix Community Editionについて2023年3月に新しいバージョンが出ていたとは・・・

smzklab「[2023令和最新版]Nutanix Community Edition 2.0

ダウンロード場所「Download Community Edition

それはさておき、問題の対処方法を捜索

インフラ屋とアプリ屋のあいだ「NGTによる仮想マシンの識別方法と証明書の更新方法について」を見ると、期限が切れてる場合はNGTとの通信が出来ていない模様

しかしうちの環境だと「NGT Enabled:true」で「Communication Link Active:true」とNGTと通信はできている模様

nutanix@NTNX-20190b89-A-CVM:172.17.44.22:~$ ncli ngt get vm-id=<UUID>

    VM Id                     : <UUID>
    VM Name                   : <仮想マシン名>
    NGT Enabled               : true
    Tools ISO Mounted         : false
    Vss Snapshot              : true
    File Level Restore        : false
    Communication Link Active : true
nutanix@NTNX-20190b89-A-CVM:172.17.44.22:~$

とりあえず、書いてある証明書更新を実施してみる

「ncli vm list」でUUID確認

「ncli ngt get vm-id=<UUID>」で現状のステータス確認

「nutanix_guest_tools_cli query_vm_tools_entity <UUID>」でNGTと通信して内容が取れるか確認(うちの環境では取れた)

いまの環境のNGT versionは「ngt_version: “2.0”」となっていた。

「nutanix_guest_tools_cli delete_vm_tools_entity <UUID>」で登録を削除。最後は「result_vec: kNoError」と出る

「nutanix_guest_tools_cli query_vm_tools_entity <UUID>」でNGTと通信して内容を確認すると、ログが流れたあとjsonっぽい出力はなくすぐに「result_vec: kNonExistent」と出たので登録は削除されている

「nutanix_guest_tools_cli create_vm_tools_entity <UUID>」で登録を実施。最後は「result_vec: kNoError」と出る

「nutanix_guest_tools_cli query_vm_tools_entity <UUID>」でNGTと通信して内容を確認すると、ログが流れたあとjsonっぽい出力があれば再登録

Nutanix管理画面からMount Nutanix Guest Toolsを実行した後、仮想マシンを再起動、とあるので、それを行う(nutanix_guest_tools_cli mount_guest_tools <UUID>でもいいらしい)

仮想マシン再起動後、「ncli ngt get vm-id=<UUID>」を実行し、NGTの状態確認

結果変わらず。

今回、Linux仮想マシンだったので/usr/local/nutanix/ngt/config/にあるpem拡張子のファイルが更新されている。

# ls -l /usr/local/nutanix/ngt/config/
合計 20
-rwxr-x---. 1 root root 3988 12月 28 15:50 ca-cert.pem
-rwxr-x---. 1 root root 1854 12月 28 15:50 client-cert.pem
-rwxr-x---. 1 root root 1704 12月 28 15:50 client-key.pem
-r-xr-x---. 1 root root  118 12月 28 15:50 ngt_config.json
-rw-r--r--. 1 root root    0 12月 28 14:53 ngt_marker
-r-xr-x---. 1 root root  379 12月 28 14:53 script_execution_config.json
#

client-cert.pemを確認すると、発行日 2023/12/28 と更新されていることを確認

# openssl x509 -text -noout -in /usr/local/nutanix/ngt/config/client-cert.pem
Certificate:
    Data:
        Version: 3 (0x2)
        Serial Number: 4105 (0x1009)
        Signature Algorithm: sha256WithRSAEncryption
        Issuer: C = US, ST = CA, O = Nutanix, OU = NGT, CN = intermediate-ca
        Validity
            Not Before: Dec 28 06:45:42 2023 GMT
            Not After : Sep 23 06:45:42 2026 GMT
        Subject: C = US, ST = CA, L = San Jose, O = Nutanix, OU = Nutanix Guest Tools, CN = ngt-uuid=bbcae76c-bcc2-4da5-bb80-1ed6fb2d6045
        Subject Public Key Info:
            Public Key Algorithm: rsaEncryption
                Public-Key: (2048 bit)
                Modulus:
                    <略>
                Exponent: 65537 (0x10001)
        X509v3 extensions:
            X509v3 Basic Constraints:
                CA:FALSE
            Netscape Cert Type:
                SSL Client, S/MIME
            Netscape Comment:
                OpenSSL Generated Client Certificate
            X509v3 Subject Key Identifier:
                58:DD:30:0E:E9:FD:5E:5C:A0:68:5B:13:B4:34:4E:B5:10:43:D5:D1
            X509v3 Authority Key Identifier:
                16:EE:D1:30:0D:AC:E9:CE:CA:E9:69:D8:F1:8A:B6:7D:2B:46:45:F6
            X509v3 Key Usage: critical
                Digital Signature, Non Repudiation, Key Encipherment
            X509v3 Extended Key Usage:
                TLS Web Client Authentication, E-mail Protection
    Signature Algorithm: sha256WithRSAEncryption
    Signature Value:
        <略>
#

ca-cert.pem 側は2019/11/12発行だけど、有効期限が2029年までになっている状態

# openssl x509 -text -noout -in /usr/local/nutanix/ngt/config/ca-cert.pem
Certificate:
    Data:
        Version: 3 (0x2)
        Serial Number: 4096 (0x1000)
        Signature Algorithm: sha256WithRSAEncryption
        Issuer: C = US, ST = CA, L = San Jose, O = Nutanix, OU = NGT, CN = root-ca
        Validity
            Not Before: Nov 12 08:12:48 2019 GMT
            Not After : Nov  9 08:12:48 2029 GMT
        Subject: C = US, ST = CA, O = Nutanix, OU = NGT, CN = intermediate-ca
        Subject Public Key Info:
            Public Key Algorithm: rsaEncryption
                Public-Key: (4096 bit)
                Modulus:
                    <略>
                Exponent: 65537 (0x10001)
        X509v3 extensions:
            X509v3 Subject Key Identifier:
                16:EE:D1:30:0D:AC:E9:CE:CA:E9:69:D8:F1:8A:B6:7D:2B:46:45:F6
            X509v3 Authority Key Identifier:
                AA:F6:89:7E:3B:F9:42:7E:15:D0:42:27:54:A8:65:2B:3E:5C:7F:B6
            X509v3 Basic Constraints: critical
                CA:TRUE, pathlen:0
            X509v3 Key Usage: critical
                Digital Signature, Certificate Sign, CRL Sign
    Signature Algorithm: sha256WithRSAEncryption
    Signature Value:
        <略>
#

….ca-certの有効期限が10年であることが問題?

そうするとNutanix側のCA証明書を再生成する必要があるのが「AOS < 5.19.1: Rrefer to KB 8120 for instructions on re-generating the certificates.」の内容ということなのか?

とりあえずよくわからないけど、NGTが使えていないわけではないので一旦放置、とした

Windows Serverによるファイルサーバー移行のメモ

$
0
0

Windows Serverを移行する時に現状の設定を確認する必要がある。

その際に確認しといた方が良さそうな項目についてのメモ

1) ネットワーク設定

Active Directoryに参加するだろうからある程度はなんとかなるだろうけど・・・

DNSサーバの順序あたりは確認しておいた方がいい

「ipconfig /all」
「netsh interface ipv4 show config」

NICチーミング設定がされてるかどうか、されている場合は「チーミングモード」「負荷分散モード」と「スタンバイアダプターの設定有無」を確認

2) Windowsファイアウォール設定

これもActive Directory側から操作されてるかもしれないけど確認

「受信の規則」にある追加されたっぽい設定を確認

コマンドの場合

「netsh advfirewall show allprofiles」でプロファイル確認
「netsh advfirewall show currentprofile」で現在有効になってるプロファイル確認
「netsh advfirewall firewall show rule name=all」で設定出力

3) 共有設定

コンピュータの管理を起動して共有確認
 「コンピュータの管理」の[システムツール]-[共有フォルダー]-[共有]の内容を確認
 各共有のプロパティを開き、「共有のアクセス許可」と「セキュリティ」を確認

「net share」で共有一覧を表示
「net share 共有名」で各共有の詳細を確認
「Get-SmbShare」で共有一覧表示
「Get-SmbShare|Get-SmbShareAccess」で各共有のアクセス権限表示
「Get-SmbShare|Format-List」共有一覧の詳細出力
「Get-SmbShare|Get-SmbShareAccess|Format-List」アクセス権限表示の詳細出力

共有をコマンドで設定する場合

net share "share"="D:\share"  /GRANT:"BUILTIN\Administrators,FULL" /GRANT:"Everyone,FULL"

4) クォータ設定

クォータ設定は2種類あるので注意が必要

ファイルサーバーリソースマネージャを起動して「クォータ」の内容を確認
 対象ディレクトリと適用されている”クォータテンプレート”の内容
  制限値, ハード/ソフト, 通知設定

「dirquota template list」でテンプレート一覧を表示
「dirquota template list /list-n」でテンプレートを通知設定込みで表示
「dirquota autoquota list」で自動適用クォータを確認

ドライブプロパティのクォータ設定を確認
 各ドライブのプロパティを開き、クォータタブの内容を確認

「fsutil volume list」でドライブ名を確認
「fsutil quota query ドライブ名」で確認

コマンドで設定する場合
旧サーバでtemplateをexportして、新サーバでimportして、各quotaを設定

dirquota template export /file:ファイル名
dirquota template import /file:ファイル名
dirquota quota add /Path:"D:\share" /sourcetemplate:"10 GB 制限"

5) シャドウコピー設定

ドライブプロパティのシャドウコピー設定を確認
 各ドライブのプロパティを開き、シャドウコピータブの内容を確認

コマンドの場合、スケジュール実行についてはタスクスケジューラで行っているのでschtasksコマンドでの確認が必要になることに注意

「vssadmin list shadows」で現在存在しているシャドウコピーを確認
「vssadmin list shadowstorage」でシャドウコピーの保存先を確認
「vssadmin list volumes」でディスクのIDを確認
「schtasks /query /xml」で一覧をXML形式で出力し、名前が"ShadowCopyVolume~"のものの内容を確認

6) タスクスケジューラ設定

タスクスケジューラを起動して設定を確認
 タスクスケジューラライブラリに登録されているタスク一覧を確認
 それぞれのタスクの詳細を確認

「schtasks /query /fo list」で一覧を表示
「schtasks /query /xml」で一覧をXML形式で表示

rocobopyでのファイル同期

robocopyのオプション

「/mir /copyall /R:1 /W:1」でいける場合が多い

EFSRAW対応の場合は「/COPYALL /MIR /B /EFSRAW /R:1 /W:1」

Windowsサーバ上で監査設定があって、コピー先が監査非対応の場合は「/E /B /copy:DATSO /R:1 /W:1」かなぁ?

「 /NP」オプションを付けて進捗表示なしにしてもよい

最初は「/MIR」ではなく「/B /E」で実行して、指定誤りによる誤削除がないようにする、というのも1つの手。

これは /MIR か /PURGE を指定すると、コピー元にないファイルは削除されるが、コピー先のディレクトリ指定を誤って既存データのあるディレクトリを指定してしまうと削除されるため。

robocopyを実行するバッチファイルの作成例

@echo off
set TIME2=%TIME: =0%
set LOGDATE=%DATE:~0,4%%DATE:~5,2%%DATE:~8,2%-%TIME2:~0,2%%TIME2:~3,2%

robocopy \\旧FS\share  \\新FS\share /mir /copyall /R:0 /W:0 /LOG+:D:\LOGS\share-%LOGDATE%.txt

代表的なrobocopyエラーコードと対処一覧

エラー 2 (0x00000002)→指定したフォルダが存在しない
エラー 5 (0x00000005)→アクセス権がない。robocopyに/Bオプションを付ける
エラー 31 (0x0000001F)→コピー先に元と同じNTFSセキュリティ設定が行えない(OS制約などの可能性)
エラー 32 (0x00000020)→ファイルがアプリケーションからロックされているのでアプリを閉じる
エラー 64 (0x00000040)→指定した共有にアクセスできない
エラー 87 (0x00000057)→指定した共有にアクセスするためのユーザ名/パスワード指定が誤っている
エラー 112(0x00000070)→コピー先容量が足らない

Zstack Cloudをインストールしてみた

$
0
0

VMware vSphere環境の代替プロダクトを探している途中に見つけたZstack Cloud / 中国語ページ

中国で開発されていて、KVMベースの仮想環境だとのこと。

開発は中国主体の https://gitee.com/zstackio/zstack が元で、このコピーを https://github.com/zstackio/zstack にもおいてある。

giteeの方は、5.1.0ツリーなどがあるがgithubにはない、などすべて同期されているわけではないようだ。

Community Editionがあるので導入できそうだが、Downloadリンクはユーザ情報を要求される。

ドキュメントサイトからInstallation and Deployment(ZStack Cloud 4.8.0 LTS)を見てみるとインストール用ISOは ZStack-Cloud-x86_64-DVD-4.8.0-h79c.iso というファイル名らしいので検索してみると 中国語版の 最新下载ページが出てくる。

・・・・・・・2024/03/29付けで新しい5.0.0がリリースされていて、4.8.0はダウンロードできなくなってますね。

Installation and Deployment(ZStack Cloud 5.0.0) を確認すると、いままで h76c/h79c/h84rと3種類のISOがあったものが h84rに一本化されたようなのだが、ところどころに古い記述も残っている。

インストール完了後に構成から確認できたことから察するに、h76c=Helix 7.6 based on CentOS、h79c=Helix 7.6 based on CentOS、h84r=Helix 8.4 based on RockyLinuxの略である模様。

ZStack-Cloud-x86_64-DVD-5.0.0-h84r.iso をダウンロードして、ISO読み込みやrufusなどを使ってUSBメモリに書き込んで起動して、インストールを行う。

サーバハードウェアの制約
・ZstackはSecure Bootは非対応なので無効化する
・UEFI/BIOSのどちらもとりあえずは対応
・システムディスクとして300GB以上を推奨
・NIC冗長化はRHEL同等。LACP/802.3adも設定可能

また、2種類のストレージを用意する必要がある。

Primary Storage=仮想マシンのディスクを置く場所
・サーバのローカルディスク(全ノードに対して一律に設定される。ディレクトリが無い場合は自動作成される)
・NFS共有(各ノードで同じパスでマウントされていること)
・何らかの共有ファイルシステム(各ノードで同じパスでマウントされていること)
・Ceph(構築済の環境)

Backup Storage=ISOイメージなどを置く場所
・sftp(構築済の環境)
・Ceph(構築済の環境)

やっかいなのが「Backup Storage」が必須、というところ。

しかも「sftp」という額面だけ見て、単純にssh/sftpでログインできる環境があればいいのかと思ったのですが、RockyLinux 8.9サーバを設定してみたところ、Zstackのパッケージを追加しようとしてコンフリクトが発生してエラーとなっていました。

エラーログを精査すると、Zstack 8.0.0が用意したパッケージバージョンと異なると駄目であるようなので、Zstack 8.0.0ベースの環境が必要でした。

少し使ってみた感想

vSphereやNutanixの代替になるかというと難しい。

どっちかというとOpenStackみたいなことを簡単にできるようにした感じがあるつくりになっている。

・Comminity Editionは機能制約が多すぎて使えない。proxmoxの方が良い
 OSのセキュリティアップデートが提供されていない
 管理サーバの冗長化が無い
 Guest OS Agentが提供されない

・RHEL系のLinux設定知識がないと設定できないところがある
 共有ディスクのマウントに関する設定(/etc/fstabを書く)
 LACP/bonding設定を設定ファイルで書く

・ベースRHELバージョンが8と古い
 2024年3月29日にリリースされた最新メジャーバージョンアップがRHEL8.4ベースだが、最新はRHEL8.9
 そしてRHEL8.xのフルサポート終了日は2024年5月31日、メンテナンスアップデート終了日は2029年5月31日
 ライフサイクル的にちょっと不安が?

あまり積極的に使ってみようかなぁ、という感じのものではなかった。


ノードのインストールについて

ZStack CloudのインストールISOでインストールできるモードについてマニュアルより

ModeScenario
Enterprise Management Node ModeApplicable only to the installation of management nodes of the Enterprise edition.
Community Management Node ModeApplicable only to the installation of management nodes of the Community edition.
Compute Node ModeApplicable to the installation of all nodes except the management nodes, such asCompute nodeImageStore, Ceph backup storage node, and Ceph backup storage mount nodeCeph primary storage node, and Ceph primary storage mount nodePXE deployment server node, local backup server node, and remote backup server node in another data center
Expert Mode

Enterprise Management Node ModeとCommunity Management Node Modeの違いは「terms of the license type, which decides the features available on the Cloud」とのこと

複数ノードをセットアップする場合は、Management Node Modeを1台と、それ以外はCompute Node Modeでセットアップする。

管理機能の冗長化についてはEdition比較表にある「Management Node HA」が該当していると思われるがComminity Editionではサポートしていない模様。

ドキュメントも不備があり、v3.0時代のMaintenance Manualに「MN Maintenance – MN High Availability」があるがv5.0についてのドキュメントが閲覧可能状態にない。

v5.0についても ZStack-Multinode-HA-Suite.tar.gz が配布されているので、v3.0時代と同じく、targz展開してzsha2を実行してセットアップ、という形になるのだと思われる。

Zstack Cloud Communitiy Editionインストール

基本的にRedHat系と同じインストールUIになっている。

Software Selectionは、管理兼Computeノードとなる1台だけ「Managament Node」としてインストールし、あとはComputeノードとしてインストールする

ISOブートからのインストールが終わったあとの管理ノードについては初回ブート時は自動セットアップが行われる。

初期セットアップが終わるとログインプロンプトが表示される。

ZStack-Cloud-x86_64-DVD-5.0.0-h84r.iso でインストールした場合、kernelは 4.18.0-425.19.2.3.g75f4bb8fb9a9.el8.x86_64 となっていた。

また、レポジトリ構成を確認すると、Rocky Linux 8の中国内サーバを登録しているものの有効にしているのは、サーバローカルレポジトリのみ、という構成となっていた。

[root@zstack131 ~]# uname -a
Linux zstack131.adosakana.local 4.18.0-425.19.2.3.g75f4bb8fb9a0.el8.x86_64 #1 SMP Wed Nov 15 21:30:37 EST 2023 x86_64 x86_64 x86_64 GNU/Linux
[root@zstack131 ~]# rpm -qa|grep release
helix-release-8.4r-36.el8.noarch
zstack-release-h84r-1.h8.zstack.noarch
[root@zstack131 ~]# dnf repolist --all
repo id                repo name                                        status
163base                Rocky-8 - Base - mirrors.163.com                 disabled
163extras              Rocky-8 - Extras - mirrors.163.com               disabled
163updates             Rocky-8 - Updates - mirrors.163.com              disabled
alibase                Rocky-8 - Base - mirrors.aliyun.com              disabled
aliepel                Extra Packages for Enterprise Linux 8 - $basearc disabled
aliepel-modular        Extra Packages for Enterprise Linux Modular 8 -  disabled
aliextras              Rocky-8 - Extras - mirrors.aliyun.com            disabled
aliupdates             Rocky-8 - Updates - mirrors.aliyun.com           disabled
ceph                   Ceph                                             disabled
epel                   Extra Packages for Enterprise Linux 8 - $basearc disabled
mariadb                MariaDB                                          disabled
mlnx-ofed              Mellanox OFED Driver                             disabled
qemu-kvm-ev            Qemu KVM EV                                      disabled
qemu-kvm-ev-mn         qemu-kvm-ev-mn                                   disabled
uek4-ocfs2             UEK4-OCFS2                                       disabled
ustcepel               Extra Packages for Enterprise Linux 8 - x86_64 - disabled
ustcepel-modular       Extra Packages for Enterprise Linux Modular 8 -  disabled
virtio-win             virtio-win                                       disabled
zops-local             zops-local                                       enabled
zstack-experimental-mn zstack-experimental-mn                           disabled
zstack-local           zstack-local                                     enabled
zstack-mn              zstack-mn                                        disabled
[root@zstack131 ~]#

レポジトリ設定ファイルを確認すると下記の内容になっていた。

[root@zstack131 ~]# cd /etc/yum.repos.d/
[root@zstack131 yum.repos.d]# ls
ceph.repo            qemu-kvm-ev.repo     zstack-aliyun-yum.repo
epel.repo            uek4-ocfs2.repo      zstack-experimental-mn.repo
galera.repo          virtio-win.repo      zstack-local.repo
mlnx-ofed.repo       zops-local.repo      zstack-mn.repo
qemu-kvm-ev-mn.repo  zstack-163-yum.repo
[root@zstack131 yum.repos.d]# for file in `pwd`/*; do echo === $file ===; cat
$file; done
=== /etc/yum.repos.d/ceph.repo ===
[ceph]
name=Ceph
baseurl=file:///opt/zstack-dvd/$basearch/$YUM0/Extra/ceph
gpgcheck=0
enabled=0
module_hotfixes=true
=== /etc/yum.repos.d/epel.repo ===
[epel]
name=Extra Packages for Enterprise Linux $releasever - $basearce - mirrors.aliyun.com
mirrorlist=https://mirrors.fedoraproject.org/metalink?repo=epel-8&arch=$basearch
enabled=0
gpgcheck=0
=== /etc/yum.repos.d/galera.repo ===
[mariadb]
name = MariaDB
baseurl=file:///opt/zstack-dvd/$basearch/$YUM0/Extra/galera
gpgcheck=0
enabled=0
module_hotfixes=true
=== /etc/yum.repos.d/mlnx-ofed.repo ===
[mlnx-ofed]
name=Mellanox OFED Driver
baseurl=file:///opt/zstack-dvd/$basearch/$YUM0/Extra/mlnx-ofed
gpgcheck=0
enabled=0
=== /etc/yum.repos.d/qemu-kvm-ev-mn.repo ===
[qemu-kvm-ev-mn]
name=qemu-kvm-ev-mn
baseurl=http://172.17.44.131:8080/zstack/static/zstack-repo/$basearch/$YUM0/Extra/qemu-kvm-ev/
gpgcheck=0
module_hotfixes=true
enabled=0
=== /etc/yum.repos.d/qemu-kvm-ev.repo ===
[qemu-kvm-ev]
name=Qemu KVM EV
baseurl=file:///opt/zstack-dvd/$basearch/$YUM0/Extra/qemu-kvm-ev
gpgcheck=0
enabled=0
module_hotfixes=true
=== /etc/yum.repos.d/uek4-ocfs2.repo ===
[uek4-ocfs2]
name=UEK4-OCFS2
baseurl=file:///opt/zstack-dvd/$basearch/$YUM0/Extra/uek4
gpgcheck=0
enabled=0
module_hotfixes=true
=== /etc/yum.repos.d/virtio-win.repo ===
[virtio-win]
name=virtio-win
baseurl=file:///opt/zstack-dvd/$basearch/$YUM0/Extra/virtio-win
gpgcheck=0
enabled=0
module_hotfixes=true
=== /etc/yum.repos.d/zops-local.repo ===
[zops-local]
name=zops-local
baseurl=file:///opt/zops-rpm
gpgcheck=0
enabled=1
module_hotfixes=true

=== /etc/yum.repos.d/zstack-163-yum.repo ===
#163 base
[163base]
name=Rocky-$releasever - Base - mirrors.163.com
baseurl=http://mirrors.163.com/rocky/$releasever/BaseOS/$basearch/os/
gpgcheck=0
enabled=0
module_hotfixes=true

#released updates
[163updates]
name=Rocky-$releasever - Updates - mirrors.163.com
baseurl=http://mirrors.163.com/rocky/$releasever/AppStream/$basearch/os/
enabled=0
gpgcheck=0
module_hotfixes=true

#additional packages that may be useful
[163extras]
name=Rocky-$releasever - Extras - mirrors.163.com
baseurl=http://mirrors.163.com/rocky/$releasever/extras/$basearch/os/
enabled=0
gpgcheck=0
module_hotfixes=true

[ustcepel]
name=Extra Packages for Enterprise Linux $releasever - $basearch - ustc
baseurl=http://mirrors.ustc.edu.cn/epel/$releasever/Everything/$basearch
enabled=0
gpgcheck=0
module_hotfixes=true

[ustcepel-modular]
name=Extra Packages for Enterprise Linux Modular $releasever - $basearch - ustc
baseurl=http://mirrors.ustc.edu.cn/epel/$releasever/Modular/$basearch
enabled=0
gpgcheck=0
module_hotfixes=true
=== /etc/yum.repos.d/zstack-aliyun-yum.repo ===
#aliyun base
[alibase]
name=Rocky-$releasever - Base - mirrors.aliyun.com
baseurl=https://mirrors.aliyun.com/rockylinux/$releasever/BaseOS/$basearch/os/
gpgcheck=0
enabled=0
module_hotfixes=true

#released updates
[aliupdates]
name=Rocky-$releasever - Updates - mirrors.aliyun.com
baseurl=http://mirrors.aliyun.com/rockylinux/$releasever/AppStream/$basearch/os/
enabled=0
gpgcheck=0
module_hotfixes=true

[aliextras]
name=Rocky-$releasever - Extras - mirrors.aliyun.com
baseurl=https://mirrors.aliyun.com/rockylinux/$releasever/extras/$basearch/os/
enabled=0
gpgcheck=0
module_hotfixes=true

[aliepel]
name=Extra Packages for Enterprise Linux $releasever - $basearce - mirrors.aliyun.com
baseurl=http://mirrors.aliyun.com/epel/$releasever/Everything/$basearch
enabled=0
gpgcheck=0
module_hotfixes=true

[aliepel-modular]
name=Extra Packages for Enterprise Linux Modular $releasever - $basearce - mirrors.aliyun.com
baseurl=http://mirrors.aliyun.com/epel/$releasever/Modular/$basearch
enabled=0
gpgcheck=0
module_hotfixes=true

=== /etc/yum.repos.d/zstack-experimental-mn.repo ===
[zstack-experimental-mn]
name=zstack-experimental-mn
baseurl=http://172.17.44.131:8080/zstack/static/zstack-repo/$basearch/$YUM0/Extra/zstack-experimental/
gpgcheck=0
module_hotfixes=true
enabled=0
=== /etc/yum.repos.d/zstack-local.repo ===
[zstack-local]
name=zstack-local
baseurl=file:///opt/zstack-dvd/$basearch/$YUM0
gpgcheck=0
enabled=1
module_hotfixes=true
=== /etc/yum.repos.d/zstack-mn.repo ===
[zstack-mn]
name=zstack-mn
baseurl=http://172.17.44.131:8080/zstack/static/zstack-repo/$basearch/$YUM0/
gpgcheck=0
module_hotfixes=true
enabled=0
[root@zstack131 yum.repos.d]#

ちなみに、Rocky Linux 8.9のレポジトリ設定を持ってきて有効化すればセキュリティアップデートできるかな?と試してみたところ、コンフリクトエラーとなりました。

初期設定

設定はWeb管理画面にログインして行う。

http://<IPアドレス>:5000 にアクセスする

初期値は admin / password となっている。

ログインすると、初期設定Wizardが開く

これは「Exit Wizard」で終了してもよい。

Wizardで設定する項目は以下の順番となる
1) Create Zone (拠点を設定)
2) Create Cluster (仕様/用途が同じサーバ群のまとまりを設定)
3) Add Host (上記で作成したClusterに実際のサーバを登録)
4) Add Backup Storage (ISOイメージなどを保存するストレージを登録)
5) Add Primary Storage (稼働する仮想マシンを保存するストレージを登録)
6) Create Instance Offering (仮想マシンに割り当てるCPU/メモリなどのテンプレートを登録)
7) Add an Image (ISOファイルやテンプレートqcow2ファイルを登録/ブラウザからのアップロード機能は無い)
8) Create an L2 Network (ネットワークを定義しNICやVLAN IDを設定)
9) Create an L3 Network (L3ルータを設定する場合に仮想ルータを設定)

基本的にはWizardを進めていけばいいのだが、Wizardでは設定できない項目が多々あるため、事前に準備が必要となる。

Zstack GUIで設定を行う前に必要となる設定

Zstack環境上で仮想マシンを動かすための設定を行うために用意・設定しておく必要があるものとして以下がある。

・Primary Storageの用意

仮想マシンを配置するためのディスク Primary Storageを用意します。

前述のように「サーバのローカルディスク」「NFS共有」「MooseFS, GlusterFS, OCFS2, GFS2といった共有ファイルシステム」「Ceph」が使用できます。

「サーバのローカルディスク」「NFS共有」「MooseFS, GlusterFS, OCFS2, GFS2といった共有ファイルシステム」については、1つのクラスタに所属する全ノードで同じくアクセスできるように/etc/fstabを手動で編集する必要があります。

また、サーバのローカルディスクを使用する場合は、全サーバで同じパスを使いますが、各サーバ間でデータの移動はできないので注意が必要です。(Storage Migration機能が無い)

・Backup Storageの用意

ISOイメージなどを置く場所としてBackup Storage を用意します。

“Backup Storage”という名前からデータ保護に使用する用途のように見えますが、仮想マシン作成時に使用する元イメージを置く場所です。

「sftp」と「Ceph」が使用できますが、sftpに関する要求がおかしいので注意が必要です。

sftpとして指定したLinuxサーバに対して、Zstackはzsatckレポジトリを追加し必要なソフトウェアのインストールを実施します。zstackレポジトリのパッケージ群は通常のRHEL/AlmaLinux/RockyLinuxパッケージと互換性がないためコンフリクトを起こして設定に失敗します。

v5.0.0段階で確認した限りでは、ZstackでインストールしたLinuxサーバでないと成功しませんでした。

なので、Zstackサーバ群の1台に対して設定する形が一番良さそうです。

・ノードのNIC構成

また、Linux上のNICインタフェース名が同じでないと駄目なようです。

設定画面をいろいろ確認しましたが、クラスタとしてNICインタフェースを設定する形となっており、各ノードごとに個別調整ができるようにはなっていませんでした。

なので、サーバごとに差異がある場合、NIC1個のみ登録したbondingデバイスを作成して、デバイス名を統一させた方がよさそうです。

LACPを含めたbondingの設定はZstack GUIでは行えないため、Linux OS階層で実施しておく必要があります。/etc/sysconfig/network-scripts/ifcfg-デバイス名 のファイルを編集するやり方になります。

VLANの設定はZstack側で行う。

・ノードを接続するネットワークの用意

ノードを接続するネットワークは「普通のLAN(L2NoVlanNetwork)」「タグVLAN(L2VlanNetwork」「VxLanNetwork」の3種類がある。

タグVLANのVLAN ID設定やVxLan設定はZstack側の設定で行えるので、手動で設定する必要は無い。

Wizardを進める

事前準備をすませてからWizardを進めていく。

最初は

最初は「Create Zone」で、これはvSphere風ならデータセンター、OpenStack風ならavailability zone を設定する。

「Create cluster」でクラスタを設定する。所属するサーバすべてでマウントするパスやNICインタフェース名が同じである必要がある点に注意。

CPUアーキテクチャの指定にx86_64と64bit ARM以外に、mips64el/loongarch64と龍芯関連のアーキテクチャがあるというのが興味深いところです。

「Add Host」でZstackをインストールしたサーバを登録します。Wizardでは1台だけ追加できます。複数サーバある場合はWizard完了後に追加します。

「Next」をクリックすると、しばらーく、管理ソフトからノードのLinux側に対して登録処理のあれこれが行われます。

登録が完了すると「Add Backup Storage」になります。これはISOイメージなどの保管場所となります。

Zstackサーバの1台のローカルストレージに置く、というのが一番簡単なので、1台の情報をいれます。

Nextをクリックすると処理が行われ、指定したサーバに対してsshログインが行われ、必要な追加パッケージがインストールされていきます。

「Add Primary Storage」で仮想マシン用の仮想ディスク置き場を設定します。

同じクラスタに所属するサーバすべてから同じパスでアクセスできる必要があります。

「Create Instance Offering」で仮想マシンに割り当てるCPU/メモリサイズを定義します。OpenStack的に言えば「フレーバー」です

初期値はCPU 1コア/メモリ2GBだったんですが、ちょっと小さいかな、というので2コア/4GBに増量

「Add Image」で仮想マシンのOSインストールに使用するISOイメージを1つ登録します。ブラウザからファイルをアップロードすることはできず、http/https/ftp/sftp でファイルをとりにいく形になっています。

「Create L2 Network」で仮想マシンが使用するネットワークを定義します。

Wizardからだと「通常のLAN(L2NoVlanNetwork)」と「タグVLAN(L2VlanNetwork)」の2種類が設定できます。Wizard外だとVxLanも設定できます。

クラスタ単位で使うNICを指定します。このため、サーバごとでNICメーカが異なっていることでNIC名が変わってしまうような場合はそのままでは指定できないので注意が必要です。

「Create L3 Network」では、先のL2Networkで定義したネットワークで使用されるIPアドレス帯を指定します。標準設定のままではDHCPサーバーが有効化されて、仮想マシンに対してIPアドレスがdhcp経由で割り当てられるような形になっています。

以上でWizardは終了です。

Compute Node追加

Compute Node追加のスクショ

仮想マシンを作ってみる

「Launch console」をクリックすると別窓でVNCによるコンソール画面が表示されます。インストールISOを読み込ませている場合はISOから起動しているでしょう。

あとは普通にインストールしていきます。


ノードのプロセスとかいろいろ

[root@zstack130 ~]# uname -a
Linux zstack130.adosakana.local 4.18.0-425.19.2.3.g75f4bb8fb9a0.el8.x86_64 #1 SMP Wed Nov 15 21:30:37 EST 2023 x86_64 x86_64 x86_64 GNU/Linux
[root@zstack130 ~]# df -h
Filesystem               Size  Used Avail Use% Mounted on
devtmpfs                 9.7G   84K  9.7G   1% /dev
tmpfs                    9.7G  4.0K  9.7G   1% /dev/shm
tmpfs                    9.7G  1.5M  9.7G   1% /run
tmpfs                    9.7G     0  9.7G   0% /sys/fs/cgroup
/dev/mapper/zstack-root   89G   26G   64G  29% /
/dev/sda2               1014M  194M  821M  20% /boot
/dev/sda1                599M  5.8M  594M   1% /boot/efi
tmpfs                    2.0G     0  2.0G   0% /run/user/1000
overlay                   89G   26G   64G  29% /var/lib/docker/overlay2/a3acbf01e49fe69302ff3806052ce501c5a9e2c26ef15566e16e99cb920b9348/merged
tmpfs                    2.0G     0  2.0G   0% /run/user/0
/dev/sdb1                300G   31G  270G  11% /data
[root@zstack130 ~]# ps -ef|cat
UID          PID    PPID  C STIME TTY          TIME CMD
root           1       0  0 Apr02 ?        00:00:18 /usr/lib/systemd/systemd --switched-root --system --deserialize 18
root           2       0  0 Apr02 ?        00:00:00 [kthreadd]
root           3       2  0 Apr02 ?        00:00:00 [rcu_gp]
root           4       2  0 Apr02 ?        00:00:00 [rcu_par_gp]
root           6       2  0 Apr02 ?        00:00:00 [kworker/0:0H-events_highpri]
root           9       2  0 Apr02 ?        00:00:00 [mm_percpu_wq]
root          10       2  0 Apr02 ?        00:00:00 [rcu_tasks_rude_]
root          11       2  0 Apr02 ?        00:00:00 [rcu_tasks_trace]
root          12       2  0 Apr02 ?        00:00:15 [ksoftirqd/0]
root          13       2  0 Apr02 ?        00:00:48 [rcu_sched]
root          14       2  0 Apr02 ?        00:00:01 [migration/0]
root          15       2  0 Apr02 ?        00:00:00 [watchdog/0]
root          16       2  0 Apr02 ?        00:00:00 [cpuhp/0]
root          17       2  0 Apr02 ?        00:00:00 [cpuhp/1]
root          18       2  0 Apr02 ?        00:00:00 [watchdog/1]
root          19       2  0 Apr02 ?        00:00:01 [migration/1]
root          20       2  0 Apr02 ?        00:00:21 [ksoftirqd/1]
root          22       2  0 Apr02 ?        00:00:00 [kworker/1:0H-events_highpri]
root          23       2  0 Apr02 ?        00:00:00 [cpuhp/2]
root          24       2  0 Apr02 ?        00:00:00 [watchdog/2]
root          25       2  0 Apr02 ?        00:00:01 [migration/2]
root          26       2  0 Apr02 ?        00:00:15 [ksoftirqd/2]
root          28       2  0 Apr02 ?        00:00:00 [kworker/2:0H-events_highpri]
root          29       2  0 Apr02 ?        00:00:00 [cpuhp/3]
root          30       2  0 Apr02 ?        00:00:00 [watchdog/3]
root          31       2  0 Apr02 ?        00:00:01 [migration/3]
root          32       2  0 Apr02 ?        00:00:19 [ksoftirqd/3]
root          34       2  0 Apr02 ?        00:00:00 [kworker/3:0H-events_highpri]
root          39       2  0 Apr02 ?        00:00:00 [kdevtmpfs]
root          40       2  0 Apr02 ?        00:00:00 [netns]
root          41       2  0 Apr02 ?        00:00:00 [kauditd]
root          42       2  0 Apr02 ?        00:00:00 [khungtaskd]
root          43       2  0 Apr02 ?        00:00:00 [oom_reaper]
root          44       2  0 Apr02 ?        00:00:00 [writeback]
root          45       2  0 Apr02 ?        00:00:00 [kcompactd0]
root          46       2  0 Apr02 ?        00:00:00 [ksmd]
root          47       2  0 Apr02 ?        00:00:03 [khugepaged]
root          48       2  0 Apr02 ?        00:00:00 [crypto]
root          49       2  0 Apr02 ?        00:00:00 [kintegrityd]
root          50       2  0 Apr02 ?        00:00:00 [kblockd]
root          51       2  0 Apr02 ?        00:00:00 [blkcg_punt_bio]
root          52       2  0 Apr02 ?        00:00:00 [tpm_dev_wq]
root          53       2  0 Apr02 ?        00:00:00 [md]
root          54       2  0 Apr02 ?        00:00:00 [edac-poller]
root          55       2  0 Apr02 ?        00:00:00 [watchdogd]
root          57       2  0 Apr02 ?        00:00:07 [kworker/0:1H-kblockd]
root          91       2  0 Apr02 ?        00:00:07 [kswapd0]
root         193       2  0 Apr02 ?        00:00:00 [kthrotld]
root         194       2  0 Apr02 ?        00:00:00 [irq/25-pciehp]
root         195       2  0 Apr02 ?        00:00:00 [irq/26-pciehp]
root         196       2  0 Apr02 ?        00:00:00 [irq/27-pciehp]
root         197       2  0 Apr02 ?        00:00:00 [irq/28-pciehp]
root         198       2  0 Apr02 ?        00:00:00 [irq/29-pciehp]
root         199       2  0 Apr02 ?        00:00:00 [irq/30-pciehp]
root         200       2  0 Apr02 ?        00:00:00 [irq/31-pciehp]
root         201       2  0 Apr02 ?        00:00:00 [irq/32-pciehp]
root         202       2  0 Apr02 ?        00:00:00 [irq/33-pciehp]
root         203       2  0 Apr02 ?        00:00:00 [irq/34-pciehp]
root         204       2  0 Apr02 ?        00:00:00 [irq/35-pciehp]
root         205       2  0 Apr02 ?        00:00:00 [irq/36-pciehp]
root         206       2  0 Apr02 ?        00:00:00 [irq/37-pciehp]
root         207       2  0 Apr02 ?        00:00:00 [irq/38-pciehp]
root         208       2  0 Apr02 ?        00:00:00 [irq/39-pciehp]
root         209       2  0 Apr02 ?        00:00:00 [irq/40-pciehp]
root         210       2  0 Apr02 ?        00:00:00 [irq/41-pciehp]
root         211       2  0 Apr02 ?        00:00:00 [irq/42-pciehp]
root         212       2  0 Apr02 ?        00:00:00 [irq/43-pciehp]
root         213       2  0 Apr02 ?        00:00:00 [irq/44-pciehp]
root         214       2  0 Apr02 ?        00:00:00 [irq/45-pciehp]
root         215       2  0 Apr02 ?        00:00:00 [irq/46-pciehp]
root         216       2  0 Apr02 ?        00:00:00 [irq/47-pciehp]
root         217       2  0 Apr02 ?        00:00:00 [irq/48-pciehp]
root         218       2  0 Apr02 ?        00:00:00 [irq/49-pciehp]
root         219       2  0 Apr02 ?        00:00:00 [irq/50-pciehp]
root         220       2  0 Apr02 ?        00:00:00 [irq/51-pciehp]
root         221       2  0 Apr02 ?        00:00:00 [irq/52-pciehp]
root         222       2  0 Apr02 ?        00:00:00 [irq/53-pciehp]
root         223       2  0 Apr02 ?        00:00:00 [irq/54-pciehp]
root         224       2  0 Apr02 ?        00:00:00 [irq/55-pciehp]
root         225       2  0 Apr02 ?        00:00:00 [irq/56-pciehp]
root         227       2  0 Apr02 ?        00:00:00 [acpi_thermal_pm]
root         228       2  0 Apr02 ?        00:00:00 [kmpath_rdacd]
root         229       2  0 Apr02 ?        00:00:00 [kaluad]
root         231       2  0 Apr02 ?        00:00:00 [ipv6_addrconf]
root         232       2  0 Apr02 ?        00:00:00 [kstrp]
root         316       2  0 Apr02 ?        00:00:07 [kworker/1:1H-kblockd]
root         346       2  0 Apr02 ?        00:00:08 [kworker/3:1H-xfs-log/dm-0]
root         349       2  0 Apr02 ?        00:00:08 [kworker/2:1H-xfs-log/dm-0]
root         547       2  0 Apr02 ?        00:00:00 [ata_sff]
root         549       2  0 Apr02 ?        00:00:00 [scsi_eh_0]
root         550       2  0 Apr02 ?        00:00:00 [scsi_tmf_0]
root         551       2  0 Apr02 ?        00:00:00 [vmw_pvscsi_wq_0]
root         552       2  0 Apr02 ?        00:00:00 [scsi_eh_1]
root         553       2  0 Apr02 ?        00:00:00 [scsi_tmf_1]
root         554       2  0 Apr02 ?        00:00:00 [scsi_eh_2]
root         555       2  0 Apr02 ?        00:00:00 [scsi_tmf_2]
root         557       2  0 Apr02 ?        00:00:00 [scsi_eh_3]
root         558       2  0 Apr02 ?        00:00:00 [scsi_tmf_3]
root         559       2  0 Apr02 ?        00:00:00 [scsi_eh_4]
root         560       2  0 Apr02 ?        00:00:00 [scsi_tmf_4]
root         561       2  0 Apr02 ?        00:00:00 [scsi_eh_5]
root         562       2  0 Apr02 ?        00:00:00 [scsi_tmf_5]
root         563       2  0 Apr02 ?        00:00:00 [scsi_eh_6]
root         564       2  0 Apr02 ?        00:00:00 [scsi_tmf_6]
root         566       2  0 Apr02 ?        00:00:00 [scsi_eh_7]
root         567       2  0 Apr02 ?        00:00:00 [scsi_tmf_7]
root         568       2  0 Apr02 ?        00:00:00 [scsi_eh_8]
root         569       2  0 Apr02 ?        00:00:00 [scsi_tmf_8]
root         570       2  0 Apr02 ?        00:00:00 [scsi_eh_9]
root         571       2  0 Apr02 ?        00:00:00 [scsi_tmf_9]
root         572       2  0 Apr02 ?        00:00:00 [scsi_eh_10]
root         573       2  0 Apr02 ?        00:00:00 [scsi_tmf_10]
root         574       2  0 Apr02 ?        00:00:00 [scsi_eh_11]
root         575       2  0 Apr02 ?        00:00:00 [scsi_tmf_11]
root         576       2  0 Apr02 ?        00:00:00 [scsi_eh_12]
root         578       2  0 Apr02 ?        00:00:00 [scsi_tmf_12]
root         579       2  0 Apr02 ?        00:00:00 [scsi_eh_13]
root         580       2  0 Apr02 ?        00:00:00 [scsi_tmf_13]
root         581       2  0 Apr02 ?        00:00:00 [scsi_eh_14]
root         582       2  0 Apr02 ?        00:00:00 [scsi_tmf_14]
root         584       2  0 Apr02 ?        00:00:00 [scsi_eh_15]
root         585       2  0 Apr02 ?        00:00:00 [scsi_tmf_15]
root         587       2  0 Apr02 ?        00:00:00 [scsi_eh_16]
root         588       2  0 Apr02 ?        00:00:00 [scsi_tmf_16]
root         589       2  0 Apr02 ?        00:00:00 [scsi_eh_17]
root         590       2  0 Apr02 ?        00:00:00 [scsi_tmf_17]
root         591       2  0 Apr02 ?        00:00:00 [scsi_eh_18]
root         592       2  0 Apr02 ?        00:00:00 [scsi_tmf_18]
root         593       2  0 Apr02 ?        00:00:00 [scsi_eh_19]
root         594       2  0 Apr02 ?        00:00:00 [scsi_tmf_19]
root         595       2  0 Apr02 ?        00:00:00 [scsi_eh_20]
root         596       2  0 Apr02 ?        00:00:00 [scsi_tmf_20]
root         598       2  0 Apr02 ?        00:00:00 [scsi_eh_21]
root         599       2  0 Apr02 ?        00:00:00 [scsi_tmf_21]
root         601       2  0 Apr02 ?        00:00:00 [scsi_eh_22]
root         603       2  0 Apr02 ?        00:00:00 [scsi_tmf_22]
root         604       2  0 Apr02 ?        00:00:02 [irq/16-vmwgfx]
root         605       2  0 Apr02 ?        00:00:00 [scsi_eh_23]
root         606       2  0 Apr02 ?        00:00:00 [card0-crtc0]
root         607       2  0 Apr02 ?        00:00:00 [scsi_tmf_23]
root         608       2  0 Apr02 ?        00:00:00 [card0-crtc1]
root         609       2  0 Apr02 ?        00:00:00 [scsi_eh_24]
root         610       2  0 Apr02 ?        00:00:00 [scsi_tmf_24]
root         611       2  0 Apr02 ?        00:00:00 [card0-crtc2]
root         612       2  0 Apr02 ?        00:00:00 [scsi_eh_25]
root         613       2  0 Apr02 ?        00:00:00 [scsi_tmf_25]
root         614       2  0 Apr02 ?        00:00:00 [card0-crtc3]
root         615       2  0 Apr02 ?        00:00:00 [card0-crtc4]
root         616       2  0 Apr02 ?        00:00:00 [card0-crtc5]
root         617       2  0 Apr02 ?        00:00:00 [scsi_eh_26]
root         618       2  0 Apr02 ?        00:00:00 [card0-crtc6]
root         619       2  0 Apr02 ?        00:00:00 [scsi_tmf_26]
root         620       2  0 Apr02 ?        00:00:00 [scsi_eh_27]
root         621       2  0 Apr02 ?        00:00:00 [scsi_tmf_27]
root         622       2  0 Apr02 ?        00:00:00 [scsi_eh_28]
root         623       2  0 Apr02 ?        00:00:00 [scsi_tmf_28]
root         624       2  0 Apr02 ?        00:00:00 [scsi_eh_29]
root         625       2  0 Apr02 ?        00:00:00 [scsi_tmf_29]
root         626       2  0 Apr02 ?        00:00:00 [scsi_eh_30]
root         627       2  0 Apr02 ?        00:00:00 [scsi_tmf_30]
root         628       2  0 Apr02 ?        00:00:00 [scsi_eh_31]
root         629       2  0 Apr02 ?        00:00:00 [scsi_tmf_31]
root         630       2  0 Apr02 ?        00:00:00 [scsi_eh_32]
root         631       2  0 Apr02 ?        00:00:00 [scsi_tmf_32]
root         661       2  0 Apr02 ?        00:00:00 [card0-crtc7]
root         726       2  0 Apr02 ?        00:00:00 [kdmflush/253:0]
root         737       2  0 Apr02 ?        00:00:00 [kdmflush/253:1]
root         761       2  0 Apr02 ?        00:00:00 [xfsalloc]
root         763       2  0 Apr02 ?        00:00:00 [xfs_mru_cache]
root         764       2  0 Apr02 ?        00:00:00 [xfs-buf/dm-0]
root         765       2  0 Apr02 ?        00:00:00 [xfs-conv/dm-0]
root         766       2  0 Apr02 ?        00:00:00 [xfs-cil/dm-0]
root         767       2  0 Apr02 ?        00:00:00 [xfs-reclaim/dm-]
root         768       2  0 Apr02 ?        00:00:00 [xfs-gc/dm-0]
root         770       2  0 Apr02 ?        00:00:00 [xfs-log/dm-0]
root         771       2  0 Apr02 ?        00:00:10 [xfsaild/dm-0]
root         915       1  0 Apr02 ?        00:00:00 /usr/lib/systemd/systemd-udevd
root         963       2  0 Apr02 ?        00:00:00 [xfs-buf/sda2]
root         964       2  0 Apr02 ?        00:00:00 [xfs-conv/sda2]
root         965       2  0 Apr02 ?        00:00:00 [xfs-cil/sda2]
root         966       2  0 Apr02 ?        00:00:00 [xfs-reclaim/sda]
root         967       2  0 Apr02 ?        00:00:00 [xfs-gc/sda2]
root         971       2  0 Apr02 ?        00:00:00 [xfs-log/sda2]
root         972       2  0 Apr02 ?        00:00:00 [xfsaild/sda2]
root         973       2  0 Apr02 ?        00:00:00 [nfit]
rpc         1014       1  0 Apr02 ?        00:00:00 /usr/bin/rpcbind -w -f
root        1018       1  0 Apr02 ?        00:00:04 /sbin/auditd
root        1020       2  0 Apr02 ?        00:00:00 [rpciod]
root        1021       2  0 Apr02 ?        00:00:00 [xprtiod]
root        1056       1  0 Apr02 ?        00:00:02 /usr/sbin/irqbalance --foreground
dbus        1057       1  0 Apr02 ?        00:00:21 /usr/bin/dbus-daemon --system --address=systemd: --nofork --nopidfile --systemd-activation --syslog-only
polkitd     1058       1  0 Apr02 ?        00:00:07 /usr/lib/polkit-1/polkitd --no-debug
root        1063       1  0 Apr02 ?        00:00:04 /usr/lib/systemd/systemd-logind
root        1076       1  0 Apr02 ?        00:00:00 /usr/bin/lttng-sessiond -d
root        1077    1076  0 Apr02 ?        00:00:00 lttng-runas             -d
root        1461       1  0 Apr02 ?        00:00:00 /usr/sbin/sshd -D -oCiphers=aes256-gcm@openssh.com,chacha20-poly1305@openssh.com,aes256-ctr,aes256-cbc,aes128-gcm@openssh.com,aes128-ctr,aes128-cbc -oMACs=hmac-sha2-256-etm@openssh.com,hmac-sha1-etm@openssh.com,umac-128-etm@openssh.com,hmac-sha2-512-etm@openssh.com,hmac-sha2-256,hmac-sha1,umac-128@openssh.com,hmac-sha2-512 -oGSSAPIKexAlgorithms=gss-curve25519-sha256-,gss-nistp256-sha256-,gss-group14-sha256-,gss-group16-sha512-,gss-gex-sha1-,gss-group14-sha1- -oKexAlgorithms=curve25519-sha256,curve25519-sha256@libssh.org,ecdh-sha2-nistp256,ecdh-sha2-nistp384,ecdh-sha2-nistp521,diffie-hellman-group-exchange-sha256,diffie-hellman-group14-sha256,diffie-hellman-group16-sha512,diffie-hellman-group18-sha512,diffie-hellman-group-exchange-sha1,diffie-hellman-group14-sha1 -oHostKeyAlgorithms=ecdsa-sha2-nistp256,ecdsa-sha2-nistp256-cert-v01@openssh.com,ecdsa-sha2-nistp384,ecdsa-sha2-nistp384-cert-v01@openssh.com,ecdsa-sha2-nistp521,ecdsa-sha2-nistp521-cert-v01@openssh.com,ssh-ed25519,ssh-ed25519-cert-v01@openssh.com,rsa-sha2-256,rsa-sha2-256-cert-v01@openssh.com,rsa-sha2-512,rsa-sha2-512-cert-v01@openssh.com,ssh-rsa,ssh-rsa-cert-v01@openssh.com -oPubkeyAcceptedKeyTypes=ecdsa-sha2-nistp256,ecdsa-sha2-nistp256-cert-v01@openssh.com,ecdsa-sha2-nistp384,ecdsa-sha2-nistp384-cert-v01@openssh.com,ecdsa-sha2-nistp521,ecdsa-sha2-nistp521-cert-v01@openssh.com,ssh-ed25519,ssh-ed25519-cert-v01@openssh.com,rsa-sha2-256,rsa-sha2-256-cert-v01@openssh.com,rsa-sha2-512,rsa-sha2-512-cert-v01@openssh.com,ssh-rsa,ssh-rsa-cert-v01@openssh.com -oCASignatureAlgorithms=ecdsa-sha2-nistp256,ecdsa-sha2-nistp384,ecdsa-sha2-nistp521,ssh-ed25519,rsa-sha2-256,rsa-sha2-512,ssh-rsa
root        1462       1  0 Apr02 ?        00:11:11 /usr/libexec/platform-python -Es /usr/sbin/tuned -l -P
root        1470       1  0 Apr02 ?        00:00:00 /usr/sbin/gssproxy -D
root        1480       1  0 Apr02 ?        00:00:00 /usr/sbin/crond -n
root        1485       1  0 Apr02 tty2     00:00:00 /sbin/agetty --noclear tty2 linux
chrony     33313       1  0 Apr02 ?        00:00:00 /usr/sbin/chronyd
root       40901       1  0 Apr02 ?        00:02:17 /usr/local/zstack/zsn-agent/bin/zsn-agent -log-file /var/log/zstack/zsn-agent/zsn-agent.log -tmout 960 2>/tmp/zsn.error.log
mysql      48667       1  0 Apr02 ?        00:07:09 /usr/libexec/mysqld --basedir=/usr
zstack     49291       1  0 Apr02 ?        00:00:00 /usr/lib/systemd/systemd --user
zstack     49293   49291  0 Apr02 ?        00:00:00 (sd-pam)
zstack     50480       1  2 Apr02 ?        00:30:06 //bin/java -Djava.util.logging.config.file=/usr/local/zstack/apache-tomcat/conf/logging.properties -Djava.util.logging.manager=org.apache.juli.ClassLoaderLogManager -Djdk.tls.ephemeralDHKeySize=2048 -Djava.protocol.handler.pkgs=org.apache.catalina.webresources -Dorg.apache.catalina.security.SecurityListener.UMASK=0027 -Djdk.tls.trustNameService=true -Djava.net.preferIPv4Stack=true -Dcom.sun.management.jmxremote=true -Djava.security.egd=file:/dev/./urandom -XX:-OmitStackTraceInFastThrow -XX:MaxMetaspaceSize=512m -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/usr/local/zstack/apache-tomcat/webapps/zstack/../../logs/heap.hprof -XX:+UseAltSigs -Dlog4j2.formatMsgNoLookups=true -Xms512M -Xmx12288M -Dignore.endorsed.dirs= -classpath /usr/local/zstack/apache-tomcat/bin/bootstrap.jar:/usr/local/zstack/apache-tomcat/bin/tomcat-juli.jar -Dcatalina.base=/usr/local/zstack/apache-tomcat -Dcatalina.home=/usr/local/zstack/apache-tomcat -Djava.io.tmpdir=/usr/local/zstack/apache-tomcat/temp org.apache.catalina.startup.Bootstrap -DappName=zstack start
zstack     51983       1  0 Apr02 ?        00:00:13 /usr/local/zstack/apache-tomcat-8.5.99/webapps/zstack/WEB-INF/classes/tools/pushgateway --web.listen-address 172.17.44.130:9091 --persistence.file /var/lib/zstack/prometheus/pushgateway/persistence.data --persistence.interval 1m
root       52672       1  2 Apr02 ?        00:38:28 /usr/local/zstack/apache-tomcat-8.5.99/webapps/zstack/WEB-INF/classes/tools/prometheus2 --web.enable-admin-api --web.listen-address 172.17.44.130:9090 --storage.tsdb.path /var/lib/zstack/prometheus/data2 --storage.tsdb.retention.time 4320h --storage.tsdb.retention.size 64GB --config.file /usr/local/zstack/prometheus/conf.yaml --storage.tsdb.min-block-duration 2h --query.max-concurrency 20 --query.timeout 2m
zstack     54200       1  0 Apr02 ?        00:01:10 PM2 v5.2.2: God Daemon (/usr/local/zstack/.pm2)
zstack     54226   54200  0 Apr02 ?        00:02:35 node /usr/local/zstack/.pm2/modules/pm2-logrotate/node_modules/pm2-logrotate/
zstack     54237   54200  0 Apr02 ?        00:06:58 node /usr/local/zstack/zstack-ui/zstack-ui-server/src/main.js
root       54263       1  0 Apr02 ?        00:00:00 nginx: master process /usr/sbin/nginx -c /usr/local/zstack/zstack-ui/configs/nginx.conf -p /usr/local/zstack/zstack-ui
zstack     54266   54263  0 Apr02 ?        00:00:00 nginx: worker process
zstack     54267   54263  0 Apr02 ?        00:00:02 nginx: worker process
zstack     54268   54263  0 Apr02 ?        00:00:02 nginx: worker process
zstack     54269   54263  0 Apr02 ?        00:00:02 nginx: worker process
redis      54271       1  0 Apr02 ?        00:01:44 /usr/bin/redis-server *:6379
root       56490       1  0 Apr02 ?        00:01:24 python -c from consoleproxy import cdaemon; cdaemon.main() start
root       56825       1  0 Apr02 ?        00:00:38 /usr/lib/systemd/systemd-journald
root       60864       1  0 Apr02 ?        00:00:12 /usr/bin/containerd
root       60875       1  0 Apr02 ?        00:00:29 /usr/bin/dockerd -H fd:// --containerd=/run/containerd/containerd.sock
root       62206   60864  0 Apr02 ?        00:00:05 containerd-shim -namespace moby -workdir /var/lib/containerd/io.containerd.runtime.v1.linux/moby/e85a2c10196ea40406422964be497502879bffb67e68e20f888fb58335822d2b -address /run/containerd/containerd.sock -containerd-binary /usr/bin/containerd -runtime-root /var/run/docker/runtime-runc
root       62224   62206  0 Apr02 ?        00:00:00 /usr/sbin/init
root       62251   62224  0 Apr02 ?        00:00:00 /usr/lib/systemd/systemd-journald
root       62314   62224  0 Apr02 ?        00:00:00 /usr/lib/systemd/systemd-logind
dbus       62317   62224  0 Apr02 ?        00:00:00 /usr/bin/dbus-daemon --system --address=systemd: --nofork --nopidfile --systemd-activation
root       62320   62224  0 Apr02 ?        00:00:00 /usr/bin/rsync --daemon --no-detach
root       62563   62224  0 Apr02 ?        00:03:06 java -Dlog4j.configurationFile=/root/.zops/log4j2-server.xml -Dlog.location=/var/log/zops/zops-server.log -Xmx2048m -Xmn512m -XX:MaxDirectMemorySize=1024m -Xlog:gc*:/var/log/zops/zops.gc.log:time -jar /usr/local/lib/zops/zops-server start
root       62774   62224  0 Apr02 ?        00:00:00 /usr/bin/python3 /webssh/run.py --port=8888 --xsrf=false --delay=3000 --fbidhttp=false
root       62972   62224  0 Apr02 ?        00:00:07 python3 -m websockify --token-plugin TokenFile --token-source /var/lib/cobbler/kickstarts/token/ 26080
root       63155       1  0 Apr02 ?        00:00:00 /usr/lib/systemd/systemd --user
root       63158   63155  0 Apr02 ?        00:00:00 (sd-pam)
root       63893       1  0 Apr02 ?        00:00:00 crond
root       65492    1461  0 Apr02 ?        00:00:00 sshd: root [priv]
root       65499   65492  0 Apr02 ?        00:00:00 sshd: root@notty
root       70526       2  0 Apr02 ?        00:00:00 [xfs-buf/sdb1]
root       70527       2  0 Apr02 ?        00:00:00 [xfs-conv/sdb1]
root       70528       2  0 Apr02 ?        00:00:00 [xfs-cil/sdb1]
root       70529       2  0 Apr02 ?        00:00:00 [xfs-reclaim/sdb]
root       70530       2  0 Apr02 ?        00:00:00 [xfs-gc/sdb1]
root       70532       2  0 Apr02 ?        00:00:00 [xfs-log/sdb1]
root       70533       2  0 Apr02 ?        00:00:06 [xfsaild/sdb1]
root       73761    1461  0 Apr02 ?        00:00:00 sshd: root [priv]
root       73765   73761  0 Apr02 ?        00:00:00 sshd: root@notty
root       76368       1  0 Apr02 ?        00:00:20 /usr/sbin/rsyslogd -n
root       80285       2  0 Apr02 ?        00:00:00 [ipmi-msghandler]
root      100676       1  0 Apr02 ?        00:00:00 /usr/lib/systemd/systemd-machined
root      100872       1  0 Apr02 ?        00:00:00 /usr/sbin/virtlogd
root      107302       2  0 Apr02 ?        00:00:00 [uas]
root      107342       1  0 Apr02 ?        00:01:04 /usr/sbin/libvirtd --listen
root      107516       1  5 Apr02 ?        01:15:20 python -c from kvmagent import kdaemon; kdaemon.main() start
root      108083       2  0 Apr02 ?        00:00:00 [kmpathd]
root      108088       2  0 Apr02 ?        00:00:00 [kmpath_handlerd]
root      108176       1  0 Apr02 ?        00:00:51 /sbin/multipathd -d -s
root      120326       1  0 Apr02 ?        00:00:46 /usr/local/zstack/zsblk-agent/bin/zsblk-agent -free-space 5368709120 -increment 5368709120 -log-file /var/log/zstack/zsblk-agent/zsblk-agent.log -qmp-socket-dir /var/lib/libvirt/qemu/zstack/ -utilization-percent 85 -lk-helper-max-times 6 -lk-helper-scan-interval 15 -lk-helper-protection-period 1800 -verbose false
root      123604       2  0 Apr02 ?        00:00:00 [nvme-wq]
root      123606       2  0 Apr02 ?        00:00:00 [nvme-reset-wq]
root      123607       2  0 Apr02 ?        00:00:00 [nvme-delete-wq]
root      123702       1  0 Apr02 ?        00:00:00 collectdmon -- -C /var/lib/zstack/kvm/collectd.conf
root      123703  123702  0 Apr02 ?        00:00:32 collectd -C /var/lib/zstack/kvm/collectd.conf -f
root      123752       1  0 Apr02 ?        00:00:00 /bin/sh -c /var/lib/zstack/kvm/collectd_exporter  -collectd.listen-address :25826  > /var/lib/zstack/kvm/collectd_exporter.log 2>&1
root      123753  123752  0 Apr02 ?        00:00:52 /var/lib/zstack/kvm/collectd_exporter -collectd.listen-address :25826
root      123793       1  0 Apr02 ?        00:00:00 /bin/sh -c /var/lib/zstack/kvm/node_exporter  > /var/lib/zstack/kvm/node_exporter.log 2>&1
root      123794  123793  0 Apr02 ?        00:03:47 /var/lib/zstack/kvm/node_exporter
root      123828       1  0 Apr02 ?        00:00:00 /bin/sh -c /var/lib/zstack/kvm/pushgateway --persistence.file /var/lib/zstack/prometheus/host_pushgateway/persistence.data --persistence.interval 1m --web.listen-address :9092 --metric.timetolive 60s > /dev/null 2>&1
root      123829  123828  0 Apr02 ?        00:00:13 /var/lib/zstack/kvm/pushgateway --persistence.file /var/lib/zstack/prometheus/host_pushgateway/persistence.data --persistence.interval 1m --web.listen-address :9092 --metric.timetolive 60s
root      123905       2  0 Apr02 ?        00:00:00 [vfio-irqfd-clea]
root      123999       1  0 Apr02 ?        00:00:00 /usr/sbin/lldpd
lldpd     124008  123999  0 Apr02 ?        00:00:01 /usr/sbin/lldpd
root      132072       1  0 Apr02 ?        00:01:25 python -c from sftpbackupstorage import sftpbackupstoragedaemon; sftpbackupstoragedaemon.main() start
root      203816       1  0 Apr02 ?        00:00:00 lighttpd -f /var/lib/zstack/userdata/br_ens192_112818252d334d51938245d0ddb3e9c9/lighttpd.conf
root      203817  203816  0 Apr02 ?        00:00:01 lighttpd -f /var/lib/zstack/userdata/br_ens192_112818252d334d51938245d0ddb3e9c9/lighttpd.conf
root      226220       1  6 Apr02 ?        01:28:37 /usr/libexec/qemu-kvm -name guest=9140709d82b84199831c2899060939bc,debug-threads=on -S -object {"qom-type":"secret","id":"masterKey0","format":"raw","file":"/var/lib/libvirt/qemu/domain-2-9140709d82b84199831c/master-key.aes"} -blockdev {"driver":"file","filename":"/usr/share/edk2.git/ovmf-x64/OVMF_CODE-pure-efi.fd","node-name":"libvirt-pflash0-storage","auto-read-only":true,"discard":"unmap"} -blockdev {"node-name":"libvirt-pflash0-format","read-only":true,"driver":"raw","file":"libvirt-pflash0-storage"} -blockdev {"driver":"file","filename":"/var/lib/libvirt/qemu/nvram/9140709d82b84199831c2899060939bc.fd","node-name":"libvirt-pflash1-storage","auto-read-only":true,"discard":"unmap"} -blockdev {"node-name":"libvirt-pflash1-format","read-only":false,"driver":"raw","file":"libvirt-pflash1-storage"} -machine pc-q35-rhel8.6.0,usb=off,dump-guest-core=off,kernel_irqchip=on,pflash0=libvirt-pflash0-format,pflash1=libvirt-pflash1-format,memory-backend=pc.ram -accel kvm -cpu qemu64 -m 4096 -object {"qom-type":"memory-backend-ram","id":"pc.ram","size":4294967296} -overcommit mem-lock=off -smp 2,sockets=1,dies=1,cores=2,threads=1 -uuid 9140709d-82b8-4199-831c-2899060939bc -smbios type=1,serial=13e36eec-8352-4daa-a704-333d3623b6b2 -smbios type=3,manufacturer=,asset=www.zstack.io -no-user-config -nodefaults -chardev socket,id=charmonitor,fd=38,server=on,wait=off -mon chardev=charmonitor,id=monitor,mode=control -rtc base=utc -no-shutdown -global ICH9-LPC.disable_s3=1 -global ICH9-LPC.disable_s4=1 -boot menu=on,splash-time=3000,strict=on -device i82801b11-bridge,id=pci.1,bus=pcie.0,addr=0x1e -device pci-bridge,chassis_nr=2,id=pci.2,bus=pci.1,addr=0x0 -device pcie-root-port,port=16,chassis=3,id=pci.3,bus=pcie.0,multifunction=on,addr=0x2 -device pcie-root-port,port=17,chassis=4,id=pci.4,bus=pcie.0,addr=0x2.0x1 -device pcie-root-port,port=18,chassis=5,id=pci.5,bus=pcie.0,addr=0x2.0x2 -device pcie-root-port,port=19,chassis=6,id=pci.6,bus=pcie.0,addr=0x2.0x3 -device pcie-root-port,port=20,chassis=7,id=pci.7,bus=pcie.0,addr=0x2.0x4 -device pcie-root-port,port=21,chassis=8,id=pci.8,bus=pcie.0,addr=0x2.0x5 -device pcie-root-port,port=22,chassis=9,id=pci.9,bus=pcie.0,addr=0x2.0x6 -device pcie-root-port,port=23,chassis=10,id=pci.10,bus=pcie.0,addr=0x2.0x7 -device pcie-root-port,port=24,chassis=11,id=pci.11,bus=pcie.0,multifunction=on,addr=0x3 -device pcie-root-port,port=25,chassis=12,id=pci.12,bus=pcie.0,addr=0x3.0x1 -device pcie-root-port,port=26,chassis=13,id=pci.13,bus=pcie.0,addr=0x3.0x2 -device pcie-root-port,port=27,chassis=14,id=pci.14,bus=pcie.0,addr=0x3.0x3 -device pcie-root-port,port=28,chassis=15,id=pci.15,bus=pcie.0,addr=0x3.0x4 -device pcie-root-port,port=29,chassis=16,id=pci.16,bus=pcie.0,addr=0x3.0x5 -device pcie-root-port,port=30,chassis=17,id=pci.17,bus=pcie.0,addr=0x3.0x6 -device pcie-root-port,port=31,chassis=18,id=pci.18,bus=pcie.0,addr=0x3.0x7 -device pcie-root-port,port=32,chassis=19,id=pci.19,bus=pcie.0,multifunction=on,addr=0x4 -device pcie-root-port,port=33,chassis=20,id=pci.20,bus=pcie.0,addr=0x4.0x1 -device pcie-root-port,port=34,chassis=21,id=pci.21,bus=pcie.0,addr=0x4.0x2 -device pcie-root-port,port=35,chassis=22,id=pci.22,bus=pcie.0,addr=0x4.0x3 -device pcie-root-port,port=36,chassis=23,id=pci.23,bus=pcie.0,addr=0x4.0x4 -device pcie-root-port,port=37,chassis=24,id=pci.24,bus=pcie.0,addr=0x4.0x5 -device pcie-root-port,port=38,chassis=25,id=pci.25,bus=pcie.0,addr=0x4.0x6 -device pcie-root-port,port=39,chassis=26,id=pci.26,bus=pcie.0,addr=0x4.0x7 -device pcie-root-port,port=40,chassis=27,id=pci.27,bus=pcie.0,multifunction=on,addr=0x5 -device pcie-root-port,port=41,chassis=28,id=pci.28,bus=pcie.0,addr=0x5.0x1 -device pcie-root-port,port=42,chassis=29,id=pci.29,bus=pcie.0,addr=0x5.0x2 -device pcie-root-port,port=43,chassis=30,id=pci.30,bus=pcie.0,addr=0x5.0x3 -device piix3-usb-uhci,id=usb,bus=pci.2,addr=0x1 -device usb-ehci,id=usb1,bus=pci.2,addr=0x2 -device nec-usb-xhci,id=usb2,bus=pci.5,addr=0x0 -device usb-ehci,id=usb3,bus=pci.2,addr=0x3 -device nec-usb-xhci,id=usb4,bus=pci.6,addr=0x0 -device virtio-scsi-pci,id=scsi0,bus=pci.4,addr=0x0 -device virtio-serial-pci,id=virtio-serial0,bus=pci.7,addr=0x0 -blockdev {"driver":"file","filename":"/data/vms/rootVolumes/acct-36c27e8ff05c4780bf6d2fa65700f22e/vol-e964d0df55d341c6906c6170a70b40b8/e964d0df55d341c6906c6170a70b40b8.qcow2","node-name":"libvirt-2-storage","cache":{"direct":true,"no-flush":false},"auto-read-only":true,"discard":"unmap"} -blockdev {"node-name":"libvirt-2-format","read-only":false,"discard":"unmap","cache":{"direct":true,"no-flush":false},"driver":"qcow2","file":"libvirt-2-storage","backing":null} -device virtio-blk-pci,bus=pci.8,addr=0x0,drive=libvirt-2-format,id=virtio-disk0,bootindex=1,write-cache=on,serial=e964d0df55d341c6906c6170a70b40b8 -blockdev {"driver":"file","filename":"/data/vms/imagecache/iso/3207956b4f6e4e188f1ec579af8e81bd/3207956b4f6e4e188f1ec579af8e81bd.iso","node-name":"libvirt-1-storage","auto-read-only":true,"discard":"unmap"} -blockdev {"node-name":"libvirt-1-format","read-only":true,"driver":"raw","file":"libvirt-1-storage"} -device ide-cd,bus=ide.1,drive=libvirt-1-format,id=sata0-0-1,serial=8f42877912f7407cb1df915a283a78e7 -netdev tap,fds=39:41,id=hostnet0,vhost=on,vhostfds=42:43 -device virtio-net-pci,tx=bh,ioeventfd=on,event_idx=off,mq=on,vectors=6,rx_queue_size=1024,tx_queue_size=1024,host_mtu=1500,netdev=hostnet0,id=net0,mac=fa:cc:e2:61:19:00,bus=pci.3,addr=0x0 -chardev pty,id=charserial0 -device isa-serial,chardev=charserial0,id=serial0 -chardev socket,id=charchannel0,fd=37,server=on,wait=off -device virtserialport,bus=virtio-serial0.0,nr=1,chardev=charchannel0,id=channel0,name=org.qemu.guest_agent.0 -device usb-tablet,id=input0,bus=usb.0,port=1 -audiodev {"id":"audio1","driver":"none"} -vnc 0.0.0.0:0,audiodev=audio1 -device virtio-vga,id=video0,max_outputs=1,bus=pcie.0,addr=0x1 -device virtio-balloon-pci,id=balloon0,bus=pci.9,addr=0x0 -qmp unix:/var/lib/libvirt/qemu/zstack/9140709d82b84199831c2899060939bc.sock,server,nowait -sandbox on,obsolete=deny,elevateprivileges=deny,spawn=deny,resourcecontrol=deny -msg timestamp=on
root      226236       2  0 Apr02 ?        00:00:00 [kvm-nx-lpage-re]
root      226239       2  0 Apr02 ?        00:00:04 [vhost-226220]
root      226240       2  0 Apr02 ?        00:00:17 [vhost-226220]
root      226249       2  0 Apr02 ?        00:00:00 [kvm-pit/226220]
root      340876       1  0 Apr02 tty1     00:00:00 /sbin/agetty --noclear tty1 linux
root     2908092       2  0 17:26 ?        00:00:00 [kworker/u8:2-xfs-gc/dm-0]
root     2962605       2  0 17:53 ?        00:00:00 [kworker/1:3-rcu_gp]
root     2963488       2  0 17:54 ?        00:00:00 [kworker/0:2-events_power_efficient]
root     2965974       2  0 17:55 ?        00:00:00 [kworker/3:2-rcu_gp]
root     2984473       2  0 18:05 ?        00:00:00 [kworker/u8:1-events_unbound]
root     2996206       2  0 18:10 ?        00:00:00 [kworker/2:0-rcu_gp]
root     3010049       2  0 18:17 ?        00:00:00 [kworker/1:2-rcu_gp]
root     3017978       2  0 18:22 ?        00:00:00 [kworker/2:1-mm_percpu_wq]
root     3026355       2  0 18:26 ?        00:00:00 [kworker/3:1-events_freezable_power_]
root     3033339       2  0 18:29 ?        00:00:00 [kworker/1:0-rcu_gp]
root     3034814       2  0 18:30 ?        00:00:00 [kworker/0:0-events]
root     3036325       2  0 18:31 ?        00:00:00 [kworker/3:3-rcu_gp]
root     3036784       2  0 18:31 ?        00:00:00 [kworker/2:3-rcu_gp]
root     3041779    1461  0 18:34 ?        00:00:00 sshd: root [priv]
root     3042013 3041779  0 18:34 ?        00:00:00 sshd: root@pts/1
root     3042014 3042013  0 18:34 pts/1    00:00:00 -bash
root     3043017       2  0 18:34 ?        00:00:00 [kworker/u8:0-events_unbound]
root     3044762       2  0 18:35 ?        00:00:00 [kworker/1:1-events]
root     3045332       2  0 18:35 ?        00:00:00 [kworker/0:1-events_power_efficient]
root     3047308       2  0 18:36 ?        00:00:00 [kworker/2:2-events]
root     3049130       2  0 18:37 ?        00:00:00 [kworker/u8:3-events_unbound]
root     3049740       2  0 18:38 ?        00:00:00 [kworker/3:0-events]
root     3051524 3042014  0 18:38 pts/1    00:00:00 ps -ef
root     3051525 3042014  0 18:38 pts/1    00:00:00 cat
[root@zstack130 ~]# lsmod
Module                  Size  Used by
xt_nat                 16384  1
ebt_arp                16384  2
ebt_dnat               16384  1
ebt_ip                 16384  1
veth                   32768  0
xt_NFLOG               16384  1
br_netfilter           24576  0
vhost_net              28672  2
vhost                  49152  1 vhost_net
vhost_iotlb            16384  1 vhost
tap                    28672  1 vhost_net
vfio_pci               61440  0
vfio_virqfd            16384  1 vfio_pci
vfio_iommu_type1       36864  0
vfio                   36864  2 vfio_iommu_type1,vfio_pci
nvme                   45056  0
nvme_core             139264  1 nvme
dm_round_robin         16384  0
dm_multipath           40960  1 dm_round_robin
ebtable_filter         16384  1
uas                    28672  0
xt_CHECKSUM            16384  0
ipt_MASQUERADE         16384  0
ipmi_devintf           20480  0
ipmi_msghandler       114688  1 ipmi_devintf
tun                    49152  5 vhost_net
kvm_intel             335872  2
kvm                   954368  1 kvm_intel
irqbypass              16384  12 vfio_pci,kvm
bridge                290816  1 br_netfilter
stp                    16384  1 bridge
llc                    16384  2 bridge,stp
nf_conntrack_netlink    53248  0
nft_chain_nat          16384  8
nf_nat                 45056  3 ipt_MASQUERADE,xt_nat,nft_chain_nat
overlay               139264  1
xt_state               16384  0
xt_conntrack           16384  4
nf_conntrack          172032  6 xt_conntrack,nf_nat,xt_state,ipt_MASQUERADE,xt_nat,nf_conntrack_netlink
nf_defrag_ipv6         20480  1 nf_conntrack
nf_defrag_ipv4         16384  1 nf_conntrack
usb_storage            73728  1 uas
ipt_REJECT             16384  1
nf_reject_ipv4         16384  1 ipt_REJECT
ebtable_nat            16384  1
ebtables               36864  2 ebtable_nat,ebtable_filter
nfnetlink_log          20480  2
nft_counter            16384  35
xt_comment             16384  14
nft_compat             20480  37
nf_tables             180224  89 nft_compat,nft_counter,nft_chain_nat
nfnetlink              16384  6 nft_compat,nf_conntrack_netlink,nf_tables,nfnetlink_log
sunrpc                577536  1
vfat                   20480  1
fat                    86016  1 vfat
intel_rapl_msr         16384  0
intel_rapl_common      24576  1 intel_rapl_msr
isst_if_mbox_msr       16384  0
isst_if_common         16384  1 isst_if_mbox_msr
nfit                   65536  0
libnvdimm             200704  1 nfit
crct10dif_pclmul       16384  1
crc32_pclmul           16384  0
ghash_clmulni_intel    16384  0
vmw_balloon            24576  0
rapl                   20480  0
pcspkr                 16384  0
joydev                 24576  0
i2c_piix4              24576  0
vmw_vmci               86016  1 vmw_balloon
nbd                    49152  0
xfs                  1568768  3
libcrc32c              16384  4 nf_conntrack,nf_nat,nf_tables,xfs
sr_mod                 28672  0
cdrom                  65536  1 sr_mod
sd_mod                 53248  7
t10_pi                 16384  2 sd_mod,nvme_core
sg                     40960  0
ata_generic            16384  0
vmwgfx                372736  1
drm_ttm_helper         16384  1 vmwgfx
ttm                    73728  2 vmwgfx,drm_ttm_helper
drm_kms_helper        176128  1 vmwgfx
syscopyarea            16384  1 drm_kms_helper
sysfillrect            16384  1 drm_kms_helper
sysimgblt              16384  1 drm_kms_helper
fb_sys_fops            16384  1 drm_kms_helper
drm                   565248  5 vmwgfx,drm_kms_helper,drm_ttm_helper,ttm
ahci                   40960  0
libahci                40960  1 ahci
ata_piix               36864  0
serio_raw              16384  0
libata                266240  4 ata_piix,libahci,ahci,ata_generic
crc32c_intel           24576  1
vmw_pvscsi             28672  6
vmxnet3                65536  0
dm_mirror              28672  0
dm_region_hash         20480  1 dm_mirror
dm_log                 20480  2 dm_region_hash,dm_mirror
dm_mod                151552  12 dm_multipath,dm_log,dm_mirror
[root@zstack130 ~]#

パッケージ

[root@zstack130 ~]# rpm -qa|sort
acl-2.2.53-1.el8.1.x86_64
adwaita-cursor-theme-3.28.0-2.el8.noarch
adwaita-icon-theme-3.28.0-2.el8.noarch
alsa-firmware-1.0.29-6.el8.noarch
alsa-lib-1.2.5-4.el8.x86_64
alsa-tools-firmware-1.1.6-1.el8.x86_64
annobin-9.72-1.el8_5.2.x86_64
apr-1.6.3-12.el8.x86_64
apr-util-1.6.1-6.el8.1.x86_64
Arcconf-3.03-23668.x86_64
atk-2.28.1-1.el8.x86_64
at-spi2-atk-2.26.2-1.el8.x86_64
at-spi2-core-2.28.0-1.el8.x86_64
audit-3.0.7-4.el8.x86_64
audit-libs-3.0.7-4.el8.x86_64
augeas-libs-1.12.0-6.el8.x86_64
authselect-1.2.2-3.el8.x86_64
authselect-compat-1.2.2-3.el8.x86_64
authselect-libs-1.2.2-3.el8.x86_64
autoconf-2.69-29.el8.noarch
autogen-libopts-5.18.12-8.el8.1.x86_64
avahi-0.7-20.el8.x86_64
avahi-libs-0.7-20.el8.x86_64
avahi-tools-0.7-20.el8.x86_64
basesystem-11-5.el8.noarch
bash-4.4.20-2.el8.x86_64
bash-completion-2.7-5.el8.noarch
bc-1.07.1-5.el8.x86_64
bind-export-libs-9.11.26-6.el8.x86_64
binutils-2.30-108.el8_5.1.x86_64
biosdevname-0.7.3-2.el8.x86_64
blktrace-1.2.0-10.el8.x86_64
boost-atomic-1.66.0-10.el8.x86_64
boost-chrono-1.66.0-10.el8.x86_64
boost-date-time-1.66.0-10.el8.x86_64
boost-iostreams-1.66.0-10.el8.x86_64
boost-program-options-1.66.0-10.el8.x86_64
boost-random-1.66.0-10.el8.x86_64
boost-regex-1.66.0-10.el8.x86_64
boost-system-1.66.0-10.el8.x86_64
boost-thread-1.66.0-10.el8.x86_64
bridge-utils-1.7.1-2.el8.x86_64
brotli-1.0.6-3.el8.x86_64
bubblewrap-0.4.0-1.el8.x86_64
bzip2-1.0.6-26.el8.x86_64
bzip2-libs-1.0.6-26.el8.x86_64
ca-certificates-2021.2.50-80.0.el8_4.noarch
cairo-1.15.12-3.el8.x86_64
cairo-gobject-1.15.12-3.el8.x86_64
celt051-0.5.1.3-15.el8.x86_64
checkpolicy-2.9-1.el8.x86_64
chkconfig-1.19.1-1.el8.x86_64
chrony-4.1-1.el8.x86_64
collectd-5.9.0-5.el8.x86_64
collectd-disk-5.9.0-5.el8.x86_64
collectd-virt-5.9.0-5.el8.x86_64
colord-libs-1.4.2-1.el8.x86_64
conntrack-tools-1.4.4-10.el8.x86_64
containerd.io-1.6.24-3.1.el8.x86_64
container-selinux-2.205.0-2.module+el8.8.0+1265+fa25dd7a.noarch
copy-jdk-configs-4.0-2.el8.noarch
coreutils-8.30-12.el8.x86_64
coreutils-common-8.30-12.el8.x86_64
cpio-2.12-10.el8.x86_64
cpp-8.5.0-4.el8_5.x86_64
cracklib-2.9.6-15.el8.x86_64
cracklib-dicts-2.9.6-15.el8.x86_64
createrepo_c-0.17.2-3.el8.x86_64
createrepo_c-libs-0.17.2-3.el8.x86_64
cronie-1.5.2-4.el8.x86_64
cronie-anacron-1.5.2-4.el8.x86_64
crontabs-1.11-17.20190603git.el8.noarch
crypto-policies-20210617-1.gitc776d3e.el8.noarch
crypto-policies-scripts-20210617-1.gitc776d3e.el8.noarch
cryptsetup-libs-2.3.3-4.el8_5.1.x86_64
cups-libs-2.2.6-40.el8.x86_64
curl-7.61.1-22.el8.x86_64
cyrus-sasl-2.1.27-6.el8_5.x86_64
cyrus-sasl-gssapi-2.1.27-6.el8_5.x86_64
cyrus-sasl-lib-2.1.27-6.el8_5.x86_64
cyrus-sasl-md5-2.1.27-6.el8_5.x86_64
dbus-1.12.8-14.el8.x86_64
dbus-common-1.12.8-14.el8.noarch
dbus-daemon-1.12.8-14.el8.x86_64
dbus-glib-0.110-2.el8.x86_64
dbus-libs-1.12.8-14.el8.x86_64
dbus-tools-1.12.8-14.el8.x86_64
device-mapper-1.02.177-11.el8_5.x86_64
device-mapper-event-1.02.177-11.el8_5.x86_64
device-mapper-event-libs-1.02.177-11.el8_5.x86_64
device-mapper-libs-1.02.177-11.el8_5.x86_64
device-mapper-multipath-0.8.4-17.el8_5.1.x86_64
device-mapper-multipath-libs-0.8.4-17.el8_5.1.x86_64
device-mapper-persistent-data-0.9.0-4.el8.x86_64
dhcp-client-4.3.6-45.el8.x86_64
dhcp-common-4.3.6-45.el8.noarch
dhcp-libs-4.3.6-45.el8.x86_64
diffutils-3.6-6.el8.x86_64
dlm-lib-4.1.0-1.el8.x86_64
dmidecode-3.2-10.el8.x86_64
dnf-4.7.0-4.el8.noarch
dnf-data-4.7.0-4.el8.noarch
dnf-plugins-core-4.0.21-4.el8_5.noarch
dnsmasq-2.79-19.el8.x86_64
docker-ce-19.03.13-3.el8.x86_64
docker-ce-cli-24.0.6-1.el8.x86_64
dosfstools-4.1-6.el8.x86_64
dracut-049-191.git20210920.el8.x86_64
dracut-config-rescue-049-191.git20210920.el8.x86_64
dracut-network-049-191.git20210920.el8.x86_64
dracut-squash-049-191.git20210920.el8.x86_64
drpm-0.4.1-3.el8.x86_64
dwz-0.12-10.el8.x86_64
e2fsprogs-1.45.6-2.el8.x86_64
e2fsprogs-libs-1.45.6-2.el8.x86_64
ebtables-legacy-2.0.11-9.el8.1.x86_64
edac-ctl-0.18-20.el8.x86_64
edac-util-0.18-20.el8.x86_64
edac-utils-0.18-20.el8.x86_64
edk2.git-ovmf-x64-0-20190704.1178.g4ac8ceb5d6.noarch
edk2-ovmf-20220126gitbb1bba3d77-3.el8.noarch
efibootmgr-16-1.el8.x86_64
efi-filesystem-3-3.el8.noarch
efi-srpm-macros-3-3.el8.noarch
efivar-libs-37-4.el8.x86_64
elfutils-debuginfod-client-0.185-1.el8.x86_64
elfutils-default-yama-scope-0.185-1.el8.noarch
elfutils-libelf-0.185-1.el8.x86_64
elfutils-libelf-devel-0.185-1.el8.x86_64
elfutils-libs-0.185-1.el8.x86_64
emacs-filesystem-26.1-7.el8.noarch
ethtool-5.8-7.el8.x86_64
expat-2.2.5-4.el8_5.3.x86_64
expect-5.45.4-5.el8.x86_64
file-5.33-20.el8.x86_64
file-libs-5.33-20.el8.x86_64
filesystem-3.8-6.el8.x86_64
findutils-4.6.0-20.el8.x86_64
firewalld-0.9.3-7.el8_5.1.noarch
firewalld-filesystem-0.9.3-7.el8_5.1.noarch
fontconfig-2.13.1-4.el8.x86_64
fontpackages-filesystem-1.44-22.el8.noarch
freetype-2.9.1-4.el8_3.1.x86_64
fribidi-1.0.4-8.el8.x86_64
fuse-2.9.7-17.el8.x86_64
fuse-common-3.3.0-17.el8.x86_64
fuse-libs-2.9.7-17.el8.x86_64
fuse-sshfs-2.8-5.el8.x86_64
fwupd-1.5.9-1.el8_5.0.1.x86_64
fxload-2008_10_13-10.el8.x86_64
gawk-4.2.1-2.el8.x86_64
gcc-8.5.0-4.el8_5.x86_64
gd-2.2.5-7.el8.x86_64
gdbm-1.18-1.el8.x86_64
gdbm-libs-1.18-1.el8.x86_64
gdk-pixbuf2-2.36.12-5.el8.x86_64
gdk-pixbuf2-modules-2.36.12-5.el8.x86_64
genisoimage-1.1.11-39.el8.x86_64
gettext-0.19.8.1-17.el8.x86_64
gettext-libs-0.19.8.1-17.el8.x86_64
ghc-srpm-macros-1.4.2-7.el8.noarch
giflib-5.1.4-3.el8.x86_64
git-2.27.0-1.el8.x86_64
git-core-2.27.0-1.el8.x86_64
git-core-doc-2.27.0-1.el8.noarch
glib2-2.56.4-156.el8.x86_64
glibc-2.28-164.el8_5.3.x86_64
glibc-all-langpacks-2.28-164.el8_5.3.x86_64
glibc-common-2.28-164.el8_5.3.x86_64
glibc-devel-2.28-164.el8_5.3.x86_64
glibc-headers-2.28-164.el8_5.3.x86_64
glib-networking-2.56.1-1.1.el8.x86_64
glusterfs-6.0-56.4.el8.x86_64
glusterfs-api-6.0-56.4.el8.x86_64
glusterfs-cli-6.0-56.4.el8.x86_64
glusterfs-client-xlators-6.0-56.4.el8.x86_64
glusterfs-libs-6.0-56.4.el8.x86_64
gmp-6.1.2-10.el8.x86_64
gnupg2-2.2.20-2.el8.x86_64
gnutls-3.6.16-4.el8.x86_64
gnutls-dane-3.6.16-4.el8.x86_64
gnutls-utils-3.6.16-4.el8.x86_64
gobject-introspection-1.56.1-1.el8.x86_64
google-droid-sans-fonts-20120715-13.el8.noarch
go-srpm-macros-2-17.el8.noarch
gpgme-1.13.1-9.el8.x86_64
gpm-libs-1.20.7-17.el8.x86_64
grafana-7.5.9-5.el8_5.x86_64
graphite2-1.3.10-10.el8.x86_64
grep-3.1-6.el8.x86_64
groff-base-1.22.3-18.el8.x86_64
grub2-common-2.02-106.el8.0.2.noarch
grub2-efi-x64-2.02-106.el8.0.2.x86_64
grub2-tools-2.02-106.el8.0.2.x86_64
grub2-tools-extra-2.02-106.el8.0.2.x86_64
grub2-tools-minimal-2.02-106.el8.0.2.x86_64
grubby-8.40-42.el8.x86_64
gsettings-desktop-schemas-3.32.0-6.el8.x86_64
gssproxy-0.8.0-19.el8.x86_64
gstreamer1-1.16.1-2.el8.x86_64
gstreamer1-plugins-base-1.16.1-2.el8.x86_64
gtk2-2.24.32-5.el8.x86_64
gtk3-3.22.30-8.el8.x86_64
gtk-update-icon-cache-3.22.30-8.el8.x86_64
gzip-1.9-13.el8_5.x86_64
hardlink-1.3-6.el8.x86_64
harfbuzz-1.7.5-3.el8.x86_64
hdparm-9.54-4.el8.x86_64
helix-gpg-keys-8.4r-36.el8.noarch
helix-release-8.4r-36.el8.noarch
helix-repos-8.4r-36.el8.noarch
hicolor-icon-theme-0.17-2.el8.noarch
hostname-3.20-6.el8.x86_64
httpd-2.4.37-43.module+el8.5.0+747+83fae388.3.x86_64
httpd-filesystem-2.4.37-43.module+el8.5.0+747+83fae388.3.noarch
httpd-tools-2.4.37-43.module+el8.5.0+747+83fae388.3.x86_64
hwdata-0.314-8.10.el8.noarch
ima-evm-utils-1.3.2-12.el8.x86_64
info-6.5-6.el8.x86_64
initscripts-10.00.18-1.el8.x86_64
ipcalc-0.2.4-4.el8.x86_64
ipmitool-1.8.18-18.el8.x86_64
iproute-5.12.0-4.el8.x86_64
iproute-tc-5.12.0-4.el8.x86_64
iprutils-2.4.19-1.el8.x86_64
ipset-7.1-1.el8.x86_64
ipset-libs-7.1-1.el8.x86_64
iptables-1.8.4-20.el8.x86_64
iptables-libs-1.8.4-20.el8.x86_64
iptables-services-1.8.4-20.el8.x86_64
iputils-20180629-7.el8.x86_64
ipxe-roms-qemu-20181214-8.git133f4c47.el8.noarch
irqbalance-1.4.0-6.el8.x86_64
iscsi-initiator-utils-6.2.1.4-4.git095f59c.el8.x86_64
iscsi-initiator-utils-iscsiuio-6.2.1.4-4.git095f59c.el8.x86_64
isl-0.16.1-6.el8.x86_64
isns-utils-libs-0.99-1.el8.x86_64
iso-codes-3.79-2.el8.noarch
iwl1000-firmware-39.31.5.1-104.el8_5.1.noarch
iwl100-firmware-39.31.5.1-104.el8_5.1.noarch
iwl105-firmware-18.168.6.1-104.el8_5.1.noarch
iwl135-firmware-18.168.6.1-104.el8_5.1.noarch
iwl2000-firmware-18.168.6.1-104.el8_5.1.noarch
iwl2030-firmware-18.168.6.1-104.el8_5.1.noarch
iwl3160-firmware-25.30.13.0-104.el8_5.1.noarch
iwl3945-firmware-15.32.2.9-104.el8_5.1.noarch
iwl4965-firmware-228.61.2.24-104.el8_5.1.noarch
iwl5000-firmware-8.83.5.1_1-104.el8_5.1.noarch
iwl5150-firmware-8.24.2.2-104.el8_5.1.noarch
iwl6000-firmware-9.221.4.1-104.el8_5.1.noarch
iwl6000g2a-firmware-18.168.6.1-104.el8_5.1.noarch
iwl6000g2b-firmware-18.168.6.1-104.el8_5.1.noarch
iwl6050-firmware-41.28.5.1-104.el8_5.1.noarch
iwl7260-firmware-25.30.13.0-104.el8_5.1.noarch
jansson-2.11-3.el8.x86_64
jasper-libs-2.0.14-5.el8.x86_64
java-11-openjdk-11.0.22.0.7-2.el8.x86_64
java-11-openjdk-devel-11.0.22.0.7-2.el8.x86_64
java-11-openjdk-headless-11.0.22.0.7-2.el8.x86_64
java-1.8.0-openjdk-1.8.0.332.b09-1.el8_5.x86_64
java-1.8.0-openjdk-devel-1.8.0.332.b09-1.el8_5.x86_64
java-1.8.0-openjdk-headless-1.8.0.332.b09-1.el8_5.x86_64
javapackages-filesystem-5.3.0-2.module+el8.3.0+125+5da1ae29.noarch
jbigkit-libs-2.1-14.el8.x86_64
json-c-0.13.1-2.el8.x86_64
json-glib-1.4.4-1.el8.x86_64
kbd-2.0.4-10.el8.x86_64
kbd-legacy-2.0.4-10.el8.noarch
kbd-misc-2.0.4-10.el8.noarch
kernel-4.18.0-425.19.2.3.g75f4bb8fb9a0.el8.x86_64
kernel-core-4.18.0-425.19.2.3.g75f4bb8fb9a0.el8.x86_64
kernel-devel-4.18.0-425.19.2.3.g75f4bb8fb9a0.el8.x86_64
kernel-headers-4.18.0-425.19.2.3.g75f4bb8fb9a0.el8.x86_64
kernel-modules-4.18.0-425.19.2.3.g75f4bb8fb9a0.el8.x86_64
kernel-tools-4.18.0-425.19.2.3.g75f4bb8fb9a0.el8.x86_64
kernel-tools-libs-4.18.0-425.19.2.3.g75f4bb8fb9a0.el8.x86_64
kexec-tools-2.0.20-57.el8_5.1.x86_64
keyutils-1.5.10-9.el8.x86_64
keyutils-libs-1.5.10-9.el8.x86_64
keyutils-libs-devel-1.5.10-9.el8.x86_64
kmod-25-18.el8.x86_64
kmod-libs-25-18.el8.x86_64
kpartx-0.8.4-17.el8_5.1.x86_64
krb5-devel-1.18.2-14.el8.x86_64
krb5-libs-1.18.2-14.el8.x86_64
lcms2-2.9-2.el8.x86_64
less-530-1.el8.x86_64
leveldb-1.22-1.el8.x86_64
libacl-2.2.53-1.el8.1.x86_64
libaio-0.3.112-1.el8.x86_64
libarchive-3.3.3-3.el8_5.x86_64
libassuan-2.5.1-3.el8.x86_64
libattr-2.4.48-3.el8.x86_64
libbabeltrace-1.5.4-3.el8.x86_64
libbasicobjects-0.1.1-39.el8.x86_64
libblkid-2.32.1-28.el8.x86_64
libbpf-0.4.0-1.el8.x86_64
libcap-2.26-5.el8.x86_64
libcap-ng-0.7.11-1.el8.x86_64
libcbd-v1.2.6-148.g69bd873f.el8.x86_64
libcgroup-0.41-19.el8.x86_64
libcollection-0.7.0-39.el8.x86_64
libcom_err-1.45.6-2.el8.x86_64
libcom_err-devel-1.45.6-2.el8.x86_64
libcomps-0.1.16-2.el8.x86_64
libcroco-0.6.12-4.el8_2.1.x86_64
libcurl-7.61.1-22.el8.x86_64
libdaemon-0.14-15.el8.x86_64
libdatrie-0.2.9-7.el8.x86_64
libdb-5.3.28-42.el8_4.x86_64
libdb-utils-5.3.28-42.el8_4.x86_64
libdnf-0.63.0-3.el8.x86_64
libdrm-2.4.106-2.el8.x86_64
libedac-0.18-20.el8.x86_64
libedit-3.1-23.20170329cvs.el8.x86_64
libepoxy-1.5.8-1.el8.x86_64
libestr-0.1.10-1.el8.x86_64
libevent-2.1.8-5.el8.x86_64
libfastjson-0.99.9-1.el8.x86_64
libfdisk-2.32.1-28.el8.x86_64
libfdt-1.6.0-1.el8.x86_64
libffi-3.1-22.el8.x86_64
libffi-devel-3.1-22.el8.x86_64
libfontenc-1.1.3-8.el8.x86_64
libgcab1-1.1-1.el8.x86_64
libgcc-8.5.0-4.el8_5.x86_64
libgcrypt-1.8.5-6.el8.x86_64
libglvnd-1.3.2-1.el8.x86_64
libglvnd-egl-1.3.2-1.el8.x86_64
libglvnd-gles-1.3.2-1.el8.x86_64
libglvnd-glx-1.3.2-1.el8.x86_64
libgomp-8.5.0-4.el8_5.x86_64
libgpg-error-1.31-1.el8.x86_64
libgudev-232-4.el8.x86_64
libgusb-0.3.0-1.el8.x86_64
libibverbs-35.0-1.el8.x86_64
libicu-60.3-2.el8_1.x86_64
libidn2-2.2.0-1.el8.x86_64
libini_config-1.3.1-39.el8.x86_64
libiscsi-1.18.0-8.module+el8.4.0+534+4680a14e.x86_64
libjpeg-turbo-1.5.3-12.el8.x86_64
libkadm5-1.18.2-14.el8.x86_64
libkcapi-1.2.0-2.el8.x86_64
libkcapi-hmaccalc-1.2.0-2.el8.x86_64
libksba-1.3.5-7.el8.x86_64
libmaxminddb-1.2.0-10.el8.x86_64
libmbim-1.20.2-1.el8.x86_64
libmetalink-0.1.3-7.el8.x86_64
libmnl-1.0.4-6.el8.x86_64
libmodman-2.0.1-17.el8.x86_64
libmodulemd-2.13.0-1.el8.x86_64
libmount-2.32.1-28.el8.x86_64
libmpc-1.1.0-9.1.el8.x86_64
libnetfilter_conntrack-1.0.6-5.el8.x86_64
libnetfilter_cthelper-1.0.0-15.el8.x86_64
libnetfilter_cttimeout-1.0.0-11.el8.x86_64
libnetfilter_queue-1.0.4-3.el8.x86_64
libnfnetlink-1.0.1-13.el8.x86_64
libnfsidmap-2.3.3-46.el8.x86_64
libnftnl-1.1.5-4.el8.x86_64
libnghttp2-1.33.0-3.el8_3.1.x86_64
libnl3-3.5.0-1.el8.x86_64
libnsl2-1.2.0-2.20180605git4a062cf.el8.x86_64
libogg-1.3.2-10.el8.x86_64
libpath_utils-0.2.1-39.el8.x86_64
libpcap-1.9.1-5.el8.x86_64
libpciaccess-0.14-1.el8.x86_64
libpipeline-1.5.0-2.el8.x86_64
libpkgconf-1.4.2-1.el8.x86_64
libpmem-1.6.1-1.el8.x86_64
libpng-1.6.34-5.el8.x86_64
libproxy-0.4.15-5.2.el8.x86_64
libpsl-0.20.2-6.el8.x86_64
libpwquality-1.4.4-3.el8.x86_64
libqmi-1.24.0-3.el8.x86_64
librados2-12.2.7-9.el8.x86_64
librbd1-12.2.7-9.el8.x86_64
librdmacm-35.0-1.el8.x86_64
libref_array-0.1.5-39.el8.x86_64
librepo-1.14.0-2.el8.x86_64
libreport-filesystem-2.9.5-15.el8.rocky.6.3.x86_64
libseccomp-2.5.1-1.el8.x86_64
libsecret-0.18.6-1.el8.0.2.x86_64
libselinux-2.9-5.el8.x86_64
libselinux-devel-2.9-5.el8.x86_64
libselinux-python-2.9-2.1.module+el8.4.0+532+c114ce35.x86_64
libselinux-utils-2.9-5.el8.x86_64
libsemanage-2.9-9.el8_6.x86_64
libsepol-2.9-3.el8.x86_64
libsepol-devel-2.9-3.el8.x86_64
libsigsegv-2.11-5.el8.x86_64
libsmartcols-2.32.1-28.el8.x86_64
libsmbios-2.4.1-2.el8.x86_64
libsolv-0.7.19-1.el8.x86_64
libsoup-2.62.3-2.el8.x86_64
libss-1.45.6-2.el8.x86_64
libssh-0.9.4-3.el8.x86_64
libssh-config-0.9.4-3.el8.noarch
libsss_idmap-2.5.2-2.el8_5.4.x86_64
libsss_nss_idmap-2.5.2-2.el8_5.4.x86_64
libstdc++-8.5.0-4.el8_5.x86_64
libsysfs-2.1.0-24.el8.x86_64
libtasn1-4.13-3.el8.x86_64
libthai-0.1.27-2.el8.x86_64
libtheora-1.1.1-21.el8.x86_64
libtiff-4.0.9-20.el8.x86_64
libtirpc-1.1.4-5.el8.x86_64
libtomcrypt-1.18.2-5.el8.x86_64
libtommath-1.1.0-1.el8.x86_64
libtpms-0.9.1-2.20211126git1ff6fe1f43.module+el8.8.0+1279+230c2115.x86_64
libunistring-0.9.9-3.el8.x86_64
libusal-1.1.11-39.el8.x86_64
libusbx-1.0.23-4.el8.x86_64
libuser-0.62-23.el8.x86_64
libutempter-1.1.6-14.el8.x86_64
libuuid-2.32.1-28.el8.x86_64
libverto-0.3.0-5.el8.x86_64
libverto-devel-0.3.0-5.el8.x86_64
libverto-libevent-0.3.0-5.el8.x86_64
libvirt-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-client-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-config-network-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-config-nwfilter-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-interface-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-network-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-nodedev-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-nwfilter-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-qemu-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-secret-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-storage-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-storage-core-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-storage-disk-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-storage-gluster-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-storage-iscsi-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-storage-iscsi-direct-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-storage-logical-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-storage-mpath-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-storage-rbd-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-driver-storage-scsi-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-daemon-kvm-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-libs-8.0.0-78.g0606ea2633.el8.x86_64
libvirt-python-4.9.0-1.el7.x86_64
libvisual-0.4.0-25.el8.x86_64
libvorbis-1.3.6-2.el8.x86_64
libwayland-client-1.19.0-1.el8.x86_64
libwayland-cursor-1.19.0-1.el8.x86_64
libwayland-egl-1.19.0-1.el8.x86_64
libwayland-server-1.19.0-1.el8.x86_64
libwebp-1.0.0-5.el8.x86_64
libX11-1.6.8-5.el8.x86_64
libX11-common-1.6.8-5.el8.noarch
libX11-xcb-1.6.8-5.el8.x86_64
libXau-1.0.9-3.el8.x86_64
libxcb-1.13.1-1.el8.x86_64
libXcomposite-0.4.4-14.el8.x86_64
libxcrypt-4.1.1-6.el8.x86_64
libxcrypt-devel-4.1.1-6.el8.x86_64
libXcursor-1.1.15-3.el8.x86_64
libXdamage-1.1.4-14.el8.x86_64
libXext-1.3.4-1.el8.x86_64
libXfixes-5.0.3-7.el8.x86_64
libXft-2.3.3-1.el8.x86_64
libXi-1.7.10-1.el8.x86_64
libXinerama-1.1.4-1.el8.x86_64
libxkbcommon-0.9.1-1.el8.x86_64
libxml2-2.9.7-12.el8_5.x86_64
libxmlb-0.1.15-1.el8.x86_64
libXpm-3.5.12-8.el8.x86_64
libXrandr-1.5.2-1.el8.x86_64
libXrender-0.9.10-7.el8.x86_64
libxshmfence-1.3-2.el8.x86_64
libxslt-1.1.32-6.el8.x86_64
libXtst-1.2.3-7.el8.x86_64
libXv-1.0.11-7.el8.x86_64
libXxf86vm-1.1.4-9.el8.x86_64
libyaml-0.1.7-5.el8.x86_64
libzstd-1.4.4-1.el8.x86_64
lighttpd-1.4.67-1.el8.x86_64
lighttpd-filesystem-1.4.67-1.el8.noarch
lighttpd-mod_authn_ldap-1.4.67-1.el8.x86_64
lighttpd-mod_deflate-1.4.67-1.el8.x86_64
lighttpd-mod_magnet-1.4.67-1.el8.x86_64
lighttpd-mod_openssl-1.4.67-1.el8.x86_64
lighttpd-mod_vhostdb_ldap-1.4.67-1.el8.x86_64
lighttpd-mod_webdav-1.4.67-1.el8.x86_64
linux-firmware-20210702-104.gitd79c2677.el8_5.noarch
lksctp-tools-1.0.18-3.el8.x86_64
lldpd-1.0.1-2.el8.x86_64
llvm-libs-12.0.1-2.module+el8.5.0+692+8756646f.x86_64
lm_sensors-libs-3.4.0-23.20180522git70f7e08.el8.x86_64
logrotate-3.14.0-4.el8.x86_64
lsof-4.93.2-1.el8.x86_64
lsscsi-0.32-3.el8.x86_64
lttng-tools-2.8.8-1.el8.x86_64
lttng-ust-2.8.1-11.el8.x86_64
lua-5.3.4-12.el8.x86_64
lua-libs-5.3.4-12.el8.x86_64
lvm2-2.03.12-11.el8_5.x86_64
lvm2-libs-2.03.12-11.el8_5.x86_64
lvm2-lockd-2.03.12-11.el8_5.x86_64
lz4-libs-1.8.3-3.el8_4.x86_64
lzo-2.08-14.el8.x86_64
lzop-1.03-20.el8.x86_64
m4-1.4.18-7.el8.x86_64
mailcap-2.1.48-3.el8.noarch
make-4.2.1-10.el8.x86_64
man-db-2.7.6.1-18.el8.x86_64
mariadb-10.3.39-1.module+el8.8.0+1452+2a7eab68.x86_64
mariadb-common-10.3.39-1.module+el8.8.0+1452+2a7eab68.x86_64
mariadb-connector-c-3.1.11-2.el8_3.x86_64
mariadb-connector-c-config-3.1.11-2.el8_3.noarch
mariadb-errmsg-10.3.39-1.module+el8.8.0+1452+2a7eab68.x86_64
mariadb-server-10.3.39-1.module+el8.8.0+1452+2a7eab68.x86_64
mcelog-175-1.el8.x86_64
mdevctl-1.1.0-2.el8.x86_64
MegaCli-8.07.14-1.noarch
mesa-dri-drivers-21.1.5-1.el8.0.x86_64
mesa-filesystem-21.1.5-1.el8.0.x86_64
mesa-libEGL-21.1.5-1.el8.0.x86_64
mesa-libgbm-21.1.5-1.el8.0.x86_64
mesa-libGL-21.1.5-1.el8.0.x86_64
mesa-libglapi-21.1.5-1.el8.0.x86_64
microcode_ctl-20210608-1.20220207.1.el8_5.x86_64
ModemManager-glib-1.10.8-4.el8.x86_64
mod_http2-1.15.7-3.module+el8.5.0+695+1fa8055e.x86_64
mokutil-0.3.0-11.el8.x86_64
mozjs60-60.9.0-4.el8.x86_64
mpfr-3.1.6-1.el8.x86_64
mtools-4.0.18-14.el8.x86_64
ncurses-6.1-9.20180224.el8.x86_64
ncurses-base-6.1-9.20180224.el8.noarch
ncurses-libs-6.1-9.20180224.el8.x86_64
netcf-libs-0.2.8-12.module+el8.4.0+534+4680a14e.x86_64
net-snmp-agent-libs-5.8-22.el8.x86_64
net-snmp-libs-5.8-22.el8.x86_64
nettle-3.4.1-7.el8.x86_64
net-tools-2.0-0.52.20160912git.el8.x86_64
network-scripts-10.00.18-1.el8.x86_64
nfs-utils-2.3.3-46.el8.x86_64
nftables-0.9.3-21.el8.x86_64
nginx-1.24.0-1.el8.x86_64
nginx-all-modules-1.24.0-1.el8.noarch
nginx-filesystem-1.24.0-1.el8.noarch
nginx-mod-http-image-filter-1.24.0-1.el8.x86_64
nginx-mod-http-perl-1.24.0-1.el8.x86_64
nginx-mod-http-xslt-filter-1.24.0-1.el8.x86_64
nginx-mod-mail-1.24.0-1.el8.x86_64
nginx-mod-stream-1.24.0-1.el8.x86_64
nmap-7.70-6.el8.x86_64
nmap-ncat-7.70-6.el8.x86_64
nodejs-14.21.1-2.module+el8.7.0+1116+bd2a84b4.x86_64
npth-1.5-4.el8.x86_64
nspr-4.32.0-1.el8_4.x86_64
nss-3.67.0-7.el8_5.x86_64
nss-softokn-3.67.0-7.el8_5.x86_64
nss-softokn-freebl-3.67.0-7.el8_5.x86_64
nss-sysinit-3.67.0-7.el8_5.x86_64
nss-util-3.67.0-7.el8_5.x86_64
numactl-libs-2.0.12-13.el8.x86_64
numad-0.5-26.20150602git.el8.x86_64
nvme-cli-1.14-3.el8.x86_64
ocaml-srpm-macros-5-4.el8.noarch
openblas-srpm-macros-2-2.el8.noarch
OpenIPMI-modalias-2.0.23-2.el7.x86_64
openldap-2.4.46-18.el8.x86_64
openssh-8.0p1-19.el8_8.x86_64
openssh-clients-8.0p1-19.el8_8.x86_64
openssh-server-8.0p1-19.el8_8.x86_64
openssl-1.1.1k-9.el8_7.x86_64
openssl-devel-1.1.1k-9.el8_7.x86_64
openssl-libs-1.1.1k-9.el8_7.x86_64
opus-1.3-0.4.beta.el8.x86_64
orc-0.4.28-3.el8.x86_64
os-prober-1.74-9.el8.x86_64
p11-kit-0.23.22-1.el8.x86_64
p11-kit-trust-0.23.22-1.el8.x86_64
pam-1.3.1-15.el8.x86_64
pango-1.42.4-8.el8.x86_64
parted-3.2-39.el8.x86_64
passwd-0.80-3.el8.x86_64
pciutils-3.7.0-1.el8.x86_64
pciutils-libs-3.7.0-1.el8.x86_64
pcre2-10.32-2.el8.x86_64
pcre2-devel-10.32-2.el8.x86_64
pcre2-utf16-10.32-2.el8.x86_64
pcre2-utf32-10.32-2.el8.x86_64
pcre-8.42-6.el8.x86_64
perl-Carp-1.42-396.el8.noarch
perl-constant-1.33-396.el8.noarch
perl-Data-Dumper-2.167-399.el8.x86_64
perl-Digest-1.17-395.el8.noarch
perl-Digest-MD5-2.55-396.el8.x86_64
perl-Encode-2.97-3.el8.x86_64
perl-Errno-1.28-420.el8.x86_64
perl-Error-0.17025-2.el8.noarch
perl-Exporter-5.72-396.el8.noarch
perl-File-Path-2.15-2.el8.noarch
perl-File-Temp-0.230.600-1.el8.noarch
perl-Getopt-Long-2.50-4.el8.noarch
perl-Git-2.27.0-1.el8.noarch
perl-HTTP-Tiny-0.074-1.el8.noarch
perl-interpreter-5.26.3-420.el8.x86_64
perl-IO-1.38-420.el8.x86_64
perl-IO-Socket-IP-0.39-5.el8.noarch
perl-IO-Socket-SSL-2.066-4.module+el8.4.0+512+d4f0fc54.noarch
perl-libnet-3.11-3.el8.noarch
perl-libs-5.26.3-420.el8.x86_64
perl-macros-5.26.3-420.el8.x86_64
perl-MIME-Base64-3.15-396.el8.x86_64
perl-Net-SSLeay-1.88-1.module+el8.4.0+512+d4f0fc54.x86_64
perl-parent-0.237-1.el8.noarch
perl-PathTools-3.74-1.el8.x86_64
perl-Pod-Escapes-1.07-395.el8.noarch
perl-podlators-4.11-1.el8.noarch
perl-Pod-Perldoc-3.28-396.el8.noarch
perl-Pod-Simple-3.35-395.el8.noarch
perl-Pod-Usage-1.69-395.el8.noarch
perl-Scalar-List-Utils-1.49-2.el8.x86_64
perl-Socket-2.027-3.el8.x86_64
perl-srpm-macros-1-25.el8.noarch
perl-Storable-3.11-3.el8.x86_64
perl-Term-ANSIColor-4.06-396.el8.noarch
perl-Term-Cap-1.17-395.el8.noarch
perl-TermReadKey-2.37-7.el8.x86_64
perl-Text-ParseWords-3.30-395.el8.noarch
perl-Text-Tabs+Wrap-2013.0523-395.el8.noarch
perl-threads-2.21-2.el8.x86_64
perl-threads-shared-1.58-2.el8.x86_64
perl-Time-Local-1.280-1.el8.noarch
perl-Unicode-Normalize-1.25-396.el8.x86_64
perl-URI-1.73-3.el8.noarch
pinentry-1.1.0-2.el8.x86_64
pixman-0.38.4-1.el8.x86_64
pkgconf-1.4.2-1.el8.x86_64
pkgconf-m4-1.4.2-1.el8.noarch
pkgconf-pkg-config-1.4.2-1.el8.x86_64
platform-python-3.6.8-41.el8.rocky.0.x86_64
platform-python-pip-9.0.3-20.el8.rocky.0.noarch
platform-python-setuptools-39.2.0-6.el8.noarch
plymouth-0.9.4-10.20200615git1e36e30.el8_5.1.x86_64
plymouth-core-libs-0.9.4-10.20200615git1e36e30.el8_5.1.x86_64
plymouth-scripts-0.9.4-10.20200615git1e36e30.el8_5.1.x86_64
policycoreutils-2.9-24.el8.x86_64
policycoreutils-python-utils-2.9-24.el8.noarch
polkit-0.115-13.el8_5.2.x86_64
polkit-libs-0.115-13.el8_5.2.x86_64
polkit-pkla-compat-0.1-12.el8.x86_64
popt-1.18-1.el8.x86_64
postfix-3.5.8-2.el8.x86_64
procps-ng-3.3.15-6.el8.x86_64
psmisc-23.1-5.el8.x86_64
publicsuffix-list-dafsa-20180723-1.el8.noarch
pv-1.6.6-7.el8.x86_64
pyparted-3.11.4-4.el8.x86_64
python2-2.7.18-7.module+el8.5.0+718+67e45b5f.rocky.0.2.x86_64
python2-backports-1.0-16.module+el8.4.0+403+9ae17a31.x86_64
python2-backports-ssl_match_hostname-3.5.0.1-12.module+el8.4.0+403+9ae17a31.noarch
python2-crypto-2.6.1-28.1.el8.x86_64
python2-devel-2.7.18-7.module+el8.5.0+718+67e45b5f.rocky.0.2.x86_64
python2-ipaddress-1.0.18-6.module+el8.4.0+403+9ae17a31.noarch
python2-libs-2.7.18-7.module+el8.5.0+718+67e45b5f.rocky.0.2.x86_64
python2-pip-9.0.3-18.module+el8.4.0+403+9ae17a31.noarch
python2-pip-wheel-9.0.3-18.module+el8.4.0+403+9ae17a31.noarch
python2-PyMySQL-0.8.0-10.module+el8.5.0+706+735ec4b3.noarch
python2-rpm-macros-3-38.module+el8.4.0+403+9ae17a31.noarch
python2-setuptools-39.0.1-13.module+el8.4.0+403+9ae17a31.noarch
python2-setuptools-wheel-39.0.1-13.module+el8.4.0+403+9ae17a31.noarch
python36-3.6.8-38.module+el8.5.0+671+195e4563.x86_64
python3-audit-3.0.7-4.el8.x86_64
python3-configobj-5.0.6-11.el8.noarch
python3-dateutil-2.6.1-6.el8.noarch
python3-dbus-1.2.4-15.el8.x86_64
python3-decorator-4.2.1-2.el8.noarch
python3-dnf-4.7.0-4.el8.noarch
python3-dnf-plugins-core-4.0.21-4.el8_5.noarch
python3-firewall-0.9.3-7.el8_5.1.noarch
python3-gobject-base-3.28.3-2.el8.x86_64
python3-gpg-1.13.1-9.el8.x86_64
python3-hawkey-0.63.0-3.el8.x86_64
python3-libcomps-0.1.16-2.el8.x86_64
python3-libdnf-0.63.0-3.el8.x86_64
python3-libs-3.6.8-41.el8.rocky.0.x86_64
python3-libselinux-2.9-5.el8.x86_64
python3-libsemanage-2.9-9.el8_6.x86_64
python3-linux-procfs-0.6.3-1.el8.noarch
python3-nftables-0.9.3-21.el8.x86_64
python3-perf-4.18.0-348.23.1.2.g50e329dc22ea.el8.x86_64
python3-pip-9.0.3-20.el8.rocky.0.noarch
python3-pip-wheel-9.0.3-20.el8.rocky.0.noarch
python3-policycoreutils-2.9-24.el8.noarch
python3-pyasn1-0.3.7-6.el8.noarch
python3-pyudev-0.21.0-7.el8.noarch
python3-pyyaml-3.12-12.el8.x86_64
python3-rpm-4.14.3-19.el8_5.2.x86_64
python3-rpm-generators-5-7.el8.noarch
python3-rpm-macros-3-41.el8.noarch
python3-rsa-4.8-1.el8.noarch
python3-setools-4.3.0-3.el8.x86_64
python3-setuptools-39.2.0-6.el8.noarch
python3-setuptools-wheel-39.2.0-6.el8.noarch
python3-six-1.11.0-8.el8.noarch
python3-slip-0.6.4-11.el8.noarch
python3-slip-dbus-0.6.4-11.el8.noarch
python3-syspurpose-1.28.21-5.el8_5.x86_64
python-pyudev-0.15-9.el7.noarch
python-rpm-macros-3-41.el8.noarch
python-srpm-macros-3-41.el8.noarch
qemu-img-6.2.0-220.gd86cb318e7.el8.x86_64
qemu-kvm-6.2.0-220.gd86cb318e7.el8.x86_64
qemu-kvm-block-cbd-6.2.0-220.gd86cb318e7.el8.x86_64
qemu-kvm-block-curl-6.2.0-220.gd86cb318e7.el8.x86_64
qemu-kvm-block-gluster-6.2.0-220.gd86cb318e7.el8.x86_64
qemu-kvm-block-iscsi-6.2.0-220.gd86cb318e7.el8.x86_64
qemu-kvm-block-rbd-6.2.0-220.gd86cb318e7.el8.x86_64
qemu-kvm-block-ssh-6.2.0-220.gd86cb318e7.el8.x86_64
qemu-kvm-common-6.2.0-220.gd86cb318e7.el8.x86_64
qemu-kvm-core-6.2.0-220.gd86cb318e7.el8.x86_64
qemu-kvm-docs-6.2.0-220.gd86cb318e7.el8.x86_64
qemu-kvm-hw-usbredir-6.2.0-220.gd86cb318e7.el8.x86_64
qemu-kvm-ui-opengl-6.2.0-220.gd86cb318e7.el8.x86_64
qemu-kvm-ui-spice-6.2.0-220.gd86cb318e7.el8.x86_64
qt5-srpm-macros-5.15.2-1.el8.0.1.noarch
quota-4.04-14.el8.x86_64
quota-nls-4.04-14.el8.noarch
rdma-core-35.0-1.el8.x86_64
readline-7.0-10.el8.x86_64
redhat-rpm-config-125-1.el8.noarch
redis-5.0.3-5.module+el8.5.0+657+2674830e.x86_64
rest-0.8.1-2.el8.x86_64
rocky-logos-85.0-3.el8.x86_64
rocky-logos-httpd-85.0-3.el8.noarch
rootfiles-8.1-22.el8.noarch
rpcbind-1.2.5-8.el8.x86_64
rpm-4.14.3-19.el8_5.2.x86_64
rpm-build-libs-4.14.3-19.el8_5.2.x86_64
rpm-libs-4.14.3-19.el8_5.2.x86_64
rpm-plugin-selinux-4.14.3-19.el8_5.2.x86_64
rsync-3.1.3-12.el8.x86_64
rsyslog-8.2102.0-5.el8.x86_64
rust-srpm-macros-5-2.el8.noarch
sanlock-3.8.4-2.el8_5.x86_64
sanlock-lib-3.8.4-2.el8_5.x86_64
seabios-bin-1.13.0-2.module+el8.4.0+534+4680a14e.noarch
seavgabios-bin-1.13.0-2.module+el8.4.0+534+4680a14e.noarch
sed-4.5-2.el8.x86_64
selinux-policy-3.14.3-117.el8_8.2.noarch
selinux-policy-targeted-3.14.3-117.el8_8.2.noarch
setup-2.12.2-6.el8.noarch
sg3_utils-1.44-6.el8.x86_64
sg3_utils-libs-1.44-6.el8.x86_64
sgabios-bin-0.20170427git-3.module+el8.4.0+534+4680a14e.noarch
shadow-utils-4.6-14.el8.x86_64
shared-mime-info-1.9-3.el8.x86_64
shim-x64-15.4-2.el8_5.2.rocky.x86_64
smartmontools-7.1-1.el8.x86_64
snappy-1.1.8-3.el8.x86_64
spice-server-0.14.3-4.el8.x86_64
sqlite-3.26.0-15.el8.x86_64
sqlite-libs-3.26.0-15.el8.x86_64
squashfs-tools-4.3-20.el8.x86_64
sshpass-1.09-4.el8.x86_64
sssd-client-2.5.2-2.el8_5.4.x86_64
storcli-007.1804.0000.0000-1.noarch
sudo-1.8.29-7.el8_4.1.x86_64
swtpm-0.7.0-4.20211109gitb79fd91.module+el8.8.0+1279+230c2115.x86_64
swtpm-libs-0.7.0-4.20211109gitb79fd91.module+el8.8.0+1279+230c2115.x86_64
swtpm-tools-0.7.0-4.20211109gitb79fd91.module+el8.8.0+1279+230c2115.x86_64
sysfsutils-2.1.0-24.el8.x86_64
syslinux-6.04-5.el8.x86_64
syslinux-nonlinux-6.04-5.el8.noarch
sysstat-11.7.3-6.el8.x86_64
systemd-239-51.el8_5.5.x86_64
systemd-container-239-51.el8_5.5.x86_64
systemd-libs-239-51.el8_5.5.x86_64
systemd-pam-239-51.el8_5.5.x86_64
systemd-udev-239-51.el8_5.5.x86_64
tar-1.30-5.el8.x86_64
tcl-8.6.8-2.el8.x86_64
telnet-0.17-76.el8.x86_64
tpm2-tss-2.3.2-4.el8.x86_64
traceroute-2.1.0-6.el8.x86_64
tree-1.7.0-15.el8.x86_64
trousers-0.3.15-1.el8.x86_64
trousers-lib-0.3.15-1.el8.x86_64
ttmkfdir-3.0.9-54.el8.x86_64
tuned-2.16.0-1.el8.noarch
tzdata-2024a-1.el8.noarch
tzdata-java-2024a-1.el8.noarch
unbound-libs-1.7.3-17.el8.x86_64
unzip-6.0-45.el8_4.x86_64
usbredir-0.12.0-2.el8.x86_64
usbredir-server-0.12.0-2.el8.x86_64
usbutils-010-3.el8.x86_64
userspace-rcu-0.10.1-4.el8.x86_64
util-linux-2.32.1-28.el8.x86_64
vim-common-8.0.1763-16.el8_5.13.x86_64
vim-enhanced-8.0.1763-16.el8_5.13.x86_64
vim-filesystem-8.0.1763-16.el8_5.13.noarch
vim-minimal-8.0.1763-16.el8_5.13.x86_64
virt-what-1.18-12.el8.x86_64
vsftpd-3.0.3-34.el8.x86_64
wget-1.19.5-10.el8.x86_64
which-2.21-16.el8.x86_64
xfsprogs-5.0.0-9.el8.x86_64
xkeyboard-config-2.28-1.el8.noarch
xml-common-0.6.3-50.el8.noarch
xorg-x11-fonts-Type1-7.5-19.el8.noarch
xorg-x11-font-utils-7.5-41.el8.x86_64
xz-5.2.4-3.el8.1.x86_64
xz-libs-5.2.4-3.el8.1.x86_64
yajl-2.1.0-10.el8.x86_64
yum-4.7.0-4.el8.noarch
yum-utils-4.0.21-4.el8_5.noarch
zip-3.0-23.el8.x86_64
zlib-1.2.11-18.el8_5.x86_64
zlib-devel-1.2.11-18.el8_5.x86_64
zs-forecast-capacity-1.0-1.1.x86_64
zstack-manager-5.0.0-1.h8.zstack.noarch
zstack-release-h84r-1.h8.zstack.noarch
[root@zstack130 ~]#

仮想サーバを構築するための基盤メモ 2024/03/28版

$
0
0

VMware/vSphereがあんなことになってしまったので問い合わせが多いのでメモ

VMware vSpere

VMware vSphere / ESXi はBrocadeに買収されたことで、アレな感じになって迷走中

Microsoft Hyper-V

Windows Serverにも含まれるHyper-V

Hyper-V Sevrer 2019という仮想基盤だけのやつは無料製品としてあるんだけど、2022版が出ていないので、終わるのか?

物理サーバ間を稼働中の仮想マシンを移動させることは、Windows Serverのフェイルオーバークラスタリング(MSFC/WSFC)、System Center Virtual Machine Managerを利用することで実現する。(ライブマイグレーションの概要)

Nutanix

VMware vSAN/HCI環境を似たような構成で移行しようとすると、Nutanixになる。(というか、NutanixをまねしたのがvSAN)

vSAN = AOS Storage
ESXi hypervisor=Nutanix Acropolis Hypervisor(AHV)
vCenter Server=Prism

単体AHVに標準でPrism Elementも含まれてて、これだけでもクラスタを組める

Prism Centralは、Prism Elementで作ったクラスタを複数まとめて管理したり、また、仮想マシンをSecure boot対応にする場合の暗号化キー管理などを行える。

RHEV/RHV → RedHat OpenShift Virtualization

RedHat Virtualization / RedHat Enterprise Virtualzation、RHEVというのがあったんだけど、これは終了したプロダクトとなる。

後継はRedHat OpenShift Virtualizationとなる。

旧ドキュメント: Product Documentation for Red Hat Virtualization 4.4

ドキュメント: OpenShift Container PlatformAbout OpenShift Virtualization

Proxmox VE

Proxmox Virtual Environment は最初はRHEL or Debianベースでコンテナを動かすやつだったものが、時代の流れでDebianベースのKVM/qemu仮想マシンとlxcコンテナを動かすやつに変わっていったもの

長く続くプロダクトなので、一通り使える Web GUIが備わっているし、複数物理サーバの一括管理物理サーバ間の仮想マシン移動(Online Migration)HA機能があるが、Webでは設定できずコマンド実行が必要な機能は多い。

一般向けドキュメント: Proxmox VE Documentation Index
旧来からの資料サイト: PVE wiki

Oracle OLVM

Oracle VM Server for x86 というのがあったんだけどOracle VM 3で終了になった。

後継として、Oracle LinuxのKVMベースで構築して、管理UIとして Oracle Linux Virtualization Manager を提供する、という形に変わっている。

oVirtを利用していて、そもそもRedHatVirtualization 4.xのOracle版がOLVM 4.xとなる。RedHatが提供をやめたので今後どうなるのか不明確。

oVirt

RHV/RHEV/OLVMで利用している元の技術 oVirt

RHV/OLVMは4.4.xで止まっているが、oVirtの方は4.5.xが出ている。

ドキュメント: oVirt documentation

Citrix Hypervisor(XenServer)

Linux KVMより歴史が古い仮想化技術 Xen を使用したもの。

2024/03/25にXenServer 8が出たばかり

vCenterに相当するものはXenCenterとなっている。

XCP-ng / Vates

XenServerのオープンソース版がXCP-ng だったんだけど、なんかいつの間にかXCP-ngの商用サポート版として Vates なるものが登場してる

Vatesの方にはHCIプロダクトとして、XOSTORなるものもあるようだ

サポートと価格について

Sangfor HCI

構成がよくわからんけど Sangfor HCI というのがあるらしい

ZStack Cloud

中国で開発されているZStack

インストール用ISO提供あり

中国産なのでopenEulerベースかと思ったら、CentOS 7ベースのh76c,h79cとRocky Linux 8ベースのh84r だった。また、ISOがリリースされているのはx86_64向けのみだけど、GUI的にはARM, 龍芯系(mips64el,loongarch)向けも想定されてる模様。

ドキュメント: ZStack Cloud Documentation
github: https://github.com/zstackio/zstack

参照先

vinchin How to Migrate RHV/RHEV VMs to Other Hosts?
この記事にRHEVからの乗り換え先として「VMware, Citrix Hypervisor/XenServer, XCP-ng, Oracle OLVM, oVirt, Sangfor HCI, OpenStack, ZStack, Huawei FusionCompute, and H3C CAS/UIS」と記載されていて、知らないのがあるな、というのが記事を書くきっかけ

Storware vProtect documentation Virtual Machines
バックアップソフトのマニュアルなんだけど、対応してる各仮想環境でどういう風にバックアップを取るのかという構成図がある。

proxmox 8.1.4で適当にcephストレージ作ったらWARNINGが出た件の対処

$
0
0

proxmox 8.1.4を3サーバで作って、cpehストレージ作ってみるかー、と適当に設定した。

基本は「Deploy Hyper-Converged Ceph Cluster」を見ながらやったんだけど、CephFSを作成するときに、手順だと「pveceph fs create –pg_num 128 –add-storage」と書いてあったんだけど、「pveceph fs create」だけで実行したらどうなるんだろ?と思ってやってみたところ、警告が出た

注:いろいろ対処方法を検討したところ、指定しない場合のデフォルト値も128だった。

HEALTH_WARN: 1 pools have too many placement groups
Pool storagepool has 128 placement groups, should have 32

調べてみるとproxmoxのフォーラムに「CEPH pools have too many placement groups」という若干古め(2020年のpoxmox 6.3時代)のものが見つかった。

「pveceph pool ls」で現在の設定を確認

root@zstack137:~# ceph -v
ceph version 18.2.2 (e9fe820e7fffd1b7cde143a9f77653b73fcec748) reef (stable)
root@zstack137:~# pveversion
pve-manager/8.1.4/ec5affc9e41f1d79 (running kernel: 6.5.11-8-pve)
root@zstack137:~# pveceph pool ls
lqqqqqqqqqqqqqqqqqwqqqqqqwqqqqqqqqqqwqqqqqqqqwqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqk
x Name            x Size x Min Size x PG Num x min. PG Num x Optimal PG Num x PG Autoscale Mode x PG Autoscale Target Size x PG Autoscale Target Ratio x Crush Rule Name x               %-Used x       Used x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x .mgr            x    3 x        2 x      1 x           1 x              1 x on                x                          x                           x replicated_rule x 3.08950029648258e-06 x    1388544 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_data     x    3 x        2 x     32 x             x             32 x on                x                          x                           x replicated_rule x                    0 x          0 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_metadata x    3 x        2 x     32 x          16 x             16 x on                x                          x                           x replicated_rule x 4.41906962578287e-07 x     198610 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x storagepool     x    3 x        2 x    128 x             x             32 x warn              x                          x                           x replicated_rule x   0.0184257291257381 x 8436679796 x
mqqqqqqqqqqqqqqqqqvqqqqqqvqqqqqqqqqqvqqqqqqqqvqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqj
root@zstack137:~#

「ceph osd pool autoscale-status」

root@zstack137:~# ceph osd pool autoscale-status
POOL               SIZE  TARGET SIZE  RATE  RAW CAPACITY   RATIO  TARGET RATIO  EFFECTIVE RATIO  BIAS  PG_NUM  NEW PG_NUM  AUTOSCALE  BULK
.mgr             452.0k                3.0        449.9G  0.0000                                  1.0       1              on         False
cephfs_data          0                 3.0        449.9G  0.0000                                  1.0      32              on         False
cephfs_metadata  66203                 3.0        449.9G  0.0000                                  4.0      32              on         False
storagepool       2681M                3.0        449.9G  0.0175                                  1.0     128              warn       False
root@zstack137:~#

そういえば、むかし、cephをテスト構築した時もなんかあったな、と思い出して確認してみると2018年に「CephのOSD毎のPlacement Groupの数を確認する」というメモを残していた。

「ceph health」を実行してみると状況は違うようだった。

root@zstack137:~# ceph health
HEALTH_WARN 1 pools have too many placement groups

root@zstack137:~# ceph health detail
HEALTH_WARN 1 pools have too many placement groups
[WRN] POOL_TOO_MANY_PGS: 1 pools have too many placement groups
    Pool storagepool has 128 placement groups, should have 32
root@zstack137:~#
root@zstack137:~# ceph -s
  cluster:
    id:     9e085d6a-77f3-41f1-8f6d-71fadc9c011b
    health: HEALTH_WARN
            1 pools have too many placement groups

  services:
    mon: 3 daemons, quorum zstack136,zstack135,zstack137 (age 3h)
    mgr: zstack136(active, since 3h), standbys: zstack135
    mds: 1/1 daemons up, 1 standby
    osd: 9 osds: 9 up (since 3h), 9 in (since 3d)

  data:
    volumes: 1/1 healthy
    pools:   4 pools, 193 pgs
    objects: 716 objects, 2.7 GiB
    usage:   8.3 GiB used, 442 GiB / 450 GiB avail
    pgs:     193 active+clean

root@zstack137:~#

とはいえ、「ceph pg dump」の出力結果を整形して表示する下記コマンドが実行できるか確認してみる。

ceph pg dump | awk '
BEGIN { IGNORECASE = 1 }
 /^PG_STAT/ { col=1; while($col!="UP") {col++}; col++ }
 /^[0-9a-f]+\.[0-9a-f]+/ { match($0,/^[0-9a-f]+/); pool=substr($0, RSTART, RLENGTH); poollist[pool]=0;
 up=$col; i=0; RSTART=0; RLENGTH=0; delete osds; while(match(up,/[0-9]+/)>0) { osds[++i]=substr(up,RSTART,RLENGTH); up = substr(up, RSTART+RLENGTH) }
 for(i in osds) {array[osds[i],pool]++; osdlist[osds[i]];}
}
END {
 printf("\n");
 printf("pool :\t"); for (i in poollist) printf("%s\t",i); printf("| SUM \n");
 for (i in poollist) printf("--------"); printf("----------------\n");
 for (i in osdlist) { printf("osd.%i\t", i); sum=0;
   for (j in poollist) { printf("%i\t", array[i,j]); sum+=array[i,j]; sumpool[j]+=array[i,j] }; printf("| %i\n",sum) }
 for (i in poollist) printf("--------"); printf("----------------\n");
 printf("SUM :\t"); for (i in poollist) printf("%s\t",sumpool[i]); printf("|\n");
}'

無事実行できた。

root@zstack137:~# ceph pg dump | awk '
BEGIN { IGNORECASE = 1 }
 /^PG_STAT/ { col=1; while($col!="UP") {col++}; col++ }
 /^[0-9a-f]+\.[0-9a-f]+/ { match($0,/^[0-9a-f]+/); pool=substr($0, RSTART, RLENGTH); poollist[pool]=0;
 up=$col; i=0; RSTART=0; RLENGTH=0; delete osds; while(match(up,/[0-9]+/)>0) { osds[++i]=substr(up,RSTART,RLENGTH); up = substr(up, RSTART+RLENGTH) }
 for(i in osds) {array[osds[i],pool]++; osdlist[osds[i]];}
}
END {
 printf("\n");
 printf("pool :\t"); for (i in poollist) printf("%s\t",i); printf("| SUM \n");
 for (i in poollist) printf("--------"); printf("----------------\n");
 for (i in osdlist) { printf("osd.%i\t", i); sum=0;
   for (j in poollist) { printf("%i\t", array[i,j]); sum+=array[i,j]; sumpool[j]+=array[i,j] }; printf("| %i\n",sum) }
 for (i in poollist) printf("--------"); printf("----------------\n");
 printf("SUM :\t"); for (i in poollist) printf("%s\t",sumpool[i]); printf("|\n");
}'
dumped all

pool :  3       2       1       4       | SUM
------------------------------------------------
osd.3   4       5       1       13      | 23
osd.8   4       6       0       12      | 22
osd.6   2       4       0       15      | 21
osd.5   6       4       0       16      | 26
osd.2   3       3       0       15      | 21
osd.1   4       3       0       10      | 17
osd.4   1       1       0       16      | 18
osd.0   5       2       0       10      | 17
osd.7   3       4       0       21      | 28
------------------------------------------------
SUM :   32      32      1       128     |
root@zstack137:~#

poolによって差がありすぎている?

中国語のページで「ceph使用问题积累」というところがあって「HEALTH_WARN:pools have too many placement groups」と「HEALTH_WARN: mons are allowing insecure global_id reclaim」についての対処方法が載っている。

前者については↑で出てきたproxmoxフォーラム記事を参照元として「ceph mgr module disable pg_autoscaler」を実行してauto scale機能を無効化する、とある

後者については「ceph config set mon auth_allow_insecure_global_id_reclaim false」となっていた。

module設定変える前に「ceph mgr module ls」で状態確認

root@zstack137:~# ceph mgr module ls
MODULE
balancer           on (always on)
crash              on (always on)
devicehealth       on (always on)
orchestrator       on (always on)
pg_autoscaler      on (always on)
progress           on (always on)
rbd_support        on (always on)
status             on (always on)
telemetry          on (always on)
volumes            on (always on)
iostat             on
nfs                on
restful            on
alerts             -
influx             -
insights           -
localpool          -
mirroring          -
osd_perf_query     -
osd_support        -
prometheus         -
selftest           -
snap_schedule      -
stats              -
telegraf           -
test_orchestrator  -
zabbix             -
root@zstack137:~#

SUSEのページにあるSUSE Enterprise Storage 7 DocumentationのAdministration and Operations Guide「12 Determine the cluster state」を見るといろいろな状態確認コマンドがあった。

root@zstack137:~# ceph df
--- RAW STORAGE ---
CLASS     SIZE    AVAIL     USED  RAW USED  %RAW USED
hdd    450 GiB  442 GiB  8.3 GiB   8.3 GiB       1.85
TOTAL  450 GiB  442 GiB  8.3 GiB   8.3 GiB       1.85

--- POOLS ---
POOL             ID  PGS   STORED  OBJECTS     USED  %USED  MAX AVAIL
.mgr              1    1  449 KiB        2  1.3 MiB      0    140 GiB
cephfs_data       2   32      0 B        0      0 B      0    140 GiB
cephfs_metadata   3   32   35 KiB       22  194 KiB      0    140 GiB
storagepool       4  128  2.6 GiB      692  7.9 GiB   1.84    140 GiB
root@zstack137:~#  ceph df detail
--- RAW STORAGE ---
CLASS     SIZE    AVAIL     USED  RAW USED  %RAW USED
hdd    450 GiB  442 GiB  8.3 GiB   8.3 GiB       1.85
TOTAL  450 GiB  442 GiB  8.3 GiB   8.3 GiB       1.85

--- POOLS ---
POOL             ID  PGS   STORED   (DATA)   (OMAP)  OBJECTS     USED   (DATA)   (OMAP)  %USED  MAX AVAIL  QUOTA OBJECTS  QUOTA BYTES  DIRTY  USED COMPR  UNDER COMPR
.mgr              1    1  449 KiB  449 KiB      0 B        2  1.3 MiB  1.3 MiB      0 B      0    140 GiB            N/A          N/A    N/A         0 B          0 B
cephfs_data       2   32      0 B      0 B      0 B        0      0 B      0 B      0 B      0    140 GiB            N/A          N/A    N/A         0 B          0 B
cephfs_metadata   3   32   35 KiB   18 KiB   17 KiB       22  194 KiB  144 KiB   50 KiB      0    140 GiB            N/A          N/A    N/A         0 B          0 B
storagepool       4  128  2.6 GiB  2.6 GiB  3.0 KiB      692  7.9 GiB  7.9 GiB  9.1 KiB   1.84    140 GiB            N/A          N/A    N/A         0 B          0 B
root@zstack137:~# 

TOO_MANY_PGSの時の対処としていかが書かれている

TOO_MANY_PGS
The number of PGs in use is above the configurable threshold of mon_pg_warn_max_per_osd PGs per OSD. This can lead to higher memory usage for OSD daemons, slower peering after cluster state changes (for example OSD restarts, additions, or removals), and higher load on the Ceph Managers and Ceph Monitors.

While the pg_num value for existing pools cannot be reduced, the pgp_num value can. This effectively co-locates some PGs on the same sets of OSDs, mitigating some of the negative impacts described above. The pgp_num value can be adjusted with:

proxmox「Deploy Hyper-Converged Ceph Cluster」のあたりをみると PG Autoscale Modeはwarnで設定されるのが標準であるようだ。

cephのautomated scalingを見ると「ceph config set global mon_target_pg_per_osd 100」で値を設定することが書かれているが、現在値の確認方法が書いてない。

ceph config get <who> <key>というのはわかったのだが、whoの部分がなんなのかがわからなかった。(globalではなかった)

「ceph config dump」を実行したところ、いま標準値から変更されているところであろう設定が出てきて、whoに該当するものとしてmonがあった。であればmon_target_pg_per_osdのwhoはmonだろうと試すと現在値らしきものが確認できた。

root@zstack137:~# ceph config dump
WHO  MASK  LEVEL     OPTION                                 VALUE  RO
mon        advanced  auth_allow_insecure_global_id_reclaim  false
root@zstack137:~# ceph config get mon  mon_target_pg_per_osd
100
root@zstack137:~#

とりあえず、「ceph mgr module disable pg_autoscaler」を実行してみたのだが、変更不可だった

root@zstack137:~# ceph mgr module disable pg_autoscaler
Error EINVAL: module 'pg_autoscaler' cannot be disabled (always-on)
root@zstack137:~#

じゃあ、「ceph osd pool set storagepool pgp_num 32」を実行してpgp_numを128から32に変更してみる

root@zstack137:~# ceph osd pool stats
pool .mgr id 1
  nothing is going on

pool cephfs_data id 2
  nothing is going on

pool cephfs_metadata id 3
  nothing is going on

pool storagepool id 4
  nothing is going on

root@zstack137:~# ceph osd pool get storagepool pgp_num
pgp_num: 128
root@zstack137:~# ceph osd pool set storagepool pgp_num 32
set pool 4 pgp_num to 32
root@zstack137:~# ceph osd pool get storagepool pgp_num
pgp_num: 125
root@zstack137:~# ceph osd pool get storagepool pgp_num
pgp_num: 119
root@zstack137:~#

徐々に変更されていく模様

root@zstack137:~# ceph -s
  cluster:
    id:     9e085d6a-77f3-41f1-8f6d-71fadc9c011b
    health: HEALTH_WARN
            Reduced data availability: 1 pg peering
            1 pools have too many placement groups
            1 pools have pg_num > pgp_num

  services:
    mon: 3 daemons, quorum zstack136,zstack135,zstack137 (age 5h)
    mgr: zstack136(active, since 5h), standbys: zstack135
    mds: 1/1 daemons up, 1 standby
    osd: 9 osds: 9 up (since 5h), 9 in (since 3d); 2 remapped pgs

  data:
    volumes: 1/1 healthy
    pools:   4 pools, 193 pgs
    objects: 716 objects, 2.7 GiB
    usage:   8.4 GiB used, 442 GiB / 450 GiB avail
    pgs:     0.518% pgs not active
             16/2148 objects misplaced (0.745%)
             190 active+clean
             2   active+recovering
             1   remapped+peering

  io:
    recovery: 2.0 MiB/s, 0 objects/s

root@zstack137:~# ceph health
HEALTH_WARN Reduced data availability: 1 pg peering; 1 pools have too many placement groups; 1 pools have pg_num > pgp_num
root@zstack137:~# ceph health detail
HEALTH_WARN 1 pools have too many placement groups; 1 pools have pg_num > pgp_num
[WRN] POOL_TOO_MANY_PGS: 1 pools have too many placement groups
    Pool storagepool has 128 placement groups, should have 32
[WRN] SMALLER_PGP_NUM: 1 pools have pg_num > pgp_num
    pool storagepool pg_num 128 > pgp_num 32
root@zstack137:~#

ある程度時間が経過したあと

root@zstack137:~# ceph health detail
HEALTH_WARN 1 pools have too many placement groups; 1 pools have pg_num > pgp_num
[WRN] POOL_TOO_MANY_PGS: 1 pools have too many placement groups
    Pool storagepool has 128 placement groups, should have 32
[WRN] SMALLER_PGP_NUM: 1 pools have pg_num > pgp_num
    pool storagepool pg_num 128 > pgp_num 32
root@zstack137:~# ceph pg dump | awk '
BEGIN { IGNORECASE = 1 }
 /^PG_STAT/ { col=1; while($col!="UP") {col++}; col++ }
 /^[0-9a-f]+\.[0-9a-f]+/ { match($0,/^[0-9a-f]+/); pool=substr($0, RSTART, RLENGTH); poollist[pool]=0;
 up=$col; i=0; RSTART=0; RLENGTH=0; delete osds; while(match(up,/[0-9]+/)>0) { osds[++i]=substr(up,RSTART,RLENGTH); up = substr(up, RSTART+RLENGTH) }
 for(i in osds) {array[osds[i],pool]++; osdlist[osds[i]];}
}
END {
 printf("\n");
 printf("pool :\t"); for (i in poollist) printf("%s\t",i); printf("| SUM \n");
 for (i in poollist) printf("--------"); printf("----------------\n");
 for (i in osdlist) { printf("osd.%i\t", i); sum=0;
   for (j in poollist) { printf("%i\t", array[i,j]); sum+=array[i,j]; sumpool[j]+=array[i,j] }; printf("| %i\n",sum) }
 for (i in poollist) printf("--------"); printf("----------------\n");
 printf("SUM :\t"); for (i in poollist) printf("%s\t",sumpool[i]); printf("|\n");
}'
dumped all

pool :  3       2       1       4       | SUM
------------------------------------------------
osd.3   4       5       1       15      | 25
osd.8   4       6       0       16      | 26
osd.6   2       4       0       16      | 22
osd.5   6       4       0       4       | 14
osd.2   3       3       0       11      | 17
osd.1   4       3       0       13      | 20
osd.4   1       1       0       17      | 19
osd.0   5       2       0       20      | 27
osd.7   3       4       0       16      | 23
------------------------------------------------
SUM :   32      32      1       128     |
root@zstack137:~# ceph osd pool autoscale-status
POOL               SIZE  TARGET SIZE  RATE  RAW CAPACITY   RATIO  TARGET RATIO  EFFECTIVE RATIO  BIAS  PG_NUM  NEW PG_NUM  AUTOSCALE  BULK
.mgr             452.0k                3.0        449.9G  0.0000                                  1.0       1              on         False
cephfs_data          0                 3.0        449.9G  0.0000                                  1.0      32              on         False
cephfs_metadata  66203                 3.0        449.9G  0.0000                                  4.0      32              on         False
storagepool       2681M                3.0        449.9G  0.0175                                  1.0     128              warn       False
root@zstack137:~# pveceph pool ls
lqqqqqqqqqqqqqqqqqwqqqqqqwqqqqqqqqqqwqqqqqqqqwqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqk
x Name            x Size x Min Size x PG Num x min. PG Num x Optimal PG Num x PG Autoscale Mode x PG Autoscale Target Size x PG Autoscale Target Ratio x Crush Rule Name x               %-Used x       Used x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x .mgr            x    3 x        2 x      1 x           1 x              1 x on                x                          x                           x replicated_rule x 3.09735719383752e-06 x    1388544 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_data     x    3 x        2 x     32 x             x             32 x on                x                          x                           x replicated_rule x                    0 x          0 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_metadata x    3 x        2 x     32 x          16 x             16 x on                x                          x                           x replicated_rule x 4.43030785390874e-07 x     198610 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x storagepool     x    3 x        2 x    128 x             x             32 x warn              x                          x                           x replicated_rule x    0.018471721559763 x 8436679796 x
mqqqqqqqqqqqqqqqqqvqqqqqqvqqqqqqqqqqvqqqqqqqqvqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqj
root@zstack137:~#

pg_numを減らせる?

root@zstack137:~# ceph osd pool get storagepool pg_num
pg_num: 128
root@zstack137:~# ceph osd pool set storagepool pg_num 32
set pool 4 pg_num to 32
root@zstack137:~# ceph osd pool get storagepool pg_num
pg_num: 128
root@zstack137:~# ceph osd pool get storagepool pg_num
pg_num: 124
root@zstack137:~#

徐々に減ってる

ステータスはHEALTH_OLに変わった

root@zstack137:~# ceph osd pool get storagepool pg_num
pg_num: 119
root@zstack137:~# ceph health detail
HEALTH_OK
root@zstack137:~# pveceph pool ls
lqqqqqqqqqqqqqqqqqwqqqqqqwqqqqqqqqqqwqqqqqqqqwqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqk
x Name            x Size x Min Size x PG Num x min. PG Num x Optimal PG Num x PG Autoscale Mode x PG Autoscale Target Size x PG Autoscale Target Ratio x Crush Rule Name x               %-Used x       Used x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x .mgr            x    3 x        2 x      1 x           1 x              1 x on                x                          x                           x replicated_rule x 3.10063592223742e-06 x    1388544 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_data     x    3 x        2 x     32 x             x             32 x on                x                          x                           x replicated_rule x                    0 x          0 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_metadata x    3 x        2 x     32 x          16 x             16 x on                x                          x                           x replicated_rule x 4.43499772018185e-07 x     198610 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x storagepool     x    3 x        2 x    117 x             x             32 x warn              x                          x                           x replicated_rule x   0.0184909123927355 x 8436679796 x
mqqqqqqqqqqqqqqqqqvqqqqqqvqqqqqqqqqqvqqqqqqqqvqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqj
root@zstack137:~#

「ceph osd pool autoscale-status」の方のPG_NUMは即反映

root@zstack137:~# ceph osd pool autoscale-status
POOL               SIZE  TARGET SIZE  RATE  RAW CAPACITY   RATIO  TARGET RATIO  EFFECTIVE RATIO  BIAS  PG_NUM  NEW PG_NUM  AUTOSCALE  BULK
.mgr             452.0k                3.0        449.9G  0.0000                                  1.0       1              on         False
cephfs_data          0                 3.0        449.9G  0.0000                                  1.0      32              on         False
cephfs_metadata  66203                 3.0        449.9G  0.0000                                  4.0      32              on         False
storagepool       2705M                3.0        449.9G  0.0176                                  1.0      32              warn       False
root@zstack137:~#

しばらく実行したらHEALTH_WARNになったときもあったが、比較的すぐにHEALTH_OKに戻ったりした。

root@zstack137:~# ceph health detail
HEALTH_WARN Reduced data availability: 2 pgs inactive, 2 pgs peering
[WRN] PG_AVAILABILITY: Reduced data availability: 2 pgs inactive, 2 pgs peering
    pg 4.22 is stuck peering for 2d, current state peering, last acting [6,5,2]
    pg 4.62 is stuck peering for 6h, current state peering, last acting [6,5,2]
root@zstack137:~#

しばらく時間がたって変更が終わったあとに状態をとってみた

root@zstack137:~# ceph health detail
HEALTH_OK
root@zstack137:~# pveceph pool ls
lqqqqqqqqqqqqqqqqqwqqqqqqwqqqqqqqqqqwqqqqqqqqwqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqk
x Name            x Size x Min Size x PG Num x min. PG Num x Optimal PG Num x PG Autoscale Mode x PG Autoscale Target Size x PG Autoscale Target Ratio x Crush Rule Name x               %-Used x       Used x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x .mgr            x    3 x        2 x      1 x           1 x              1 x on                x                          x                           x replicated_rule x 3.13595910483855e-06 x    1388544 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_data     x    3 x        2 x     32 x             x             32 x on                x                          x                           x replicated_rule x                    0 x          0 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_metadata x    3 x        2 x     32 x          16 x             16 x on                x                          x                           x replicated_rule x  4.4855224246021e-07 x     198610 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x storagepool     x    3 x        2 x     32 x             x             32 x warn              x                          x                           x replicated_rule x   0.0186976287513971 x 8436679796 x
mqqqqqqqqqqqqqqqqqvqqqqqqvqqqqqqqqqqvqqqqqqqqvqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqj
root@zstack137:~# ceph -s
  cluster:
    id:     9e085d6a-77f3-41f1-8f6d-71fadc9c011b
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum zstack136,zstack135,zstack137 (age 6h)
    mgr: zstack136(active, since 6h), standbys: zstack135
    mds: 1/1 daemons up, 1 standby
    osd: 9 osds: 9 up (since 6h), 9 in (since 3d)

  data:
    volumes: 1/1 healthy
    pools:   4 pools, 97 pgs
    objects: 716 objects, 2.7 GiB
    usage:   8.6 GiB used, 441 GiB / 450 GiB avail
    pgs:     97 active+clean

root@zstack137:~# ceph df
--- RAW STORAGE ---
CLASS     SIZE    AVAIL     USED  RAW USED  %RAW USED
hdd    450 GiB  441 GiB  8.7 GiB   8.7 GiB       1.94
TOTAL  450 GiB  441 GiB  8.7 GiB   8.7 GiB       1.94

--- POOLS ---
POOL             ID  PGS   STORED  OBJECTS     USED  %USED  MAX AVAIL
.mgr              1    1  449 KiB        2  1.3 MiB      0    137 GiB
cephfs_data       2   32      0 B        0      0 B      0    137 GiB
cephfs_metadata   3   32   35 KiB       22  194 KiB      0    137 GiB
storagepool       4   32  2.7 GiB      692  8.0 GiB   1.89    137 GiB
root@zstack137:~#

とりあえず対処できた模様?

CVE-2022-38023対応後のsamba ADサーバに古いONTAPを参加させる

$
0
0

2023年7月のCVE-2022-38023関連対応後、古いONTAPシミュレーターは sambaで作ったActive Directory環境に参加できなくなった。

samba側の設定を変更し、セキュリティ的に問題がある接続でも受け付けるようにすればいいのかな、と試してみた。

sambaのCVE-2022-38023対応に関して書かれている「RC4/HMAC-MD5 NetLogon Secure Channel is weak and should be avoided」に、これまでのdefaultから変更した点がかかれているので、これの逆をやればいいのか、と以下を設定した。

[global]
        <略>
        allow nt4 crypto = yes
        reject md5 clients = no
        server reject md5 schannel = no
        server schannel = yes
        server schannel require seal = no
 <略>

拒否しない(rejectをno)のと、必須を解除(requireをno)にすればいいか、というレベルでの対応となる。

ドキュメントの「Cryptographic configuration」を見た感じだとこれで良さそう。

もちろんこれは過去のバージョンを動かす必要があって行うものであり、本来の運用で使用するものではない設定となる。

この設定を行い、sambaの再起動

NetAppのCIFS稼働のSVMでは、vserver cifs securityの項目にて「-smb2-enabled-for-dc-connections true」と「-is-aes-encryption-enabled true」の設定を行っている


エラーメッセージコレクション

ONTAP 9.1 シミュレーター(パッチ無し)

このバージョンではオプションの -smb2-enabled-for-dc-connections と -is-aes-encryption-enabled が存在していないので、エラー内容が結構違う。

ontap91::> vserver cifs create -cifs-server svm91 -domain ADOSAKANA.LOCAL

In order to create an Active Directory machine account for the CIFS server, you
must supply the name and password of a Windows account with sufficient
privileges to add computers to the "CN=Computers" container within the
"ADOSAKANA.LOCAL" domain.

Enter the user name: administrator

Enter the password:

Warning: An account by this name already exists in Active Directory at
         CN=SVM91,CN=Computers,DC=adosakana,DC=local.
         If there is an existing DNS entry for the name SVM91, it must be
         removed. Data ONTAP cannot remove such an entry.
         Use an external tool to remove it after this command completes.
         Ok to reuse this account? {y|n}: y

Error: command failed: Failed to create CIFS server SVM91. Reason:
       create_with_lug: RPC: Unable to receive; errno = Connection reset by
       peer; netid=tcp fd=17 TO=600.0s TT=0.119s O=224b I=0b CN=113/3 VSID=-3
       127.0.0.1:766.

ontap91::>

ONTAP 9.1P22 シミュレーター

ontap91::> vserver cifs create -cifs-server svm91 -domain ADOSAKANA.LOCAL

In order to create an Active Directory machine account for the CIFS server, you
must supply the name and password of a Windows account with sufficient
privileges to add computers to the "CN=Computers" container within the
"ADOSAKANA.LOCAL" domain.

Enter the user name: administrator

Enter the password:

Error: Machine account creation procedure failed
  [    56] Loaded the preliminary configuration.
  [    92] Successfully connected to ip 172.17.44.49, port 88 using
           TCP
  [   107] Successfully connected to ip 172.17.44.49, port 389 using
           TCP
  [   110] Unable to start TLS: Connect error
  [   110]   Additional info:
  [   110] Unable to connect to LDAP (Active Directory) service on
           sambaad.ADOSAKANA.LOCAL
**[   110] FAILURE: Unable to make a connection (LDAP (Active
**         Directory):ADOSAKANA.LOCAL), result: 7652

Error: command failed: Failed to create the Active Directory machine account
       "SVM91". Reason: LDAP Error: Cannot establish a connection to the
       server.

ontap91::>
ontap91::> vserver cifs create -cifs-server svm91 -domain ADOSAKANA.LOCAL

In order to create an Active Directory machine account for the CIFS server, you
must supply the name and password of a Windows account with sufficient
privileges to add computers to the "CN=Computers" container within the
"ADOSAKANA.LOCAL" domain.

Enter the user name: administrator

Enter the password:

Error: Machine account creation procedure failed
  [    61] Loaded the preliminary configuration.
  [    99] Successfully connected to ip 172.17.44.49, port 88 using
           TCP
  [   168] Successfully connected to ip 172.17.44.49, port 389 using
           TCP
  [   168] Entry for host-address: 172.17.44.49 not found in the
           current source: FILES. Ignoring and trying next available
           source
  [   172] Source: DNS unavailable. Entry for
           host-address:172.17.44.49 not found in any of the
           available sources
**[   181] FAILURE: Unable to SASL bind to LDAP server using GSSAPI:
**         Local error
  [   181] Additional info: SASL(-1): generic failure: GSSAPI Error:
           Unspecified GSS failure.  Minor code may provide more
           information (Cannot determine realm for numeric host
           address)
  [   181] Unable to connect to LDAP (Active Directory) service on
           sambaad.ADOSAKANA.LOCAL (Error: Local error)
  [   181] Unable to make a connection (LDAP (Active
           Directory):ADOSAKANA.LOCAL), result: 7643

Error: command failed: Failed to create the Active Directory machine account
       "SVM91". Reason: LDAP Error: Local error occurred.

ontap91::>
ontap91::> vserver cifs create -cifs-server svm91 -domain ADOSAKANA.LOCAL

In order to create an Active Directory machine account for the CIFS server, you
must supply the name and password of a Windows account with sufficient
privileges to add computers to the "CN=Computers" container within the
"ADOSAKANA.LOCAL" domain.

Enter the user name: administrator

Enter the password:

Warning: An account by this name already exists in Active Directory at
         CN=SVM91,CN=Computers,DC=adosakana,DC=local.
         If there is an existing DNS entry for the name SVM91, it must be
         removed. Data ONTAP cannot remove such an entry.
         Use an external tool to remove it after this command completes.
         Ok to reuse this account? {y|n}: y

Error: Machine account creation procedure failed
  [    13] Loaded the preliminary configuration.
  [    92] Created a machine account in the domain
  [    93] SID to name translations of Domain Users and Admins
           completed successfully
  [   100] Modified account 'cn=SVM91,CN=Computers,dc=VM2,dc=ADOSAKANA
           dc=LOCAL'
  [   101] Successfully connected to ip 172.17.44.49, port 88 using
           TCP
  [   113] Successfully connected to ip 172.17.44.49, port 464 using
           TCP
  [   242] Kerberos password set for 'SVM91$@ADOSAKANA.LOCAL' succeeded
  [   242] Set initial account password
  [   277] Successfully connected to ip 172.17.44.49, port 445 using
           TCP
  [   312] Successfully connected to ip 172.17.44.49, port 88 using
           TCP
  [   346] Successfully authenticated with DC
           sambaad.ADOSAKANA.LOCAL
  [   366] Unable to connect to NetLogon service on
           sambaad.ADOSAKANA.LOCAL (Error:
           RESULT_ERROR_GENERAL_FAILURE)
**[   366] FAILURE: Unable to make a connection
**         (NetLogon:ADOSAKANA.LOCAL), result: 3
  [   366] Unable to make a NetLogon connection to
           sambaad.ADOSAKANA.LOCAL using the new machine account

Error: command failed: Failed to create the Active Directory machine account
       "SVM91". Reason: general failure.

ontap91::>

Windowsで使用しているドライバを確認&まとめる方法

$
0
0

Windows / Windows Serverでそのマシンが使っているデバイスドライバーがなんであるのか確認する方法がある。

driverquery」コマンドを実行すると、そのWindowsのOS上に組み込まれているデバイスドライバの一覧を出力する。これは組み込まれているけど使われていないものも含む結果となっている。

C:\Windows\System32>driverquery

モジュール名 表示名                 ドライバーの  リンク日時
============ ====================== ============= ======================
1394ohci     1394 OHCI Compliant Ho Kernel
3ware        3ware                  Kernel        2015/05/19 7:28:03
ACPI         Microsoft ACPI Driver  Kernel
AcpiDev      ACPI デバイス ドライバ Kernel
acpiex       Microsoft ACPIEx Drive Kernel
acpipagr     ACPI プロセッサ アグリ Kernel
AcpiPmi      ACPI 電源メーター ドラ Kernel
acpitime     ACPI ウェイク アラーム Kernel
Acx01000     Acx01000               Kernel
AcxHdAudio   ACX HD Audio Driver    Kernel
ADP80XX      ADP80XX                Kernel        2015/04/10 5:49:48
<略>
Wof          Windows Overlay File S File System
WpdUpFltr    WPD Upper Class Filter Kernel
ws2ifsl      Winsock IFS Driver     Kernel
wtd          wtd                    Kernel
WudfPf       User Mode Driver Frame Kernel
WUDFRd       Windows Driver Foundat Kernel
xboxgip      Xbox ゲーム入力プロト  Kernel
xinputhid    XINPUT HID フィルター  Kernel

C:\Windows\System32>

上記出力ではドライバ表示名が長いものは省略されてしまうし、検索しにくい。「driverquery /fo csv」だとCSV形式で出力されるので、扱いやすくなる。

C:\Windows\System32>driverquery /fo csv
"モジュール名","表示名","ドライバーの種類","リンク日時"
"1394ohci","1394 OHCI Compliant Host Controller","Kernel ",""
"3ware","3ware","Kernel ","2015/05/19 7:28:03"
"ACPI","Microsoft ACPI Driver","Kernel ",""
"AcpiDev","ACPI デバイス ドライバー","Kernel ",""
"acpiex","Microsoft ACPIEx Driver","Kernel ",""
"acpipagr","ACPI プロセッサ アグリゲーター ドライバー","Kernel ",""
"AcpiPmi","ACPI 電源メーター ドライバー","Kernel ",""
"acpitime","ACPI ウェイク アラーム ドライバー","Kernel ",""
"Acx01000","Acx01000","Kernel ",""
"AcxHdAudio","ACX HD Audio Driver","Kernel ",""
"ADP80XX","ADP80XX","Kernel ","2015/04/10 5:49:48"
<略>
"Wof","Windows Overlay File System Filter Driver","File System ",""
"WpdUpFltr","WPD Upper Class Filter Driver","Kernel ",""
"ws2ifsl","Winsock IFS Driver","Kernel ",""
"wtd","wtd","Kernel ",""
"WudfPf","User Mode Driver Frameworks Platform Driver","Kernel ",""
"WUDFRd","Windows Driver Foundation - User-mode Driver Framework Reflector","Kernel ",""
"xboxgip","Xbox ゲーム入力プロトコル ドライバー","Kernel ",""
"xinputhid","XINPUT HID フィルター ドライバー","Kernel ",""

C:\Windows\System32>

ドライバが動作しているかどうかを確認するには /v オプションを追加して実行します。

「driverquery /fo csv /v」で実行した場合”状態”の項目が「Running」となっているものが動作中です。(使われていないものは Stopped です)

C:\Windows\System32>driverquery /fo csv /v
"モジュール名","表示名","説明","ドライバーの種類","開始モード","状態","ステータス","停止の受理","一時停止の受理","ページ プール(バイト)","コード(バイト)","BSS(バイト)","リンク日時","パス","Init(バイト)"
"1394ohci","1394 OHCI Compliant Host Controller","1394 OHCI Compliant Host Controller","Kernel ","Manual","Stopped","OK","FALSE","FALSE","4,096","233,472","0","","C:\Windows\system32\drivers\1394ohci.sys","4,096"
"3ware","3ware","3ware","Kernel ","Manual","Stopped","OK","FALSE","FALSE","0","81,920","0","2015/05/19 7:28:03","C:\Windows\system32\drivers\3ware.sys","4,096"
"ACPI","Microsoft ACPI Driver","Microsoft ACPI Driver","Kernel ","Boot","Running","OK","TRUE","FALSE","176,128","393,216","0","","C:\Windows\system32\drivers\ACPI.sys","24,576"
"AcpiDev","ACPI デバイス ドライバー","ACPI デバイス ドライバー","Kernel ","Manual","Stopped","OK","FALSE","FALSE","8,192","12,288","0","","C:\Windows\system32\drivers\AcpiDev.sys","4,096"
"acpiex","Microsoft ACPIEx Driver","Microsoft ACPIEx Driver","Kernel ","Boot","Running","OK","TRUE","FALSE","40,960","69,632","0","","C:\Windows\system32\Drivers\acpiex.sys","4,096"
"acpipagr","ACPI プロセッサ アグリゲーター ドライバー","ACPI プロセッサ アグリゲーター ドライバー","Kernel ","Manual","Running","OK","TRUE","FALSE","4,096","8,192","0","","C:\Windows\system32\drivers\acpipagr.sys","4,096"
"AcpiPmi","ACPI 電源メーター ドライバー","ACPI 電源メーター ドライバー","Kernel ","Manual","Stopped","OK","FALSE","FALSE","8,192","8,192","0","","C:\Windows\system32\drivers\acpipmi.sys","4,096"
"acpitime","ACPI ウェイク アラーム ドライバー","ACPI ウェイク アラーム ドライバー","Kernel ","Manual","Running","OK","TRUE","FALSE","8,192","12,288","0","","C:\Windows\system32\drivers\acpitime.sys","4,096"
"Acx01000","Acx01000","Acx01000","Kernel ","Manual","Stopped","OK","FALSE","FALSE","499,712","135,168","0","","C:\Windows\system32\drivers\Acx01000.sys","4,096"
"AcxHdAudio","ACX HD Audio Driver","ACX HD Audio Driver","Kernel ","Manual","Stopped","OK","FALSE","FALSE","364,544","86,016","0","","C:\Windows\system32\drivers\AcxHdAudio.sys","4,096"
"ADP80XX","ADP80XX","ADP80XX","Kernel ","Manual","Stopped","OK","FALSE","FALSE","0","1,101,824","0","2015/04/10 5:49:48","C:\Windows\system32\drivers\ADP80XX.SYS","4,096"
<略>
"Wof","Windows Overlay File System Filter Driver","Windows Overlay File System Filter Driver","File System ","Boot","Running","OK","TRUE","FALSE","114,688","73,728","0","","C:\Windows\system32\drivers\Wof.sys","8,192"
"WpdUpFltr","WPD Upper Class Filter Driver","WPD Upper Class Filter Driver","Kernel ","Manual","Stopped","OK","FALSE","FALSE","8,192","16,384","0","","C:\Windows\system32\drivers\WpdUpFltr.sys","4,096"
"ws2ifsl","Winsock IFS Driver","Winsock IFS Driver","Kernel ","Disabled","Stopped","OK","FALSE","FALSE","12,288","8,192","0","","C:\Windows\system32\drivers\ws2ifsl.sys","4,096"
"wtd","wtd","wtd","Kernel ","Auto","Running","OK","TRUE","FALSE","28,672","28,672","0","","C:\Windows\system32\drivers\wtd.sys","4,096"
"WudfPf","User Mode Driver Frameworks Platform Driver","User Mode Driver Frameworks Platform Driver","Kernel ","Manual","Stopped","OK","FALSE","FALSE","12,288","94,208","0","","C:\Windows\system32\drivers\WudfPf.sys","4,096"
"WUDFRd","Windows Driver Foundation - User-mode Driver Framework Reflector","Windows Driver Foundation - User-mode Driver Framework Reflector","Kernel ","Manual","Running","OK","TRUE","FALSE","12,288","253,952","0","","C:\Windows\system32\drivers\WUDFRd.sys","4,096"
"xboxgip","Xbox ゲーム入力プロトコル ドライバー","Xbox ゲーム入力プロトコル ドライバー","Kernel ","Manual","Stopped","OK","FALSE","FALSE","16,384","299,008","0","","C:\Windows\system32\drivers\xboxgip.sys","4,096"
"xinputhid","XINPUT HID フィルター ドライバー","XINPUT HID フィルター ドライバー","Kernel ","Manual","Stopped","OK","FALSE","FALSE","4,096","45,056","0","","C:\Windows\system32\drivers\xinputhid.sys","4,096"

C:\Windows\System32>

Windows OSの再インストール用などでドライバをまとめておきたい場合、dismコマンドの関連オプション「DISM ドライバー サービス (.inf) コマンドライン オプション」で出力することができます。

まず「dism /online /get-drivers」を実行すると、ドライバの一覧が確認できます。

C:\Windows\System32>dism /online /get-drivers

展開イメージのサービスと管理ツール
バージョン: 10.0.22621.2792

イメージのバージョン: 10.0.22631.3296

ドライバー ストアからサード パーティのドライバーの一覧を取得しています...

ドライバー パッケージの一覧:

公開名 : oem0.inf
元のファイル名 : gna.inf
インボックス : いいえ
クラス名 : System
プロバイダー名 : Intel Corporation
日付 : 2021/11/26
バージョン : 3.0.0.1457

公開名 : oem1.inf
元のファイル名 : alexadellconfig.inf
インボックス : いいえ
クラス名 : Extension
プロバイダー名 : Realtek
日付 : 2023/05/23
バージョン : 1.0.9520.1
<略>
クラス名 : System
プロバイダー名 : INTEL
日付 : 1968/07/18
バージョン : 10.1.29.4

公開名 : oem99.inf
元のファイル名 : jasperlake+systemnorthpeak.inf
インボックス : いいえ
クラス名 : System
プロバイダー名 : INTEL
日付 : 1968/07/18
バージョン : 10.1.29.4

操作は正常に完了しました。

C:\Windows\System32>

これらのドライバをまとめて指定したディレクトリに出力するためには「dism /online /export-driver /destination:”出力先ディレクトリ”」を実行します。

このとき、出力先ディレクトリは存在している必要があります。

C:\Windows\System32>dism /online /export-driver /destination:"c:\tmp\drivers"

展開イメージのサービスと管理ツール
バージョン: 10.0.22621.2792

イメージのバージョン: 10.0.22631.3296


エラー: 87

エクスポート先のパス c:\tmp\drivers が存在しません。

DISM ログ ファイルは C:\Windows\Logs\DISM\dism.log にあります

C:\Windows\System32>mkdir c:\tmp\drivers

C:\Windows\System32>dism /online /export-driver /destination:"c:\tmp\drivers"

展開イメージのサービスと管理ツール
バージョン: 10.0.22621.2792

イメージのバージョン: 10.0.22631.3296

1 / 181 をエクスポートしています - oem0.inf: ドライバー パッケージが正常にエクスポートされました。
2 / 181 をエクスポートしています - oem1.inf: ドライバー パッケージが正常にエクスポートされました。
3 / 181 をエクスポートしています - oem100.inf: ドライバー パッケージが正常にエクスポートされました。
4 / 181 をエクスポートしています - oem101.inf: ドライバー パッケージが正常にエクスポートされました。
5 / 181 をエクスポートしています - oem102.inf: ドライバー パッケージが正常にエクスポートされました。
6 / 181 をエクスポートしています - oem103.inf: ドライバー パッケージが正常にエクスポートされました。
7 / 181 をエクスポートしています - oem104.inf: ドライバー パッケージが正常にエクスポートされました。
8 / 181 をエクスポートしています - oem105.inf: ドライバー パッケージが正常にエクスポートされました。
9 / 181 をエクスポートしています - oem106.inf: ドライバー パッケージが正常にエクスポートされました。
10 / 181 をエクスポートしています - oem107.inf: ドライバー パッケージが正常にエクスポートされました。
11 / 181 をエクスポートしています - oem108.inf: ドライバー パッケージが正常にエクスポートされました。
12 / 181 をエクスポートしています - oem109.inf: ドライバー パッケージが正常にエクスポートされました。
13 / 181 をエクスポートしています - oem110.inf: ドライバー パッケージが正常にエクスポートされました。
14 / 181 をエクスポートしています - oem111.inf: ドライバー パッケージが正常にエクスポートされました。
15 / 181 をエクスポートしています - oem112.inf: ドライバー パッケージが正常にエクスポートされました。
16 / 181 をエクスポートしています - oem113.inf: ドライバー パッケージが正常にエクスポートされました。
17 / 181 をエクスポートしています - oem114.inf: ドライバー パッケージが正常にエクスポートされました。
18 / 181 をエクスポートしています - oem115.inf: ドライバー パッケージが正常にエクスポートされました。
19 / 181 をエクスポートしています - oem116.inf: ドライバー パッケージが正常にエクスポートされました。
20 / 181 をエクスポートしています - oem117.inf: ドライバー パッケージが正常にエクスポートされました。
21 / 181 をエクスポートしています - oem118.inf: ドライバー パッケージが正常にエクスポートされました。
22 / 181 をエクスポートしています - oem119.inf: ドライバー パッケージが正常にエクスポートされました。
23 / 181 をエクスポートしています - oem120.inf: ドライバー パッケージが正常にエクスポートされました。
24 / 181 をエクスポートしています - oem121.inf: ドライバー パッケージが正常にエクスポートされました。
25 / 181 をエクスポートしています - oem122.inf: ドライバー パッケージが正常にエクスポートされました。
26 / 181 をエクスポートしています - oem123.inf: ドライバー パッケージが正常にエクスポートされました。
27 / 181 をエクスポートしています - oem124.inf: ドライバー パッケージが正常にエクスポートされました。
28 / 181 をエクスポートしています - oem125.inf: ドライバー パッケージが正常にエクスポートされました。
29 / 181 をエクスポートしています - oem126.inf: ドライバー パッケージが正常にエクスポートされました。
30 / 181 をエクスポートしています - oem127.inf: ドライバー パッケージが正常にエクスポートされました。
31 / 181 をエクスポートしています - oem128.inf: ドライバー パッケージが正常にエクスポートされました。
32 / 181 をエクスポートしています - oem129.inf: ドライバー パッケージが正常にエクスポートされました。
33 / 181 をエクスポートしています - oem13.inf: ドライバー パッケージが正常にエクスポートされました。
34 / 181 をエクスポートしています - oem130.inf: ドライバー パッケージが正常にエクスポートされました。
35 / 181 をエクスポートしています - oem131.inf: ドライバー パッケージが正常にエクスポートされました。
36 / 181 をエクスポートしています - oem132.inf: ドライバー パッケージが正常にエクスポートされました。
37 / 181 をエクスポートしています - oem133.inf: ドライバー パッケージが正常にエクスポートされました。
38 / 181 をエクスポートしています - oem134.inf: ドライバー パッケージが正常にエクスポートされました。
39 / 181 をエクスポートしています - oem135.inf: ドライバー パッケージが正常にエクスポートされました。
40 / 181 をエクスポートしています - oem136.inf: ドライバー パッケージが正常にエクスポートされました。
41 / 181 をエクスポートしています - oem137.inf: ドライバー パッケージが正常にエクスポートされました。
42 / 181 をエクスポートしています - oem138.inf: ドライバー パッケージが正常にエクスポートされました。
43 / 181 をエクスポートしています - oem139.inf: ドライバー パッケージが正常にエクスポートされました。
44 / 181 をエクスポートしています - oem14.inf: ドライバー パッケージが正常にエクスポートされました。
45 / 181 をエクスポートしています - oem140.inf: ドライバー パッケージが正常にエクスポートされました。
46 / 181 をエクスポートしています - oem141.inf: ドライバー パッケージが正常にエクスポートされました。
47 / 181 をエクスポートしています - oem142.inf: ドライバー パッケージが正常にエクスポートされました。
48 / 181 をエクスポートしています - oem143.inf: ドライバー パッケージが正常にエクスポートされました。
49 / 181 をエクスポートしています - oem145.inf: ドライバー パッケージが正常にエクスポートされました。
50 / 181 をエクスポートしています - oem146.inf: ドライバー パッケージが正常にエクスポートされました。
51 / 181 をエクスポートしています - oem147.inf: ドライバー パッケージが正常にエクスポートされました。
52 / 181 をエクスポートしています - oem149.inf: ドライバー パッケージが正常にエクスポートされました。
53 / 181 をエクスポートしています - oem150.inf: ドライバー パッケージが正常にエクスポートされました。
54 / 181 をエクスポートしています - oem152.inf: ドライバー パッケージが正常にエクスポートされました。
55 / 181 をエクスポートしています - oem153.inf: ドライバー パッケージが正常にエクスポートされました。
56 / 181 をエクスポートしています - oem154.inf: ドライバー パッケージが正常にエクスポートされました。
57 / 181 をエクスポートしています - oem155.inf: ドライバー パッケージが正常にエクスポートされました。
58 / 181 をエクスポートしています - oem156.inf: ドライバー パッケージが正常にエクスポートされました。
59 / 181 をエクスポートしています - oem157.inf: ドライバー パッケージが正常にエクスポートされました。
60 / 181 をエクスポートしています - oem158.inf: ドライバー パッケージが正常にエクスポートされました。
61 / 181 をエクスポートしています - oem159.inf: ドライバー パッケージが正常にエクスポートされました。
62 / 181 をエクスポートしています - oem16.inf: ドライバー パッケージが正常にエクスポートされました。
63 / 181 をエクスポートしています - oem160.inf: ドライバー パッケージが正常にエクスポートされました。
64 / 181 をエクスポートしています - oem161.inf: ドライバー パッケージが正常にエクスポートされました。
65 / 181 をエクスポートしています - oem162.inf: ドライバー パッケージが正常にエクスポートされました。
66 / 181 をエクスポートしています - oem163.inf: ドライバー パッケージが正常にエクスポートされました。
67 / 181 をエクスポートしています - oem164.inf: ドライバー パッケージが正常にエクスポートされました。
68 / 181 をエクスポートしています - oem165.inf: ドライバー パッケージが正常にエクスポートされました。
69 / 181 をエクスポートしています - oem166.inf: ドライバー パッケージが正常にエクスポートされました。
70 / 181 をエクスポートしています - oem167.inf: ドライバー パッケージが正常にエクスポートされました。
71 / 181 をエクスポートしています - oem168.inf: ドライバー パッケージが正常にエクスポートされました。
72 / 181 をエクスポートしています - oem169.inf: ドライバー パッケージが正常にエクスポートされました。
73 / 181 をエクスポートしています - oem170.inf: ドライバー パッケージが正常にエクスポートされました。
74 / 181 をエクスポートしています - oem171.inf: ドライバー パッケージが正常にエクスポートされました。
75 / 181 をエクスポートしています - oem172.inf: ドライバー パッケージが正常にエクスポートされました。
76 / 181 をエクスポートしています - oem173.inf: ドライバー パッケージが正常にエクスポートされました。
77 / 181 をエクスポートしています - oem174.inf: ドライバー パッケージが正常にエクスポートされました。
78 / 181 をエクスポートしています - oem176.inf: ドライバー パッケージが正常にエクスポートされました。
79 / 181 をエクスポートしています - oem178.inf: ドライバー パッケージが正常にエクスポートされました。
80 / 181 をエクスポートしています - oem179.inf: ドライバー パッケージが正常にエクスポートされました。
81 / 181 をエクスポートしています - oem18.inf: ドライバー パッケージが正常にエクスポートされました。
82 / 181 をエクスポートしています - oem180.inf: ドライバー パッケージが正常にエクスポートされました。
83 / 181 をエクスポートしています - oem181.inf: ドライバー パッケージが正常にエクスポートされました。
84 / 181 をエクスポートしています - oem182.inf: ドライバー パッケージが正常にエクスポートされました。
85 / 181 をエクスポートしています - oem183.inf: ドライバー パッケージが正常にエクスポートされました。
86 / 181 をエクスポートしています - oem184.inf: ドライバー パッケージが正常にエクスポートされました。
87 / 181 をエクスポートしています - oem185.inf: ドライバー パッケージが正常にエクスポートされました。
88 / 181 をエクスポートしています - oem186.inf: ドライバー パッケージが正常にエクスポートされました。
89 / 181 をエクスポートしています - oem187.inf: ドライバー パッケージが正常にエクスポートされました。
90 / 181 をエクスポートしています - oem188.inf: ドライバー パッケージが正常にエクスポートされました。
91 / 181 をエクスポートしています - oem189.inf: ドライバー パッケージが正常にエクスポートされました。
92 / 181 をエクスポートしています - oem19.inf: ドライバー パッケージが正常にエクスポートされました。
93 / 181 をエクスポートしています - oem190.inf: ドライバー パッケージが正常にエクスポートされました。
94 / 181 をエクスポートしています - oem191.inf: ドライバー パッケージが正常にエクスポートされました。
95 / 181 をエクスポートしています - oem192.inf: ドライバー パッケージが正常にエクスポートされました。
96 / 181 をエクスポートしています - oem193.inf: ドライバー パッケージが正常にエクスポートされました。
97 / 181 をエクスポートしています - oem194.inf: ドライバー パッケージが正常にエクスポートされました。
98 / 181 をエクスポートしています - oem195.inf: ドライバー パッケージが正常にエクスポートされました。
99 / 181 をエクスポートしています - oem196.inf: ドライバー パッケージが正常にエクスポートされました。
100 / 181 をエクスポートしています - oem197.inf: ドライバー パッケージが正常にエクスポートされました。
101 / 181 をエクスポートしています - oem198.inf: ドライバー パッケージが正常にエクスポートされました。
102 / 181 をエクスポートしています - oem199.inf: ドライバー パッケージが正常にエクスポートされました。
103 / 181 をエクスポートしています - oem2.inf: ドライバー パッケージが正常にエクスポートされました。
104 / 181 をエクスポートしています - oem20.inf: ドライバー パッケージが正常にエクスポートされました。
105 / 181 をエクスポートしています - oem200.inf: ドライバー パッケージが正常にエクスポートされました。
106 / 181 をエクスポートしています - oem201.inf: ドライバー パッケージが正常にエクスポートされました。
107 / 181 をエクスポートしています - oem21.inf: ドライバー パッケージが正常にエクスポートされました。
108 / 181 をエクスポートしています - oem23.inf: ドライバー パッケージが正常にエクスポートされました。
109 / 181 をエクスポートしています - oem24.inf: ドライバー パッケージが正常にエクスポートされました。
110 / 181 をエクスポートしています - oem25.inf: ドライバー パッケージが正常にエクスポートされました。
111 / 181 をエクスポートしています - oem26.inf: ドライバー パッケージが正常にエクスポートされました。
112 / 181 をエクスポートしています - oem27.inf: ドライバー パッケージが正常にエクスポートされました。
113 / 181 をエクスポートしています - oem28.inf: ドライバー パッケージが正常にエクスポートされました。
114 / 181 をエクスポートしています - oem29.inf: ドライバー パッケージが正常にエクスポートされました。
115 / 181 をエクスポートしています - oem3.inf: ドライバー パッケージが正常にエクスポートされました。
116 / 181 をエクスポートしています - oem30.inf: ドライバー パッケージが正常にエクスポートされました。
117 / 181 をエクスポートしています - oem31.inf: ドライバー パッケージが正常にエクスポートされました。
118 / 181 をエクスポートしています - oem32.inf: ドライバー パッケージが正常にエクスポートされました。
119 / 181 をエクスポートしています - oem33.inf: ドライバー パッケージが正常にエクスポートされました。
120 / 181 をエクスポートしています - oem38.inf: ドライバー パッケージが正常にエクスポートされました。
121 / 181 をエクスポートしています - oem4.inf: ドライバー パッケージが正常にエクスポートされました。
122 / 181 をエクスポートしています - oem40.inf: ドライバー パッケージが正常にエクスポートされました。
123 / 181 をエクスポートしています - oem41.inf: ドライバー パッケージが正常にエクスポートされました。
124 / 181 をエクスポートしています - oem42.inf: ドライバー パッケージが正常にエクスポートされました。
125 / 181 をエクスポートしています - oem43.inf: ドライバー パッケージが正常にエクスポートされました。
126 / 181 をエクスポートしています - oem44.inf: ドライバー パッケージが正常にエクスポートされました。
127 / 181 をエクスポートしています - oem45.inf: ドライバー パッケージが正常にエクスポートされました。
128 / 181 をエクスポートしています - oem46.inf: ドライバー パッケージが正常にエクスポートされました。
129 / 181 をエクスポートしています - oem47.inf: ドライバー パッケージが正常にエクスポートされました。
130 / 181 をエクスポートしています - oem48.inf: ドライバー パッケージが正常にエクスポートされました。
131 / 181 をエクスポートしています - oem49.inf: ドライバー パッケージが正常にエクスポートされました。
132 / 181 をエクスポートしています - oem5.inf: ドライバー パッケージが正常にエクスポートされました。
133 / 181 をエクスポートしています - oem50.inf: ドライバー パッケージが正常にエクスポートされました。
134 / 181 をエクスポートしています - oem51.inf: ドライバー パッケージが正常にエクスポートされました。
135 / 181 をエクスポートしています - oem53.inf: ドライバー パッケージが正常にエクスポートされました。
136 / 181 をエクスポートしています - oem54.inf: ドライバー パッケージが正常にエクスポートされました。
137 / 181 をエクスポートしています - oem55.inf: ドライバー パッケージが正常にエクスポートされました。
138 / 181 をエクスポートしています - oem56.inf: ドライバー パッケージが正常にエクスポートされました。
139 / 181 をエクスポートしています - oem57.inf: ドライバー パッケージが正常にエクスポートされました。
140 / 181 をエクスポートしています - oem58.inf: ドライバー パッケージが正常にエクスポートされました。
141 / 181 をエクスポートしています - oem59.inf: ドライバー パッケージが正常にエクスポートされました。
142 / 181 をエクスポートしています - oem6.inf: ドライバー パッケージが正常にエクスポートされました。
143 / 181 をエクスポートしています - oem60.inf: ドライバー パッケージが正常にエクスポートされました。
144 / 181 をエクスポートしています - oem61.inf: ドライバー パッケージが正常にエクスポートされました。
145 / 181 をエクスポートしています - oem62.inf: ドライバー パッケージが正常にエクスポートされました。
146 / 181 をエクスポートしています - oem63.inf: ドライバー パッケージが正常にエクスポートされました。
147 / 181 をエクスポートしています - oem64.inf: ドライバー パッケージが正常にエクスポートされました。
148 / 181 をエクスポートしています - oem65.inf: ドライバー パッケージが正常にエクスポートされました。
149 / 181 をエクスポートしています - oem66.inf: ドライバー パッケージが正常にエクスポートされました。
150 / 181 をエクスポートしています - oem67.inf: ドライバー パッケージが正常にエクスポートされました。
151 / 181 をエクスポートしています - oem68.inf: ドライバー パッケージが正常にエクスポートされました。
152 / 181 をエクスポートしています - oem69.inf: ドライバー パッケージが正常にエクスポートされました。
153 / 181 をエクスポートしています - oem7.inf: ドライバー パッケージが正常にエクスポートされました。
154 / 181 をエクスポートしています - oem70.inf: ドライバー パッケージが正常にエクスポートされました。
155 / 181 をエクスポートしています - oem71.inf: ドライバー パッケージが正常にエクスポートされました。
156 / 181 をエクスポートしています - oem72.inf: ドライバー パッケージが正常にエクスポートされました。
157 / 181 をエクスポートしています - oem73.inf: ドライバー パッケージが正常にエクスポートされました。
158 / 181 をエクスポートしています - oem74.inf: ドライバー パッケージが正常にエクスポートされました。
159 / 181 をエクスポートしています - oem75.inf: ドライバー パッケージが正常にエクスポートされました。
160 / 181 をエクスポートしています - oem76.inf: ドライバー パッケージが正常にエクスポートされました。
161 / 181 をエクスポートしています - oem77.inf: ドライバー パッケージが正常にエクスポートされました。
162 / 181 をエクスポートしています - oem78.inf: ドライバー パッケージが正常にエクスポートされました。
163 / 181 をエクスポートしています - oem79.inf: ドライバー パッケージが正常にエクスポートされました。
164 / 181 をエクスポートしています - oem80.inf: ドライバー パッケージが正常にエクスポートされました。
165 / 181 をエクスポートしています - oem81.inf: ドライバー パッケージが正常にエクスポートされました。
166 / 181 をエクスポートしています - oem82.inf: ドライバー パッケージが正常にエクスポートされました。
167 / 181 をエクスポートしています - oem84.inf: ドライバー パッケージが正常にエクスポートされました。
168 / 181 をエクスポートしています - oem85.inf: ドライバー パッケージが正常にエクスポートされました。
169 / 181 をエクスポートしています - oem86.inf: ドライバー パッケージが正常にエクスポートされました。
170 / 181 をエクスポートしています - oem87.inf: ドライバー パッケージが正常にエクスポートされました。
171 / 181 をエクスポートしています - oem89.inf: ドライバー パッケージが正常にエクスポートされました。
172 / 181 をエクスポートしています - oem90.inf: ドライバー パッケージが正常にエクスポートされました。
173 / 181 をエクスポートしています - oem91.inf: ドライバー パッケージが正常にエクスポートされました。
174 / 181 をエクスポートしています - oem92.inf: ドライバー パッケージが正常にエクスポートされました。
175 / 181 をエクスポートしています - oem93.inf: ドライバー パッケージが正常にエクスポートされました。
176 / 181 をエクスポートしています - oem94.inf: ドライバー パッケージが正常にエクスポートされました。
177 / 181 をエクスポートしています - oem95.inf: ドライバー パッケージが正常にエクスポートされました。
178 / 181 をエクスポートしています - oem96.inf: ドライバー パッケージが正常にエクスポートされました。
179 / 181 をエクスポートしています - oem97.inf: ドライバー パッケージが正常にエクスポートされました。
180 / 181 をエクスポートしています - oem98.inf: ドライバー パッケージが正常にエクスポートされました。
181 / 181 をエクスポートしています - oem99.inf: ドライバー パッケージが正常にエクスポートされました。
操作は正常に完了しました。

C:\Windows\System32>

出力されたディレクトリ群をどこかに待避しておきましょう。

C:\Windows\System32>dir c:\tmp\drivers
 ドライブ C のボリューム ラベルは OS です
 ボリューム シリアル番号は C465-5800 です

 c:\tmp\drivers のディレクトリ

2024/04/16  09:04    <DIR>          .
2024/04/16  09:03    <DIR>          ..
2024/04/16  09:04    <DIR>          alderlakedmasecextension.inf_amd64_f0d7eea44ed4e421
2024/04/16  09:04    <DIR>          alderlakepch-ndmasecextension.inf_amd64_c1a7e34728e428a8
2024/04/16  09:04    <DIR>          alderlakepch-nsystem.inf_amd64_23100d9890c77cd8
2024/04/16  09:04    <DIR>          alderlakepch-nsystemnorthpeak.inf_amd64_5300f2fe1668d958
2024/04/16  09:04    <DIR>          alderlakepch-pdmasecextension.inf_amd64_c26ba4a8cd64b537
2024/04/16  09:04    <DIR>          alderlakepch-psystem.inf_amd64_c27bc8858e991c72
2024/04/16  09:04    <DIR>          alderlakepch-psystemnorthpeak.inf_amd64_b199b2eb5b8a3f6d
2024/04/16  09:04    <DIR>          alderlakepch-ssystem.inf_amd64_2d3c87d4553e8e1f
2024/04/16  09:04    <DIR>          alderlakepch-ssystemlpss.inf_amd64_83277bd8dd9068fb
2024/04/16  09:04    <DIR>          alderlakepch-ssystemnorthpeak.inf_amd64_28ea92119865f1be
2024/04/16  09:04    <DIR>          alderlakesystem.inf_amd64_0565e3956cec3231
2024/04/16  09:04    <DIR>          alderlakesystemnorthpeak.inf_amd64_97aaa5270d91ce72
2024/04/16  09:03    <DIR>          alexadellconfig.inf_amd64_0362a26b37844d90
2024/04/16  09:04    <DIR>          cannonlake-hsdhost.inf_amd64_7585e757930877d7
2024/04/16  09:04    <DIR>          cannonlake-hsystem.inf_amd64_22f53879fd35d50f
2024/04/16  09:04    <DIR>          cannonlake-hsystemlpss.inf_amd64_07c09eb709f05559
2024/04/16  09:04    <DIR>          cannonlake-hsystemnorthpeak.inf_amd64_e601295a7f1f64fe
2024/04/16  09:04    <DIR>          cannonlake-hsystemthermal.inf_amd64_0df2612d09b904c3
2024/04/16  09:04    <DIR>          cannonlake-lpsdhost.inf_amd64_c7474213ded08985
2024/04/16  09:04    <DIR>          cannonlake-lpsystem.inf_amd64_f33d0569bd2fa287
2024/04/16  09:04    <DIR>          cannonlake-lpsystemlpss.inf_amd64_148f50a05e5bc234
2024/04/16  09:04    <DIR>          cannonlake-lpsystemnorthpeak.inf_amd64_ee66a8d322716f1a
2024/04/16  09:04    <DIR>          cannonlake-lpsystemthermal.inf_amd64_b937931c2f8af6b7
2024/04/16  09:04    <DIR>          coffeelakesystem.inf_amd64_e332dbefa69fd95b
2024/04/16  09:04    <DIR>          cometlakepch-hsystem.inf_amd64_cec2641df6169032
2024/04/16  09:04    <DIR>          cometlakepch-hsystemlpss.inf_amd64_22d06c9c84227dd3
2024/04/16  09:04    <DIR>          cometlakepch-hsystemthermal.inf_amd64_4edfab76b66317e0
2024/04/16  09:04    <DIR>          cometlakepch-lpdmasecextension.inf_amd64_37a8fb3645946f29
2024/04/16  09:04    <DIR>          cometlakepch-lpsystem.inf_amd64_fc3171efa1c345e6
2024/04/16  09:04    <DIR>          cometlakepch-lpsystemnorthpeak.inf_amd64_d6b316e40892791d
2024/04/16  09:04    <DIR>          cometlakepch-lpsystemthermal.inf_amd64_90626726aa4e768b
2024/04/16  09:04    <DIR>          cometlakepch-vsystem.inf_amd64_5ed9e5716d6db7f6
2024/04/16  09:04    <DIR>          cometlakepch-vsystemlpss.inf_amd64_15c157a24ffabf7c
2024/04/16  09:04    <DIR>          cometlakepch-vsystemnorthpeak.inf_amd64_b8b09c2ab4a312e5
2024/04/16  09:04    <DIR>          cometlakepch-vsystemthermal.inf_amd64_9d323373d250b836
2024/04/16  09:04    <DIR>          cometlakesystem.inf_amd64_2336b5cf6c2e78cc
2024/04/16  09:03    <DIR>          ctachilddriver.inf_amd64_5c4d5fb9a985c740
2024/04/16  09:03    <DIR>          cui_dch.inf_amd64_6673c5322430fc8a
2024/04/16  09:04    <DIR>          dal.inf_amd64_64d7fcfcde9b9c10
2024/04/16  09:03    <DIR>          dal.inf_amd64_af50fdb80983f7bc
2024/04/16  09:04    <DIR>          dcdbas64.inf_amd64_a841ee86c9054002
2024/04/16  09:03    <DIR>          dellaudioextwaves.inf_amd64_0d16d525c3ae27f4
2024/04/16  09:04    <DIR>          dellinstrumentation.inf_amd64_4e7f6b2eda5f3215
2024/04/16  09:03    <DIR>          dellinstrumentation.inf_amd64_8a3b984d3b4bb833
2024/04/16  09:03    <DIR>          dpmdriver.inf_amd64_0e117d979e219553
2024/04/16  09:04    <DIR>          e1d.inf_amd64_7e337195b92a35b6
2024/04/16  09:04    <DIR>          e1d.inf_amd64_f3c6513565231a23
2024/04/16  09:04    <DIR>          elkhartlakesystem.inf_amd64_53f94e0d263859df
2024/04/16  09:04    <DIR>          elkhartlakesystemlpss.inf_amd64_9d6547e3255e2d2e
2024/04/16  09:04    <DIR>          emmitsburgsystem.inf_amd64_1866b540328ccff1
2024/04/16  09:04    <DIR>          emmitsburgsystemlpss.inf_amd64_38745ad18dc67044
2024/04/16  09:03    <DIR>          firmware.inf_amd64_2c72fc97936f0d0a
2024/04/16  09:03    <DIR>          firmware.inf_amd64_3063dab4eb756318
2024/04/16  09:03    <DIR>          firmware.inf_amd64_dd3ca4b4c96281b8
2024/04/16  09:03    <DIR>          fortifilter.inf_amd64_283aeda6f10114be
2024/04/16  09:03    <DIR>          ftsvnic.inf_amd64_482ad0fdbf359d9e
2024/04/16  09:03    <DIR>          ft_vnic.inf_amd64_e26f6c9d821ce5a4
2024/04/16  09:04    <DIR>          geminilakesystem.inf_amd64_f6688c404f17eb9a
2024/04/16  09:04    <DIR>          geminilakesystemlpss.inf_amd64_9e12f4606841614d
2024/04/16  09:04    <DIR>          geminilakesystemnorthpeak.inf_amd64_be194fc67212a56b
2024/04/16  09:03    <DIR>          gna.inf_amd64_04d4eecc5838a558
2024/04/16  09:03    <DIR>          gscauxdriver.inf_amd64_7b4832bbb86eb120
2024/04/16  09:03    <DIR>          gscheci.inf_amd64_1b5eb9e70857c0c6
2024/04/16  09:03    <DIR>          hdbusext.inf_amd64_6c3771940bf0201d
2024/04/16  09:04    <DIR>          hdxacpdellcsmb.inf_amd64_51e6c4ad13f49fab
2024/04/16  09:04    <DIR>          hdxdellbc2018.inf_amd64_0bb955f39a78c212
2024/04/16  09:03    <DIR>          hdxdellbcsst2018.inf_amd64_1f9141b82053197a
2024/04/16  09:03    <DIR>          hdxdellbcsst2018.inf_amd64_5775e991fe00da7c
2024/04/16  09:04    <DIR>          hdxdellcsmb2018.inf_amd64_c5818c61a6b2560a
2024/04/16  09:04    <DIR>          hdxdellsstcsmb2018.inf_amd64_88432c7d84d0da46
2024/04/16  09:04    <DIR>          hdxhapdellcsmb.inf_amd64_4f81e0579f245803
2024/04/16  09:04    <DIR>          hdx_dellbcext_dsp.inf_amd64_087801054084b259
2024/04/16  09:03    <DIR>          hdx_dellbcext_waves_ma11.inf_amd64_a12a5c600f082a98
2024/04/16  09:03    <DIR>          heci.inf_amd64_b6bf4e82efc8dcc1
2024/04/16  09:04    <DIR>          hideventfilter.inf_amd64_11ad2b4276308b53
2024/04/16  09:04    <DIR>          ialpss2_gpio2_adl.inf_amd64_302e75596cffa74a
2024/04/16  09:04    <DIR>          ialpss2_i2c_adl.inf_amd64_e736c048ca307ed2
2024/04/16  09:04    <DIR>          ialpss2_spi_adl.inf_amd64_334c460fea9b11a4
2024/04/16  09:04    <DIR>          ialpss2_uart2_adl.inf_amd64_43d5df63d19fde70
2024/04/16  09:04    <DIR>          iastorhsacomponent.inf_amd64_ad67ce57a54e2b5f
2024/04/16  09:04    <DIR>          iastorhsa_ext.inf_amd64_975ff131e9302607
2024/04/16  09:04    <DIR>          iastorvd.inf_amd64_346bd04e375689ec
2024/04/16  09:04    <DIR>          icelakepch-lpsystem.inf_amd64_b6f393c97caba67a
2024/04/16  09:04    <DIR>          icelakepch-lpsystemlpss.inf_amd64_897bf32b9e72ceb4
2024/04/16  09:04    <DIR>          icelakepch-lpsystemnorthpeak.inf_amd64_0135728da74899dc
2024/04/16  09:04    <DIR>          icelakepch-nsystem.inf_amd64_a59d6e4b42b8fd70
2024/04/16  09:04    <DIR>          icelakepch-nsystemlpss.inf_amd64_cc1f67cc5eda1f96
2024/04/16  09:04    <DIR>          icelakesystemthermal.inf_amd64_a26965b441d75fc9
2024/04/16  09:04    <DIR>          icelakeusbfunctioncontroller.inf_amd64_7818299326fe34ff
2024/04/16  09:04    <DIR>          iclsclient.inf_amd64_367008a610747d24
2024/04/16  09:03    <DIR>          iclsclient.inf_amd64_fc84dfa25a6a7727
2024/04/16  09:03    <DIR>          icst_extension.inf_amd64_95d2280e89dd127f
2024/04/16  09:03    <DIR>          icst_service.inf_amd64_11f09e2b209c665a
2024/04/16  09:03    <DIR>          igcc_dch.inf_amd64_a687edda40db3316
2024/04/16  09:03    <DIR>          igcc_dch.inf_amd64_a99b22aa15fa509a
2024/04/16  09:03    <DIR>          iigd_dch.inf_amd64_ad227274fc449b38
2024/04/16  09:03    <DIR>          iigd_ext.inf_amd64_1ac7dcfe65f84cee
2024/04/16  09:03    <DIR>          iigd_ext.inf_amd64_7bf37481a3b75755
2024/04/16  09:03    <DIR>          iigd_ext.inf_amd64_871c25ddc8e3f75b
2024/04/16  09:03    <DIR>          intcdaud.inf_amd64_2bc3bdfb89548e1f
2024/04/16  09:03    <DIR>          intcdaud.inf_amd64_bec3f32c56c5cb4e
2024/04/16  09:03    <DIR>          intel_nf_i2c_child.inf_amd64_6be89e3e2d61757f
2024/04/16  09:04    <DIR>          ipf_acpi.inf_amd64_cf69bf74fab8a0f5
2024/04/16  09:04    <DIR>          ipf_cpu.inf_amd64_cf5beef3831571d4
2024/04/16  09:04    <DIR>          jasperlake+system.inf_amd64_f6bb21ea42d19e1d
2024/04/16  09:04    <DIR>          jasperlake+systemnorthpeak.inf_amd64_1d24a34355f848b3
2024/04/16  09:03    <DIR>          jasperlakepch-nsystem.inf_amd64_6ee776b78730ccd8
2024/04/16  09:03    <DIR>          jasperlakepch-nsystemlpss.inf_amd64_1d924260f4b5b20f
2024/04/16  09:03    <DIR>          jasperlakepch-nsystemnorthpeak.inf_amd64_adf7c9508124570b
2024/04/16  09:03    <DIR>          jnprva.inf_amd64_9bc58efc17ed8744
2024/04/16  09:03    <DIR>          jnprvamgr.inf_amd64_2eebf157b1c4a5b2
2024/04/16  09:03    <DIR>          kabylakepch-hsystem.inf_amd64_a5046aab4ba27930
2024/04/16  09:03    <DIR>          kabylakepch-hsystemlpss.inf_amd64_497e553fa45d3580
2024/04/16  09:03    <DIR>          kabylakepch-hsystemnorthpeak.inf_amd64_9dcb1959b5ba7423
2024/04/16  09:03    <DIR>          kabylakepch-hsystemthermal.inf_amd64_a803ec86c2bc12bb
2024/04/16  09:03    <DIR>          kabylakesystem.inf_amd64_42856509e73752bb
2024/04/16  09:03    <DIR>          kabylakesystemgmm.inf_amd64_d0cfa8fb52eef542
2024/04/16  09:03    <DIR>          lakefieldsystem.inf_amd64_038da6a27794f8f7
2024/04/16  09:03    <DIR>          lakefieldsystemlpss.inf_amd64_db9abb34abd81c23
2024/04/16  09:03    <DIR>          lakefieldsystemnorthpeak.inf_amd64_0f2a322c2e28f9a4
2024/04/16  09:04    <DIR>          lms.inf_amd64_999414b9372a2b7f
2024/04/16  09:03    <DIR>          memcntrl.inf_amd64_2838d67bd54d4461
2024/04/16  09:04    <DIR>          mesrl.inf_amd64_fa86dc6409a1f761
2024/04/16  09:03    <DIR>          mewmiprov.inf_amd64_ab7d4ea1d12c01d4
2024/04/16  09:04    <DIR>          mewmiprov.inf_amd64_f3c201b4c28c14d0
2024/04/16  09:03    <DIR>          minictadriver.inf_amd64_4721d814b86d6265
2024/04/16  09:03    <DIR>          mshdadac.inf_amd64_573b964714659a10
2024/04/16  09:03    <DIR>          mshdadac.inf_amd64_c61f017b82eef26f
2024/04/16  09:03    <DIR>          netaapl64.inf_amd64_56f23639c9617984
2024/04/16  09:03    <DIR>          prnms006.inf_amd64_c3bdcb6fc975b614
2024/04/16  09:03    <DIR>          prnms009.inf_amd64_3107874c7db0aa5a
2024/04/16  09:03    <DIR>          raptorlakepch-ssystem.inf_amd64_8155b85580014d4f
2024/04/16  09:03    <DIR>          raptorlakepch-ssystemlpss.inf_amd64_9dec7e65a237382a
2024/04/16  09:03    <DIR>          raptorlakesystem.inf_amd64_d7202be55e42c570
2024/04/16  09:03    <DIR>          realtekapo.inf_amd64_86fc0b0b9eccc8ac
2024/04/16  09:03    <DIR>          realtekapo.inf_amd64_b399b00f688b53a0
2024/04/16  09:03    <DIR>          realtekasio.inf_amd64_de8abf16594e82ca
2024/04/16  09:03    <DIR>          realtekservice.inf_amd64_04ff63d068f8c626
2024/04/16  09:03    <DIR>          realtekservice.inf_amd64_aadd853bf8841644
2024/04/16  09:03    <DIR>          realteksstppdll.inf_amd64_73a1915eb26f0349
2024/04/16  09:03    <DIR>          rocketlakesystem.inf_amd64_72203900995a90b2
2024/04/16  09:03    <DIR>          sapphirerapidssystem.inf_amd64_d7bcc66a5e473f8b
2024/04/16  09:03    <DIR>          server_commonsystem.inf_amd64_a241081d3e26f35d
2024/04/16  09:03    <DIR>          server_commonsystemnorthpeak.inf_amd64_8ba4880b25a6e4cd
2024/04/16  09:03    <DIR>          skylakesystem.inf_amd64_08fa7b2b687c2cdf
2024/04/16  09:03    <DIR>          skylakesystemgmm.inf_amd64_6bb566673a722c38
2024/04/16  09:03    <DIR>          skylakesystemthermal.inf_amd64_a691a6509ef43a01
2024/04/16  09:04    <DIR>          sollmsextension.inf_amd64_d2f685b212b4b7f8
2024/04/16  09:03    <DIR>          splitdnsfilter.inf_amd64_a391823d7694e90a
2024/04/16  09:03    <DIR>          sunrisepoint-hsystem.inf_amd64_faabe6f8021d363e
2024/04/16  09:03    <DIR>          sunrisepoint-hsystemlpss.inf_amd64_c9d037bd4e88d627
2024/04/16  09:03    <DIR>          sunrisepoint-hsystemthermal.inf_amd64_68cbe289aa2b5014
2024/04/16  09:03    <DIR>          sunrisepoint-lpsdhost.inf_amd64_f63816e76bc5b503
2024/04/16  09:03    <DIR>          sunrisepoint-lpsystem.inf_amd64_3f329cdb9ca0ee45
2024/04/16  09:03    <DIR>          sunrisepoint-lpsystemlpss.inf_amd64_d740dd5821107592
2024/04/16  09:03    <DIR>          sunrisepoint-lpsystemnorthpeak.inf_amd64_e8abb62db32c7e7c
2024/04/16  09:03    <DIR>          sunrisepoint-lpsystemthermal.inf_amd64_69d67dea5b7151f8
2024/04/16  09:04    <DIR>          teppr790p.inf_amd64_e93ee02db1c338ee
2024/04/16  09:03    <DIR>          tigerlakedmasecextension.inf_amd64_39b34b96675a690e
2024/04/16  09:03    <DIR>          tigerlakepch-hdmasecextension.inf_amd64_b1898451bf82f465
2024/04/16  09:03    <DIR>          tigerlakepch-hsystem.inf_amd64_cef306a739575d10
2024/04/16  09:03    <DIR>          tigerlakepch-hsystemish.inf_amd64_7635a2d81b755ab7
2024/04/16  09:03    <DIR>          tigerlakepch-hsystemlpss.inf_amd64_db5e392e0b761338
2024/04/16  09:03    <DIR>          tigerlakepch-hsystemnorthpeak.inf_amd64_00f1a51683f1c7c3
2024/04/16  09:03    <DIR>          tigerlakepch-hsystemthermal.inf_amd64_9d9759712fc0e43b
2024/04/16  09:03    <DIR>          tigerlakepch-lpdmasecextension.inf_amd64_fb3a470c5bbb59b6
2024/04/16  09:03    <DIR>          tigerlakepch-lpsystem.inf_amd64_4dee61c27bbc67d2
2024/04/16  09:03    <DIR>          tigerlakepch-lpsystemlpss.inf_amd64_f9b8005a3b5524d8
2024/04/16  09:03    <DIR>          tigerlakepch-lpusbfunctioncontroller.inf_amd64_41298b28061f99f2
2024/04/16  09:03    <DIR>          tigerlakesystem.inf_amd64_745c67c4f68dfd5a
2024/04/16  09:03    <DIR>          usbaapl64.inf_amd64_c0e4d8c2aef471b7
2024/04/16  09:04    <DIR>          vmusb.inf_amd64_c603306f7f2b335a
2024/04/16  09:03    <DIR>          wachidrouterisdf.inf_amd64_336cf9a6e7672238
2024/04/16  09:03    <DIR>          wachidrouterisdu.inf_amd64_27a444bb328a7509
2024/04/16  09:03    <DIR>          wavesapo12de.inf_amd64_c92e3664032c61e7
2024/04/16  09:03    <DIR>          wavesapo12de.inf_amd64_f4d6230909497f9a
2024/04/16  09:03    <DIR>          wavesdmic_agc.inf_amd64_59a3637ecdee9f64
2024/04/16  09:03    <DIR>          wiman.inf_amd64_e8edc74538613ea4
2024/04/16  09:04    <DIR>          wiman.inf_amd64_f8dbb140e86553d1
2024/04/16  09:03    <DIR>          wiman_wlan_extension.inf_amd64_02775e9954796991
2024/04/16  09:03    <DIR>          wtabletserviceisd.inf_amd64_83617289dbaeff89
               0 個のファイル                   0 バイト
             183 個のディレクトリ  50,846,601,216 バイトの空き領域

C:\Windows\System32>

なお、dismコマンドではなく、PowerShell側で「Get-WindowsDriver」「Export-WindowsDriver」を実行する、という手法もあります。

ドライバ一覧は「Get-WindowsDriver -online -all」で取得します。ただ、こちらはWindows OS標準ドライバも含めての出力となります。(InboxがTrueのものがソレ)

PS C:\> Get-WindowsDriver -online -all


Driver           : 1394.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\1394.inf_amd64_c9db87f4e89577c9\1394.inf
Inbox            : True
ClassName        : 1394
BootCritical     : True
ProviderName     : Microsoft
Date             : 2006/06/21 0:00:00
Version          : 10.0.22621.2506

Driver           : 3ware.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\3ware.inf_amd64_408ceed6ec8ab6cd\3ware.inf
Inbox            : True
ClassName        : SCSIAdapter
BootCritical     : True
ProviderName     : LSI
Date             : 2013/04/11 0:00:00
Version          : 5.1.0.51
<略>

Driver           : xusb22.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\xusb22.inf_amd64_18e044b4e6fb84a1\xusb22.inf
Inbox            : True
ClassName        : XnaComposite
BootCritical     : False
ProviderName     : Microsoft
Date             : 2024/01/21 0:00:00
Version          : 10.0.22621.3085

Driver           : ykinx64.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\ykinx64.inf_amd64_0bbd8466b526ef26\ykinx64.inf
Inbox            : True
ClassName        : Net
BootCritical     : False
ProviderName     : Microsoft
Date             : 2013/04/11 0:00:00
Version          : 12.10.17.0



PS C:\>

PowerShellコマンドレットなので、「Get-WindowsDriver -online -all |Where-Object {$_.Inbox -eq $false }」と実行すると、Windows OS標準ドライバ以外の一覧を出力することができます。

PS C:\> Get-WindowsDriver -online -all |Where-Object {$_.Inbox -eq $false }


Driver           : oem0.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\gna.inf_amd64_04d4eecc5838a558\gna.inf
Inbox            : False
ClassName        : System
BootCritical     : True
ProviderName     : Intel Corporation
Date             : 2021/11/26 0:00:00
Version          : 3.0.0.1457

Driver           : oem1.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\alexadellconfig.inf_amd64_0362a26b37844d90\alexadellc
                   onfig.inf
Inbox            : False
ClassName        : Extension
BootCritical     : False
ProviderName     : Realtek
Date             : 2023/05/23 0:00:00
Version          : 1.0.9520.1
<略>
Driver           : oem98.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\jasperlake+system.inf_amd64_f6bb21ea42d19e1d\jasperla
                   ke+system.inf
Inbox            : False
ClassName        : System
BootCritical     : True
ProviderName     : INTEL
Date             : 1968/07/18 0:00:00
Version          : 10.1.29.4

Driver           : oem99.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\jasperlake+systemnorthpeak.inf_amd64_1d24a34355f848b3
                   \jasperlake+systemnorthpeak.inf
Inbox            : False
ClassName        : System
BootCritical     : True
ProviderName     : INTEL
Date             : 1968/07/18 0:00:00
Version          : 10.1.29.4



PS C:\>

「Export-WindowsDriver -Online -Destination 出力先ディレクトリ」ですが、ディレクトリが存在しない場合は自動作成してくれました。

PS C:\> Export-WindowsDriver -Online -Destination c:\tmp\drivers2


Driver           : oem0.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\gna.inf_amd64_04d4eecc5838a558\gna.inf
Inbox            : False
ClassName        : System
BootCritical     : True
ProviderName     : Intel Corporation
Date             : 2021/11/26 0:00:00
Version          : 3.0.0.1457

Driver           : oem1.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\alexadellconfig.inf_amd64_0362a26b37844d90\alexadellc
                   onfig.inf
Inbox            : False
ClassName        : Extension
BootCritical     : False
ProviderName     : Realtek
Date             : 2023/05/23 0:00:00
Version          : 1.0.9520.1
<略>
Driver           : oem98.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\jasperlake+system.inf_amd64_f6bb21ea42d19e1d\jasperla
                   ke+system.inf
Inbox            : False
ClassName        : System
BootCritical     : True
ProviderName     : INTEL
Date             : 1968/07/18 0:00:00
Version          : 10.1.29.4

Driver           : oem99.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\jasperlake+systemnorthpeak.inf_amd64_1d24a34355f848b3
                   \jasperlake+systemnorthpeak.inf
Inbox            : False
ClassName        : System
BootCritical     : True
ProviderName     : INTEL
Date             : 1968/07/18 0:00:00
Version          : 10.1.29.4



PS C:\>

PowerShellでレポジトリ powershellgallaery v2が見つかりません、が出力されるのはPowerShellGetが古いせい(TLS1.2問題ではない)

$
0
0

Windows11環境のPowerShellで「Update-Module」を実行してみたところ、エラーになった。

PS C:\> update-module
PackageManagement\Install-Package : リポジトリ 'https://www.powershellgallery.com/api/v2/' が見つかりません。利用できる
すべてのリポジトリを確認するには、Get-PSRepository を使用してください。
発生場所 C:\Program Files\WindowsPowerShell\Modules\PowerShellGet\1.0.0.1\PSModule.psm1:2089 文字:20
+ ...           $sid = PackageManagement\Install-Package @PSBoundParameters
+                      ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
    + CategoryInfo          : ObjectNotFound: (Microsoft.Power....InstallPackage:InstallPackage) [Install-Package], Ex
   ception
    + FullyQualifiedErrorId : SourceNotFound,Microsoft.PowerShell.PackageManagement.Cmdlets.InstallPackage

PS C:\> Get-PSRepository

Name                      InstallationPolicy   SourceLocation
----                      ------------------   --------------
PSGallery                 Untrusted            https://www.powershellgallery.com/api/v2


PS C:\> $PSVersionTable

Name                           Value
----                           -----
PSVersion                      5.1.22621.2506
PSEdition                      Desktop
PSCompatibleVersions           {1.0, 2.0, 3.0, 4.0...}
BuildVersion                   10.0.22621.2506
CLRVersion                     4.0.30319.42000
WSManStackVersion              3.0
PSRemotingProtocolVersion      2.3
SerializationVersion           1.1.0.1


PS C:\>

TLS1.2を使用する設定になってるのかどうかについては、なっていそう

PS C:\> [Net.ServicePointManager]::SecurityProtocol
Tls12
PS C:\>

事例を調べるとPowerShell Gallaryが止まっている場合もあるらしく「PowerShell Gallery Status」にお知らせが出てないか確認する、というのもあったが、現状は稼働中。

PowerShellGet,PackageManagementはアップデートされているか、については、PackageManagementについては更新されている模様

PS C:\> Get-Module PowerShellGet,PackageManagement -ListAvailable


    ディレクトリ: C:\Users\ユーザー名\Documents\WindowsPowerShell\Modules


ModuleType Version    Name                                ExportedCommands
---------- -------    ----                                ----------------
Script     1.4.7      PackageManagement                   {Find-Package, Get-Package, Get-PackageProvider, Get-Packa...


    ディレクトリ: C:\Program Files\WindowsPowerShell\Modules


ModuleType Version    Name                                ExportedCommands
---------- -------    ----                                ----------------
Binary     1.0.0.1    PackageManagement                   {Find-Package, Get-Package, Get-PackageProvider, Get-Packa...
Script     1.0.0.1    PowerShellGet                       {Install-Module, Find-Module, Save-Module, Update-Module...}


PS C:\>

次に、詳細エラーを見てみる

PS C:\> Update-Module -Verbose
詳細: モジュール 'Mailozaurr' の更新プログラムを確認しています。
詳細: リポジトリの詳細、Name = 'PSGallery'、Location = 'https://www.powershellgallery.com/api/v2'、IsTrusted =
'False'、IsRegistered = 'True'。
詳細: Using the provider 'PowerShellGet' for searching packages.
詳細: 指定されたリソース名を使用しています: 'PSGallery'。
詳細: PackageManagement プロバイダー 'NuGet' のプロバイダー オブジェクトを取得しています。
詳細: 指定された Location は 'https://www.powershellgallery.com/api/v2'、PackageManagementProvider は 'NuGet' です。
詳細: Searching repository 'https://www.powershellgallery.com/api/v2/FindPackagesById()?id='Mailozaurr'' for ''.
詳細: Total package yield:'1' for the specified package 'Mailozaurr'.
詳細: Skipping installed module Mailozaurr 1.0.2.
詳細: モジュール 'PackageManagement' の更新プログラムを確認しています。
PackageManagement\Install-Package : リポジトリ 'https://www.powershellgallery.com/api/v2/' が見つかりません。利用できる
すべてのリポジトリを確認するには、Get-PSRepository を使用してください。
発生場所 C:\Program Files\WindowsPowerShell\Modules\PowerShellGet\1.0.0.1\PSModule.psm1:2089 文字:20
+ ...           $sid = PackageManagement\Install-Package @PSBoundParameters
+                      ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
    + CategoryInfo          : ObjectNotFound: (Microsoft.Power....InstallPackage:InstallPackage) [Install-Package], Ex
   ception
    + FullyQualifiedErrorId : SourceNotFound,Microsoft.PowerShell.PackageManagement.Cmdlets.InstallPackage

PS C:\> Get-PSRepository

Name                      InstallationPolicy   SourceLocation
----                      ------------------   --------------
PSGallery                 Untrusted            https://www.powershellgallery.com/api/v2


PS C:\> Get-PSRepository|select *


Name                      : PSGallery
SourceLocation            : https://www.powershellgallery.com/api/v2
Trusted                   : False
Registered                : True
InstallationPolicy        : Untrusted
PackageManagementProvider : NuGet
PublishLocation           : https://www.powershellgallery.com/api/v2/package/
ScriptSourceLocation      : https://www.powershellgallery.com/api/v2/items/psscript
ScriptPublishLocation     : https://www.powershellgallery.com/api/v2/package/
ProviderOptions           : {}



PS C:\>

PSGallaeryレポジトリにアクセスしようとした時点でエラーになっていそうな感じである。

PowerShell Gallary上のPowerShellGetとPackageManagementの最新バージョンは何か確認してみると、PowerShellGetの方は最新ではないことが判明

PS C:\> Find-Module -Repository PSGallery -Verbose -Name PowerShellGet
詳細: リポジトリの詳細、Name = 'PSGallery'、Location = 'https://www.powershellgallery.com/api/v2'、IsTrusted =
'False'、IsRegistered = 'True'。
詳細: Using the provider 'PowerShellGet' for searching packages.
詳細: 指定されたリソース名を使用しています: 'PSGallery'。
詳細: PackageManagement プロバイダー 'NuGet' のプロバイダー オブジェクトを取得しています。
詳細: 指定された Location は 'https://www.powershellgallery.com/api/v2'、PackageManagementProvider は 'NuGet' です。
詳細: Searching repository 'https://www.powershellgallery.com/api/v2/FindPackagesById()?id='PowerShellGet'' for ''.
詳細: Total package yield:'1' for the specified package 'PowerShellGet'.

Version    Name                                Repository           Description
-------    ----                                ----------           -----------
2.2.5      PowerShellGet                       PSGallery            PowerShell module with commands for discovering,...


PS C:\> Find-Module -Repository PSGallery -Verbose -Name PackageManagement
詳細: リポジトリの詳細、Name = 'PSGallery'、Location = 'https://www.powershellgallery.com/api/v2'、IsTrusted =
'False'、IsRegistered = 'True'。
詳細: Using the provider 'PowerShellGet' for searching packages.
詳細: 指定されたリソース名を使用しています: 'PSGallery'。
詳細: PackageManagement プロバイダー 'NuGet' のプロバイダー オブジェクトを取得しています。
詳細: 指定された Location は 'https://www.powershellgallery.com/api/v2'、PackageManagementProvider は 'NuGet' です。
詳細: Searching repository 'https://www.powershellgallery.com/api/v2/FindPackagesById()?id='PackageManagement'' for ''.
詳細: Total package yield:'1' for the specified package 'PackageManagement'.

Version    Name                                Repository           Description
-------    ----                                ----------           -----------
1.4.8.1    PackageManagement                   PSGallery            PackageManagement (a.k.a. OneGet) is a new way t...


PS C:\>

最新版のPowerShellGetをインストールする手法については「PowerShellGet と PSResourceGet をインストールする方法」に記載がある「Install-Module PowerShellGet -Force -AllowClobber」を実行した。

PS C:\> Install-Module PowerShellGet -Force -AllowClobber
PS C:\>

(注:上記ログに出ていないが、別表示としてprogress表示があります)

ちなみにallowclobberオプションを付けない場合、下記のようなエラーになった。

PS C:\> Install-Module PowerShellGet -force
PackageManagement\Install-Package : 以下のコマンドは、このシステムで既に使用可能になっています: 'Find-Package,Install-P
ackage,Uninstall-Package'。このモジュール 'PackageManagement' では既存のコマンドが上書きされる可能性があります。このモ
ジュール 'PackageManagement' をインストールする場合は、-AllowClobber パラメーターを使用してください。
発生場所 C:\Program Files\WindowsPowerShell\Modules\PowerShellGet\1.0.0.1\PSModule.psm1:1809 文字:21
+ ...          $null = PackageManagement\Install-Package @PSBoundParameters
+                      ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
    + CategoryInfo          : InvalidOperation: (Microsoft.Power....InstallPackage:InstallPackage) [Install-Package]、E
    xception
    + FullyQualifiedErrorId : CommandAlreadyAvailable,Validate-ModuleCommandAlreadyAvailable,Microsoft.PowerShell.Pack
   ageManagement.Cmdlets.InstallPackage

PS C:\>

PowerShellGet更新後は「Update-Module」を実行してもエラーとはならなくなった。

PS C:\> Update-Module
PS C:\>
Viewing all 1117 articles
Browse latest View live