1. 安裝 SSHFS
FreeBSD 下請安裝 /usr/ports/sysutils/fusefs-sshfs
Ubuntu/Debian 下請 apt-get install sshfs
Mount :
sshfs RemoteServerAccountName@SSHServerName:/Remote/path /Mount/path -o follow_symlinks
Umount :
FreeBSD : umount /Mount/path
Ubuntu/Debian : fusermount -u /Mount/path
2. 使用掛載 shell script
目前暫時不做作業系統版本判斷. 所以有以下的兩組 shell script:
Showing posts with label Linux. Show all posts
Showing posts with label Linux. Show all posts
Sunday, December 30, 2012
Tuesday, July 24, 2012
使用國高研發的 Clonezilla 複製 SSD
之前不慎買到美光的倒數計時 SSD(5000 小時), 上頭已經裝好了 Ubuntu. 基於懶人性格, 就不想要再安裝一次. 此時想到 clonezilla-live. 趕緊採購 Intel SSD 更換.
剛開始使用一般模式都讀到 99% 就直接吐錯誤訊息, 只好改用專家模式硬著頭皮上, 沒想到還是不行. 但是看到有個 RAW 複製的選項後面接著效率差的警語, 心想效率差總比沒有好. 沒想到竟然成功複製(複製速度 1.1GB/min), 還好 SSD 只是從 60GB 擴展複製到 120GB, 所以耐心等了不少時間終於完成複製 ext4 檔案系統. (圖片稍候再附上)
接下來是要將儲存設備的暫存 SSD(ufs) 從 160GB 換到 180GB, 也是再做一次, 不過這次不用做複製 GRUB.一切搞定.
剛開始使用一般模式都讀到 99% 就直接吐錯誤訊息, 只好改用專家模式硬著頭皮上, 沒想到還是不行. 但是看到有個 RAW 複製的選項後面接著效率差的警語, 心想效率差總比沒有好. 沒想到竟然成功複製(複製速度 1.1GB/min), 還好 SSD 只是從 60GB 擴展複製到 120GB, 所以耐心等了不少時間終於完成複製 ext4 檔案系統. (圖片稍候再附上)
接下來是要將儲存設備的暫存 SSD(ufs) 從 160GB 換到 180GB, 也是再做一次, 不過這次不用做複製 GRUB.一切搞定.
Saturday, March 03, 2012
在 FreeBSD, PC-BSD, Ubuntu, Mint, CentOS, Fedora, OpenSUSE, Debian 上使用 tmpfs 掛載 /tmp
首先說明一下, 以下是給懶人專用, RAM Disk 大小都是預設最大到 50% 記憶體. 如果有需要調整空間使用上限或在大型伺服器上實做, 請務必研究一下附件還有 tmpfs. 另外 NetBSD 5, OpenSolaris 及 Indiana 就不用傷腦筋了, 系統預設已經使用 tmpfs(在 NetBSD 使用 mfs) 掛載 /tmp.
由於現代的機器的記憶體基本上都是 GB 等級. 讓記憶體閒著也是一種浪費. 而更重要的原因是不想讓讀寫 /tmp 的動作大量存取 MLC SSD(雖然已經啟動了 TRIM). 再加上 guest VM 常常讀寫, 多跑幾台對 VM host 還是有效能上的影響. 就這樣看著大家的文件跟著做. 也順手將手邊的測試用 guest VM 加上這個簡單的設定. 以下就是實際上在各平台上的設定方式:
[[[ FreeBSD 8, PC-BSD 8 & 9 beta ]]]
1. Edit /etc/fstab
2. Reboot the machine
[[[ Ubuntu 11.X 12.04 LTS, Mint 11 ]]]
1. Edit /etc/init.d/ramtmp.sh
2. chmod 755 /etc/init.d/ramtmp.sh
3. cd /etc/rcS.d; ln -s /etc/init.d/ramtmp.sh SXXramtmp
XX : 必須在所有需要 /tmp 目錄的服務之前. 請注意英文字母排序.
簡單的作法就是在 /etc/rcS.d 下 grep tmp ./* 看有哪些檔案需要 /tmp 目錄.
4. Reboot the machine
[[[ CentOS 6, Fedora 15, ScientificLinux 5.6 ]]]
1. Edit /etc/rc.d/init.d/ramtmp
2. chmod 755 /etc/rc.d/init.d/ramtmp
3. chkconfig --add ramtmp
4. Reboot the machine
[[[ OpenSUSE 11.4 ]]]
1. Edit /etc/fstab
2. Reboot the machine
[[[ Smoothwall express 3.0 sp2 ]]]
1. Edit /etc/fstab
2. Reboot the machine
[[[ ArchLinux 3.0 ]]]
1. Edit /etc/fstab
2. Reboot the machine
[[[ Debian 6 ]]]
1. Edit /etc/fstab
2. Reboot the machine
[[[ Windows 7 Ultimate, Windows server 2003, Windows XP ]]]
請安裝 Dataram_RAMDisk_V3.5.130R22, 詳細步驟請看參考資料.
參考資料 Reference:
FreeBSD : 【FreeBSD】用 tmpmfs 或 tmpfs 建立 Ramdisk
Ubuntu : Firefox & Chrome Cache on RAM Drive -Fedora / Ubuntu
在 Ubuntu 將 Firefox 網頁快取檔,設到 Ramdisk 的方法
CentOS : [筆記]Linux Tmpfs 系統加速實作
OpenSUSE : SDB:SSD performance
Debian : HOWTO: Using tmpfs for /tmp
Windows : [桌面系統]Windows 7 (32bit/64bit) 使用RamDisk 外加ReadyBoost 增加效能
由於現代的機器的記憶體基本上都是 GB 等級. 讓記憶體閒著也是一種浪費. 而更重要的原因是不想讓讀寫 /tmp 的動作大量存取 MLC SSD(雖然已經啟動了 TRIM). 再加上 guest VM 常常讀寫, 多跑幾台對 VM host 還是有效能上的影響. 就這樣看著大家的文件跟著做. 也順手將手邊的測試用 guest VM 加上這個簡單的設定. 以下就是實際上在各平台上的設定方式:
[[[ FreeBSD 8, PC-BSD 8 & 9 beta ]]]
1. Edit /etc/fstab
tmpfs /tmp tmpfs rw 0 0
2. Reboot the machine
[[[ Ubuntu 11.X 12.04 LTS, Mint 11 ]]]
1. Edit /etc/init.d/ramtmp.sh
#!/bin/sh
# RamDisk tmp
PATH=/sbin:/bin:/usr/bin:/usr/sbin
mkdir /dev/shm/tmp
chmod 1777 /dev/shm/tmp
mount --bind /dev/shm/tmp /tmp
2. chmod 755 /etc/init.d/ramtmp.sh
3. cd /etc/rcS.d; ln -s /etc/init.d/ramtmp.sh SXXramtmp
XX : 必須在所有需要 /tmp 目錄的服務之前. 請注意英文字母排序.
簡單的作法就是在 /etc/rcS.d 下 grep tmp ./* 看有哪些檔案需要 /tmp 目錄.
4. Reboot the machine
[[[ CentOS 6, Fedora 15, ScientificLinux 5.6 ]]]
1. Edit /etc/rc.d/init.d/ramtmp
#!/bin/bash
# chkconfig: 35 80 70
# description: RAMDisk4Tmp
#
# History:
### 2012/02/25 RamDisk tmp
PATH=/sbin:/bin:/usr/bin:/usr/sbin
mkdir /dev/shm/tmp
chmod 1777 /dev/shm/tmp
mount --bind /dev/shm/tmp /tmp
2. chmod 755 /etc/rc.d/init.d/ramtmp
3. chkconfig --add ramtmp
4. Reboot the machine
[[[ OpenSUSE 11.4 ]]]
1. Edit /etc/fstab
tmpfs /tmp tmpfs defaults 0 0
2. Reboot the machine
[[[ Smoothwall express 3.0 sp2 ]]]
1. Edit /etc/fstab
none /tmp tmpfs defaults 0 0
2. Reboot the machine
[[[ ArchLinux 3.0 ]]]
1. Edit /etc/fstab
tmpfs /tmp tmpfs nodev,nosuid 0 0
2. Reboot the machine
[[[ Debian 6 ]]]
1. Edit /etc/fstab
tmpfs /tmp tmpfs defaults,nodev,nosuid 0 0
2. Reboot the machine
[[[ Windows 7 Ultimate, Windows server 2003, Windows XP ]]]
請安裝 Dataram_RAMDisk_V3.5.130R22, 詳細步驟請看參考資料.
參考資料 Reference:
FreeBSD : 【FreeBSD】用 tmpmfs 或 tmpfs 建立 Ramdisk
Ubuntu : Firefox & Chrome Cache on RAM Drive -Fedora / Ubuntu
在 Ubuntu 將 Firefox 網頁快取檔,設到 Ramdisk 的方法
CentOS : [筆記]Linux Tmpfs 系統加速實作
OpenSUSE : SDB:SSD performance
Debian : HOWTO: Using tmpfs for /tmp
Windows : [桌面系統]Windows 7 (32bit/64bit) 使用RamDisk 外加ReadyBoost 增加效能
Saturday, September 17, 2011
建構 Oracle VM 測試環境
[0] 安裝基本系統
1. 儲存設備設定 NFS.
2. 安裝 n 台 VM server(其中一台會當 server pool master).
3. 安裝一台 CentOS 當 VM manager.
4. 在 3. 的機器或 VM 上安裝 VM manager.
5. 設定每一台機器(ovms1 ~ ovmsn)的 /etc/hosts 及網路設定.
(storage network 沒有 DNS 可用, hostname 必須和 /etc/ocfs2/cluster.conf 中相同, 才會被視為 local)
5.1. hostname ovmsX.DOMAIN.NAME (X: 1 ~ n)
5.2. 編輯 /etc/sysconfig/network
5.3. 編輯 /etc/sysconfig/network-scripts/ifcfg-eth0
編輯 /etc/sysconfig/network-scripts/ifcfg-eth1
5.4. 編輯 /etc/hosts
[1] 為 ovms1 ~ ovmsn 同步機器時間
Sync time, add to each node
# crontab -e
[2] 在 ovms1 ovms2 上編輯 /etc/ocfs2/cluster.conf, 其餘的機器將使用 VM manager 加入, 不需要進行.
# mkdir /etc/ocfs2
# vi /etc/ocfs2/cluster.conf
[root@ovms1 ~]# more /etc/ocfs2/cluster.conf
[3] 在 ovms1 ~ ovmsn 刪除裝機時自動裝上的 /OVS
# /opt/ovs-agent-2.3/utils/repos.py -l
[ * ] 06cb4782-0017-44b1-81f8-45e78984167c => /dev/sda3
# /opt/ovs-agent-2.3/utils/repos.py -d 06cb4782-0017-44b1-81f8-45e78984167c
*** Cluster teared down.
# /opt/ovs-agent-2.3/utils/repos.py -l
# ll /dev/sda3
brw-r----- 1 root disk 8, 3 Mar 5 02:50 /dev/sda3
[4] 在 ovms1 ~ ovms2 啟動 cluster
檢查 o2cb 狀態
# service o2cb status
Driver for "configfs": Loaded
Filesystem "configfs": Not mounted
Driver for "ocfs2_dlmfs": Not loaded
Checking O2CB cluster ocfs2: Offline
載入 o2cb 設定
# service o2cb load
Mounting configfs filesystem at /sys/kernel/config: OK
Loading filesystem "ocfs2_dlmfs": OK
Creating directory '/dlm': OK
Mounting ocfs2_dlmfs filesystem at /dlm: OK
將 o2cb 上線
# service o2cb online
Starting O2CB cluster ocfs2: OK
設定 o2cb heartbeat
# service o2cb configure
Configuring the O2CB driver.
This will configure the on-boot properties of the O2CB driver.
The following questions will determine whether the driver is loaded on
boot. The current values will be shown in brackets ('[]'). Hitting
without typing an answer will keep that current value. Ctrl-C
will abort.
Load O2CB driver on boot (y/n) [n]: y
Cluster stack backing O2CB [o2cb]:
Cluster to start on boot (Enter "none" to clear) [ocfs2]:
Specify heartbeat dead threshold (>=7) [31]:
Specify network idle timeout in ms (>=5000) [30000]:
Specify network keepalive delay in ms (>=1000) [2000]:
Specify network reconnect delay in ms (>=2000) [2000]:
Writing O2CB configuration: OK
Starting O2CB cluster ocfs2: OK
啟動 o2cb
# service o2cb start
Starting O2CB cluster ocfs2: OK
掛載 /OVS
# mount HOSTNAME:/path/to/datastore/ /OVS
檢查 o2cb cluster 狀態
# service o2cb status
Driver for "configfs": Loaded
Filesystem "configfs": Mounted
Driver for "ocfs2_dlmfs": Loaded
Filesystem "ocfs2_dlmfs": Mounted
Checking O2CB cluster ocfs2: Online
Heartbeat dead threshold = 31
Network idle timeout: 30000
Network keepalive delay: 2000
Network reconnect delay: 2000
Checking O2CB heartbeat: Not active
Only server pool master
[5] 只在 ovms1 執行 (特別注意)
# /opt/ovs-agent-2.3/utils/repos.py --new HOSTNAME:/path/to/datastore/
[ NEW ] b40cb283-1a0f-4266-917e-7dcacf64ffbc => /path/to/datastore/
# /opt/ovs-agent-2.3/utils/repos.py --root b40cb283-1a0f-4266-917e-7dcacf64ffbc
[ R ] b40cb283-1a0f-4266-917e-7dcacf64ffbc => /path/to/datastore/
接著可在 ovms2 觀察設定
# /opt/ovs-agent-2.3/utils/repos.py --list
[ R ] b40cb283-1a0f-4266-917e-7dcacf64ffbc => /path/to/datastore/
[6] Remember to reboot ovms1 ~ ovms2, 並且登入手動掛上 /OVS.
[7] 進入 VM manager/Server Pool 新增 server pool
https://ovmm:4443/OVS
在 Create pool 時設定 Server pool name, Enable High Availability Mode, Server Pool Virtual IP,
Server Host/IP, Server Name, Server Agent Password.
ovms1 請選擇 Server Pool Master, Utility Server, Virtual Machine Server
ovms2 請選擇 Utility Server, Virtual Machine Server
輸入 Utility Server 需要的帳密 root / xxxxxx
再將 ovms1 ovms2 加入.
下一步選擇管理人員
再下一步不需要修改任何設定, 直接進行 confirm.
如果狀態是 Error, HA enable. 請直接將 ovms1 ~ 2 重開機.
如果還是 Error, 請將 server pool restore, 靜待幾分鐘.
[8] 安裝 ovms3 ~ ovmsn
請進行 [1] 為 ovms3 ~ ovmsn 同步機器時間
[3] 在 ovms3 ~ ovmsn 刪除裝機時自動裝上的 /OVS
確認可以掛載 HOSTNAME:/path/to/datastore/
[9] 使用 VM manager/Server 加入 VM server
請選擇要加入的 Server Pool
加入 server 時, 請選擇 Utility Server, Virtual Machine Server
輸入 Utility Server 需要的帳密 root / xxxxxx
加入完成後可觀察已加入 server pool ovms1 ~ ovmsp 上的 /etc/ocfs2/cluster.conf, 已自動加入新 server.
移除 server
在 Server Pool 清單中選擇 Servers Total:n 進入 server 清單.
點選要移除的機器先做 power off 後(過程會進行 live migration, 請耐心等候)
再選擇要移除的機器做 Delete.
[10]如何備份/還原 VM manager 設定
# /opt/ovs-manager-2.2/bin/backup.sh
Welcome to Oracle VM Manager
Please enter the choice: [1|2]
1. Back up Oracle VM Manager
2. Restore Oracle VM Manager
1
Back up data now ...
Please enter the password for database account 'OVS':
Please enter the path and filename for the dump file (eg /tmp/ovs.dmp):/BACKUP/PATH/ovs.dmp
Please enter the path and filename for the log file (eg /tmp/ovs.log):/BACKUP/PATH/ovs.log
還原時請選擇 2. Restore Oracle VM Manager
[11] 如何將 server pool master 換台
0. 在 create server pool 時或之後再加上 Server Pool Virtual IP.
1. 停止 server pool master 上的 VM ???(需要測試)
2. 登入 ovms1 (old server pool master) 下 service ovs-agent stop. 沒多久時間(0 ~ 5 mins) ovms1 狀態由 active 改為 unreachable. Server pool master 轉移到 ovms4. 此時再將 ovms1 的 ovs-agent 啟動. ovms1 狀態恢復為 active. Server pool 狀態也由 inactive 轉為 active.
[12] Server pool master 當機時
0. 直接將 server pool master 下 init 0 關機.
1. 所有機器狀態剛開始 1 ~ 2 mins 是 unreachable, 但是 ping Server Pool Virtual IP 正常.
2. 自動選擇一台機器當 server pool master. 此時正常的機器狀態為 active, 當機的機器狀態為
unreachable.
3. 當機的機器恢復正常後, 機器狀態將改為 active, server pool 狀態也將改為 active.
1. 儲存設備設定 NFS.
2. 安裝 n 台 VM server(其中一台會當 server pool master).
3. 安裝一台 CentOS 當 VM manager.
4. 在 3. 的機器或 VM 上安裝 VM manager.
5. 設定每一台機器(ovms1 ~ ovmsn)的 /etc/hosts 及網路設定.
(storage network 沒有 DNS 可用, hostname 必須和 /etc/ocfs2/cluster.conf 中相同, 才會被視為 local)
5.1. hostname ovmsX.DOMAIN.NAME (X: 1 ~ n)
5.2. 編輯 /etc/sysconfig/network
5.3. 編輯 /etc/sysconfig/network-scripts/ifcfg-eth0
編輯 /etc/sysconfig/network-scripts/ifcfg-eth1
5.4. 編輯 /etc/hosts
[1] 為 ovms1 ~ ovmsn 同步機器時間
Sync time, add to each node
# crontab -e
### Generic jobs
0 * * * * /usr/bin/rdate -s TIME-SERVER-IP
0 3 * * * /sbin/clock -w
[2] 在 ovms1 ovms2 上編輯 /etc/ocfs2/cluster.conf, 其餘的機器將使用 VM manager 加入, 不需要進行.
# mkdir /etc/ocfs2
# vi /etc/ocfs2/cluster.conf
[root@ovms1 ~]# more /etc/ocfs2/cluster.conf
node:
ip_port = 7777
ip_address = 192.168.16.71
number = 0
name = ovms1.DOMAIN.NAME
cluster = ocfs2
node:
ip_port = 7777
ip_address = 192.168.16.72
number = 1
name = ovms2.DOMAIN.NAME
cluster = ocfs2
cluster:
node_count = 2
name = ocfs2
[3] 在 ovms1 ~ ovmsn 刪除裝機時自動裝上的 /OVS
# /opt/ovs-agent-2.3/utils/repos.py -l
[ * ] 06cb4782-0017-44b1-81f8-45e78984167c => /dev/sda3
# /opt/ovs-agent-2.3/utils/repos.py -d 06cb4782-0017-44b1-81f8-45e78984167c
*** Cluster teared down.
# /opt/ovs-agent-2.3/utils/repos.py -l
# ll /dev/sda3
brw-r----- 1 root disk 8, 3 Mar 5 02:50 /dev/sda3
[4] 在 ovms1 ~ ovms2 啟動 cluster
檢查 o2cb 狀態
# service o2cb status
Driver for "configfs": Loaded
Filesystem "configfs": Not mounted
Driver for "ocfs2_dlmfs": Not loaded
Checking O2CB cluster ocfs2: Offline
載入 o2cb 設定
# service o2cb load
Mounting configfs filesystem at /sys/kernel/config: OK
Loading filesystem "ocfs2_dlmfs": OK
Creating directory '/dlm': OK
Mounting ocfs2_dlmfs filesystem at /dlm: OK
將 o2cb 上線
# service o2cb online
Starting O2CB cluster ocfs2: OK
設定 o2cb heartbeat
# service o2cb configure
Configuring the O2CB driver.
This will configure the on-boot properties of the O2CB driver.
The following questions will determine whether the driver is loaded on
boot. The current values will be shown in brackets ('[]'). Hitting
will abort.
Load O2CB driver on boot (y/n) [n]: y
Cluster stack backing O2CB [o2cb]:
Cluster to start on boot (Enter "none" to clear) [ocfs2]:
Specify heartbeat dead threshold (>=7) [31]:
Specify network idle timeout in ms (>=5000) [30000]:
Specify network keepalive delay in ms (>=1000) [2000]:
Specify network reconnect delay in ms (>=2000) [2000]:
Writing O2CB configuration: OK
Starting O2CB cluster ocfs2: OK
啟動 o2cb
# service o2cb start
Starting O2CB cluster ocfs2: OK
掛載 /OVS
# mount HOSTNAME:/path/to/datastore/ /OVS
檢查 o2cb cluster 狀態
# service o2cb status
Driver for "configfs": Loaded
Filesystem "configfs": Mounted
Driver for "ocfs2_dlmfs": Loaded
Filesystem "ocfs2_dlmfs": Mounted
Checking O2CB cluster ocfs2: Online
Heartbeat dead threshold = 31
Network idle timeout: 30000
Network keepalive delay: 2000
Network reconnect delay: 2000
Checking O2CB heartbeat: Not active
Only server pool master
[5] 只在 ovms1 執行 (特別注意)
# /opt/ovs-agent-2.3/utils/repos.py --new HOSTNAME:/path/to/datastore/
[ NEW ] b40cb283-1a0f-4266-917e-7dcacf64ffbc => /path/to/datastore/
# /opt/ovs-agent-2.3/utils/repos.py --root b40cb283-1a0f-4266-917e-7dcacf64ffbc
[ R ] b40cb283-1a0f-4266-917e-7dcacf64ffbc => /path/to/datastore/
接著可在 ovms2 觀察設定
# /opt/ovs-agent-2.3/utils/repos.py --list
[ R ] b40cb283-1a0f-4266-917e-7dcacf64ffbc => /path/to/datastore/
[6] Remember to reboot ovms1 ~ ovms2, 並且登入手動掛上 /OVS.
[7] 進入 VM manager/Server Pool 新增 server pool
https://ovmm:4443/OVS
在 Create pool 時設定 Server pool name, Enable High Availability Mode, Server Pool Virtual IP,
Server Host/IP, Server Name, Server Agent Password.
ovms1 請選擇 Server Pool Master, Utility Server, Virtual Machine Server
ovms2 請選擇 Utility Server, Virtual Machine Server
輸入 Utility Server 需要的帳密 root / xxxxxx
再將 ovms1 ovms2 加入.
下一步選擇管理人員
再下一步不需要修改任何設定, 直接進行 confirm.
如果狀態是 Error, HA enable. 請直接將 ovms1 ~ 2 重開機.
如果還是 Error, 請將 server pool restore, 靜待幾分鐘.
[8] 安裝 ovms3 ~ ovmsn
請進行 [1] 為 ovms3 ~ ovmsn 同步機器時間
[3] 在 ovms3 ~ ovmsn 刪除裝機時自動裝上的 /OVS
確認可以掛載 HOSTNAME:/path/to/datastore/
[9] 使用 VM manager/Server 加入 VM server
請選擇要加入的 Server Pool
加入 server 時, 請選擇 Utility Server, Virtual Machine Server
輸入 Utility Server 需要的帳密 root / xxxxxx
加入完成後可觀察已加入 server pool ovms1 ~ ovmsp 上的 /etc/ocfs2/cluster.conf, 已自動加入新 server.
移除 server
在 Server Pool 清單中選擇 Servers Total:n 進入 server 清單.
點選要移除的機器先做 power off 後(過程會進行 live migration, 請耐心等候)
再選擇要移除的機器做 Delete.
[10]如何備份/還原 VM manager 設定
# /opt/ovs-manager-2.2/bin/backup.sh
Welcome to Oracle VM Manager
Please enter the choice: [1|2]
1. Back up Oracle VM Manager
2. Restore Oracle VM Manager
1
Back up data now ...
Please enter the password for database account 'OVS':
Please enter the path and filename for the dump file (eg /tmp/ovs.dmp):/BACKUP/PATH/ovs.dmp
Please enter the path and filename for the log file (eg /tmp/ovs.log):/BACKUP/PATH/ovs.log
還原時請選擇 2. Restore Oracle VM Manager
[11] 如何將 server pool master 換台
0. 在 create server pool 時或之後再加上 Server Pool Virtual IP.
1. 停止 server pool master 上的 VM ???(需要測試)
2. 登入 ovms1 (old server pool master) 下 service ovs-agent stop. 沒多久時間(0 ~ 5 mins) ovms1 狀態由 active 改為 unreachable. Server pool master 轉移到 ovms4. 此時再將 ovms1 的 ovs-agent 啟動. ovms1 狀態恢復為 active. Server pool 狀態也由 inactive 轉為 active.
[12] Server pool master 當機時
0. 直接將 server pool master 下 init 0 關機.
1. 所有機器狀態剛開始 1 ~ 2 mins 是 unreachable, 但是 ping Server Pool Virtual IP 正常.
2. 自動選擇一台機器當 server pool master. 此時正常的機器狀態為 active, 當機的機器狀態為
unreachable.
3. 當機的機器恢復正常後, 機器狀態將改為 active, server pool 狀態也將改為 active.
Subscribe to:
Posts (Atom)