?inotifywait用于等待文件或文件集上的一個待定事件,可以監控任何文件和目錄設置,并且可以遞歸地監控整個目錄樹;
?? inotifywatch用于收集被監控的文件系統計數據,包括每個inotify事件發生多少次等信息
從上面可知inotifywait是一個監控事件,可以配合shell腳本使用它。與它相關的參數:
語法格式:inotifywait [-hcmrq][-e][-t][--format][-timefmt][...]
?? -m: 即“--monitor”?? 表示始終保持事件監聽狀態。
?? -r: 即“--recursive” 表示遞歸查詢目錄
?? -q: 即“--quiet”???? 表示打印出監控事件
?? -o: 即“--outfile”?? 輸出事情到一個文件而不是標準輸出
?? -s:? 即“--syslog”??? 輸入錯誤信息到系統日志
?? -e: 即“--event”,?? 通過此參數可以指定要監控的事件,常見的事件有modify、delete、create、close_write、move、close、unmount和attrib等
?? -format: 指定輸出格式;常用的格式符如:%w:表示發生事件的目錄? %f:表示發生事件的文件? %e:表示發生的事件? %T:使用由-timefmt定義的時間格式
?? -timefmt:指定時間格式,用于-format選項中的%T格式
inotifywatch是收集數據的指令,它的相關參數:
語法格式:inotifywatch[-hvzrqf][-e][-t][-a][-d][...]
?? -fromfile:從文件中讀取需要監控的文件或排除的文件,一個文件一行,排除的文件以"@"開頭
?? -z:? 即“-zero”????????? 輸出表格的行和列,即使元素為空
?? -r:? 即“-recursive”???? 監視一個目錄下的所有子目錄
?? -t:? 即“-timeout”?????? 設置超時時間
?? -e:?? 即“-event”???????? 只監聽指定的事件
inotify定義了下列的接口參數,可以用來限制inotify消耗kernel memory的大小。由于這些參數都是內存參數,因此,可以根據應用需求,實時的調節其大小:
/proc/sys/fs/inotify/max_queued_evnets
表示調用inotify_init時分配給inotify instance中可排隊的event的數目的最大值,超出這個值的事件被丟棄,但會觸發IN_Q_OVERFLOW事件。/proc/sys/fs/inotify/max_user_instances
表示每一個real user ID可創建的inotify instatnces的數量上限。/proc/sys/fs/inotify/max_user_watches
表示每個inotify instatnces可監控的最大目錄數量。如果監控的文件數目巨大,需要根據情況,適當增加此值的大小。
根據以上在32位或者64位系統都可以執行:
echo 104857600 > /proc/sys/fs/inotify/max_user_watches echo 'echo 104857600 > /proc/sys/fs/inotify/max_user_watches' >> /etc/rc.local
如果遇到以下錯誤:
inotifywait: error while loading shared libraries: libinotifytools.so.0: cannot open shared object file: No such file or directory
解決方法: 32位系統:ln -s /usr/local/lib/libinotifytools.so.0 /usr/lib/libinotifytools.so.0 64位系統:ln -s /usr/local/lib/libinotifytools.so.0 /usr/lib64/libinotifytools.so.0
inotifywait命令使用
#!/bin/bash #filename watchdir.sh path=$1 /usr/local/bin/inotifywait -mrq --timefmt '%d/%m/%y/%H:%M' --format '%T %w %f%e' -e modify,delete,create,attrib $path執行輸出: ./watchdir.sh /data/wsdata/tools/ 04/01/13/16:34 /data/wsdata/tools/ .j.jsp.swp 04/01/13/16:34 /data/wsdata/tools/ .j.jsp.swx
inotifywait命令參數
-m
是要持續監視變化。-r
使用遞歸形式監視目錄。-q
減少冗余信息,只打印出需要的信息。-e
指定要監視的事件列表。--timefmt
是指定時間的輸出格式。--format
指定文件變化的詳細信息。
可監聽的事件
事件 | 描述 |
---|---|
access | 訪問,讀取文件。 |
modify | 修改,文件內容被修改。 |
attrib | 屬性,文件元數據被修改。 |
move | 移動,對文件進行移動操作。 |
create | 創建,生成新文件 |
open | 打開,對文件進行打開操作。 |
close | 關閉,對文件進行關閉操作。 |
delete | 刪除,文件被刪除。 |
--------------------------------------------------------------------------------------------------------
說明:
操作系統:CentOS 5.X
源服務器:192.168.21.129
目標服務器:192.168.21.127,192.168.21.128
目的:把源服務器上/home/www.osyunwei.com目錄實時同步到目標服務器的/home/www.osyunwei.com下
具體操作:
第一部分:分別在兩臺目標服務器192.168.21.127,192.168.21.128上操作
一、分別在兩臺在目標服務器安裝Rsync服務端
1、關閉SELINUX
vi /etc/selinux/config?#編輯防火墻配置文件
#SELINUX=enforcing?#注釋掉
#SELINUXTYPE=targeted?#注釋掉
SELINUX=disabled?#增加
:wq!?#保存,退出
setenforce 0 ?#立即生效
2、開啟防火墻tcp 873端口(Rsync默認端口)
vi /etc/sysconfig/iptables?#編輯防火墻配置文件
-A RH-Firewall-1-INPUT -m state --state NEW -m tcp -p tcp --dport 873 -j ACCEPT
:wq!?#保存,退出
/etc/init.d/iptables restart?#最后重啟防火墻使配置生效
3、安裝Rsync服務端軟件
yum install rsync xinetd?#安裝
vi /etc/xinetd.d/rsync?#編輯配置文件,設置開機啟動rsync
disable = no?#修改為no
:wq!?#保存退出
/etc/init.d/xinetd start?#啟動(CentOS中是以xinetd來管理Rsync服務的)
4、創建rsyncd.conf配置文件
vi /etc/rsyncd.conf?#創建配置文件,添加以下代碼
log file = /var/log/rsyncd.log?#日志文件位置,啟動rsync后自動產生這個文件,無需提前創建
pidfile = /var/run/rsyncd.pid??#pid文件的存放位置
lock file = /var/run/rsync.lock??#支持max connections參數的鎖文件
secrets file = /etc/rsync.pass??#用戶認證配置文件,里面保存用戶名稱和密碼,后面會創建這個文件
motd file = /etc/rsyncd.Motd??#rsync啟動時歡迎信息頁面文件位置(文件內容自定義)
[home_www.osyunwei.com]?#自定義名稱
path = /home/www.osyunwei.com/?#rsync服務端數據目錄路徑
comment = home_www.osyunwei.com?#模塊名稱與[home_www.osyunwei.com]自定義名稱相同
uid = root?#設置rsync運行權限為root
gid = root?#設置rsync運行權限為root
port=873??#默認端口
use chroot = no?#默認為true,修改為no,增加對目錄文件軟連接的備份
read only = no??#設置rsync服務端文件為讀寫權限
list = no?#不顯示rsync服務端資源列表
max connections = 200?#最大連接數
timeout = 600??#設置超時時間
auth users = home_www.osyunwei.com_user?#執行數據同步的用戶名,可以設置多個,用英文狀態下逗號隔開
hosts allow = 192.168.21.129??#允許進行數據同步的客戶端IP地址,可以設置多個,用英文狀態下逗號隔開
hosts deny = 192.168.21.254?#禁止數據同步的客戶端IP地址,可以設置多個,用英文狀態下逗號隔開
:wq!??#保存,退出
5、創建用戶認證文件
vi /etc/rsync.pass?#配置文件,添加以下內容
home_www.osyunwei.com_user:123456??#格式,用戶名:密碼,可以設置多個,每行一個用戶名:密碼
:wq!??#保存,退出
6、設置文件權限
chmod 600 /etc/rsyncd.conf??#設置文件所有者讀取、寫入權限
chmod 600 /etc/rsync.pass??#設置文件所有者讀取、寫入權限
7、啟動rsync
/etc/init.d/xinetd start??#啟動
service xinetd stop???#停止
service xinetd restart?#重新啟動
第二部分:在源服務器192.168.21.129上操作
一、安裝Rsync客戶端
1、關閉SELINUX
vi /etc/selinux/config?#編輯防火墻配置文件
#SELINUX=enforcing?#注釋掉
#SELINUXTYPE=targeted?#注釋掉
SELINUX=disabled?#增加
:wq!?#保存,退出
setenforce 0?#立即生效
2、開啟防火墻tcp 873端口(Rsync默認端口,做為客戶端的Rsync可以不用開啟873端口)
vi /etc/sysconfig/iptables?#編輯防火墻配置文件
-A RH-Firewall-1-INPUT -m state --state NEW -m tcp -p tcp --dport 873 -j ACCEPT
:wq!?#保存,退出
/etc/init.d/iptables restart?#最后重啟防火墻使配置生效
系統運維??www.osyunwei.com? 溫馨提醒:qihang01原創內容 版權所有,轉載請注明出處及原文鏈接
3、安裝Rsync客戶端軟件
whereis rsync???#查看系統是否已安裝rsync,出現下面的提示,說明已經安裝
rsync: /usr/bin/rsync /usr/share/man/man1/rsync.1.gz
yum install? xinetd??#只安裝xinetd即可,CentOS中是以xinetd來管理rsync服務的
yum install rsync xinetd?#如果默認沒有rsync,運行此命令進行安裝rsync和xinetd
vi /etc/xinetd.d/rsync?#編輯配置文件,設置開機啟動rsync
disable = no?#修改為
/etc/init.d/xinetd start?#啟動(CentOS中是以xinetd來管理rsync服務的)
4、創建認證密碼文件
vi /etc/passwd.txt??#編輯文件,添加以下內容
123456?#密碼
:wq!?#保存退出
chmod 600 /etc/passwd.txt?#設置文件權限,只設置文件所有者具有讀取、寫入權限即可
5、測試源服務器192.168.21.129到兩臺目標服務器192.168.21.127,192.168.21.128之間的數據同步
mkdir /home/www.osyunwei.com/ceshi?#在源服務器上創建測試文件夾,然后在源服務器運行下面2行命令
rsync -avH --port=873 --progress --delete? /home/www.osyunwei.com/? home_www.osyunwei.com_user@192.168.21.127::home_www.osyunwei.com --password-file=/etc/passwd.txt
rsync -avH --port=873 --progress --delete? /home/www.osyunwei.com/? home_www.osyunwei.com_user@192.168.21.128::home_www.osyunwei.com --password-file=/etc/passwd.txt
運行完成后,分別在兩臺目標服務器192.168.21.127,192.168.21.128上查看,在/home/www.osyunwei.com目錄下有ceshi文件夾,說明數據同步成功。
二、安裝Inotify-tools工具,實時觸發rsync進行同步
1、查看服務器內核是否支持inotify
ll /proc/sys/fs/inotify ??#列出文件目錄,出現下面的內容,說明服務器內核支持inotify
-rw-r--r-- 1 root root 0 Mar? 7 02:17 max_queued_events
-rw-r--r-- 1 root root 0 Mar? 7 02:17 max_user_instances
-rw-r--r-- 1 root root 0 Mar? 7 02:17 max_user_watches
備注:Linux下支持inotify的內核最小為2.6.13,可以輸入命令:uname -a查看內核
CentOS 5.X 內核為2.6.18,默認已經支持inotify
2、安裝inotify-tools
yum install make? gcc gcc-c++??#安裝編譯工具
inotify-tools下載地址:http://github.com/downloads/rvoicilas/inotify-tools/inotify-tools-3.14.tar.gz
上傳inotify-tools-3.14.tar.gz到/usr/local/src目錄下
cd /usr/local/src
tar zxvf inotify-tools-3.14.tar.gz??#解壓
cd inotify-tools-3.14?#進入解壓目錄
./configure --prefix=/usr/local/inotify??#配置
make??#編譯
make install??#安裝
3、設置系統環境變量,添加軟連接
echo "PATH=/usr/local/inotify/bin:$PATH" >>/etc/profile.d/inotify.sh
source /etc/profile.d/inotify.sh??#使設置立即生效
echo "/usr/local/inotify/lib" >/etc/ld.so.conf.d/inotify.conf
ln -s /usr/local/inotify/include? /usr/include/inotify
4、修改inotify默認參數(inotify默認內核參數值太小)
查看系統默認參數值
sysctl -a | grep max_queued_events
結果是:fs.inotify.max_queued_events = 16384
sysctl -a | grep max_user_watches
結果是:fs.inotify.max_user_watches = 8192
sysctl -a | grep max_user_instances
結果是:fs.inotify.max_user_instances = 128
修改參數:
sysctl -w fs.inotify.max_queued_events="99999999"
sysctl -w fs.inotify.max_user_watches="99999999"
sysctl -w fs.inotify.max_user_instances="65535"
vi /etc/sysctl.conf?#添加以下代碼
fs.inotify.max_queued_events=99999999
fs.inotify.max_user_watches=99999999
fs.inotify.max_user_instances=65535
:wq!?#保存退出
參數說明:
max_queued_events:
inotify隊列最大長度,如果值太小,會出現"** Event Queue Overflow **"錯誤,導致監控文件不準確
max_user_watches:
要同步的文件包含多少目錄,可以用:find /home/www.osyunwei.com -type d | wc -l 統計,必須保證max_user_watches值大于統計結果(這里/home/www.osyunwei.com為同步文件目錄)
max_user_instances:
每個用戶創建inotify實例最大值
系統運維??www.osyunwei.com? 溫馨提醒:qihang01原創內容 版權所有,轉載請注明出處及原文鏈接
5、創建腳本,實時觸發rsync進行同步
vi /usr/local/inotify/rsync.sh???#編輯,添加以下代碼
#!/bin/sh
srcdir=/home/www.osyunwei.com/
dstdir=home_www.osyunwei.com
excludedir=/usr/local/inotify/exclude.list
rsyncuser=home_www.osyunwei.com_user
rsyncpassdir=/etc/passwd.txt
dstip="192.168.21.127 192.168.21.128"
for ip in $dstip
do
rsync -avH --port=873 --progress --delete? --exclude-from=$excludedir ?$srcdir $rsyncuser@$ip::$dstdir --password-file=$rsyncpassdir
done
/usr/local/inotify/bin/inotifywait -mrq --timefmt '%d/%m/%y %H:%M' --format '%T %w%f%e' -e close_write,modify,delete,create,attrib,move $srcdir |? while read file
do
for ip in $dstip
do
rsync -avH --port=873 --progress --delete? --exclude-from=$excludedir ?$srcdir $rsyncuser@$ip::$dstdir --password-file=$rsyncpassdir
echo "? ${file} was rsynced" >> /tmp/rsync.log 2>&1
done
done
======================================
chmod +x /usr/local/inotify/rsync.sh???#添加腳本執行權限
腳本參數說明:
srcdir=/home/www.osyunwei.com/??#源服務器同步目錄
dstdir=home_www.osyunwei.com????#目標服務器rsync同步目錄模塊名稱
excludedir=/usr/local/inotify/exclude.list ??
#不需要同步的目錄,如果有多個,每一行寫一個目錄,使用相對于同步模塊的路徑;
#例如:不需要同步/home/www.osyunwei.com/目錄下的a目錄和b目錄下面的b1目錄,exclude.list文件可以這樣寫
a/
b/b1/
rsyncuser=home_www.osyunwei.com_user??#目標服務器rsync同步用戶名
rsyncpassdir=/etc/passwd.txt??#目標服務器rsync同步用戶的密碼在源服務器的存放路徑
dstip="192.168.21.127 192.168.21.128"??#目標服務器ip,多個ip用空格分開
/tmp/rsync.log??#腳本運行日志記錄
6、設置腳本開機自動執行
vi /etc/rc.d/rc.local??#編輯,在最后添加一行
sh /usr/local/inotify/rsync.sh &?#設置開機自動在后臺運行腳本
:wq!??#保存退出
7、測試inotify實時觸發rsync同步腳本是否正常運行
在源服務器192.168.21.129上創建文件inotify_rsync_ceshi
mkdir /home/www.osyunwei.com/inotify_rsync_ceshi
重新啟動源服務器:192.168.21.129
等系統啟動之后,查看兩臺目標服務器192.168.21.127,192.168.21.128的/home/www.osyunwei.com下是否有inotify_rsync_ceshi文件夾
然后再在源服務器192.168.21.129創建文件夾inotify_rsync_ceshi_new
mkdir /home/www.osyunwei.com/inotify_rsync_ceshi_new
繼續查看兩臺目標服務器192.168.21.127,192.168.21.128的/home/www.osyunwei.com下是否有inotify_rsync_ceshi_new文件夾
如果以上測試都通過,說明inotify實時觸發rsync同步腳本運行正常。
至此,Linux下Rsync+Inotify-tools實現數據實時同步完成。
擴展閱讀:
============================================
inotify參數
-m 是保持一直監聽
-r 是遞歸查看目錄
-q 是打印出事件
-e create,move,delete,modify,attrib 是指 “監聽 創建 移動 刪除 寫入 權限” 事件
rsync參數
============================================
-v, --verbose 詳細模式輸出
-q, --quiet 精簡輸出模式
-c, --checksum 打開校驗開關,強制對文件傳輸進行校驗
-a, --archive 歸檔模式,表示以遞歸方式傳輸文件,并保持所有文件屬性,等于-rlptgoD
-r, --recursive 對子目錄以遞歸模式處理
-R, --relative 使用相對路徑信息
-b, --backup 創建備份,也就是對于目的已經存在有同樣的文件名時,將老的文件重新命名為~filename。可以使用--suffix選項來指定不同的備份文件前綴。
--backup-dir 將備份文件(如~filename)存放在在目錄下。
-suffix=SUFFIX 定義備份文件前綴
-u, --update 僅僅進行更新,也就是跳過所有已經存在于DST,并且文件時間晚于要備份的文件。(不覆蓋更新的文件)
-l, --links 保留軟鏈結
-L, --copy-links 想對待常規文件一樣處理軟鏈結
--copy-unsafe-links 僅僅拷貝指向SRC路徑目錄樹以外的鏈結
--safe-links 忽略指向SRC路徑目錄樹以外的鏈結
-H, --hard-links 保留硬鏈結
-p, --perms 保持文件權限
-o, --owner 保持文件屬主信息
-g, --group 保持文件屬組信息
-D, --devices 保持設備文件信息
-t, --times 保持文件時間信息
-S, --sparse 對稀疏文件進行特殊處理以節省DST的空間
-n, --dry-run現實哪些文件將被傳輸
-W, --whole-file 拷貝文件,不進行增量檢測
-x, --one-file-system 不要跨越文件系統邊界
-B, --block-size=SIZE 檢驗算法使用的塊尺寸,默認是700字節
-e, --rsh=COMMAND 指定使用rsh、ssh方式進行數據同步
--rsync-path=PATH 指定遠程服務器上的rsync命令所在路徑信息
-C, --cvs-exclude 使用和CVS一樣的方法自動忽略文件,用來排除那些不希望傳輸的文件
--existing 僅僅更新那些已經存在于DST的文件,而不備份那些新創建的文件
--delete 刪除那些DST中SRC沒有的文件
--delete-excluded 同樣刪除接收端那些被該選項指定排除的文件
--delete-after 傳輸結束以后再刪除
--ignore-errors 及時出現IO錯誤也進行刪除
--max-delete=NUM 最多刪除NUM個文件
--partial 保留那些因故沒有完全傳輸的文件,以是加快隨后的再次傳輸
--force 強制刪除目錄,即使不為空
--numeric-ids 不將數字的用戶和組ID匹配為用戶名和組名
--timeout=TIME IP超時時間,單位為秒
-I, --ignore-times 不跳過那些有同樣的時間和長度的文件
--size-only 當決定是否要備份文件時,僅僅察看文件大小而不考慮文件時間
--modify-window=NUM 決定文件是否時間相同時使用的時間戳窗口,默認為0
-T --temp-dir=DIR 在DIR中創建臨時文件
--compare-dest=DIR 同樣比較DIR中的文件來決定是否需要備份
-P 等同于 --partial
--progress 顯示備份過程
-z, --compress 對備份的文件在傳輸時進行壓縮處理
--exclude=PATTERN 指定排除不需要傳輸的文件模式
--include=PATTERN 指定不排除而需要傳輸的文件模式
--exclude-from=FILE 排除FILE中指定模式的文件
--include-from=FILE 不排除FILE指定模式匹配的文件
--version 打印版本信息
--address 綁定到特定的地址
--config=FILE 指定其他的配置文件,不使用默認的rsyncd.conf文件
--port=PORT 指定其他的rsync服務端口
--blocking-io 對遠程shell使用阻塞IO
-stats 給出某些文件的傳輸狀態
--progress 在傳輸時現實傳輸過程
--log-format=formAT 指定日志文件格式
--password-file=FILE 從FILE中得到密碼
--bwlimit=KBPS 限制I/O帶寬,KBytes per second
-h, --help 顯示幫助信息
?
rsync、unison同步的時候要用
--temp-dir=不在同步目錄下的臨時目錄
把臨時文件設置在別的地方,否則可能會導致臨時文件被當成正常文件同步,磁盤空間不夠用。
http://my.huhoo.net/archives/2008/12/rsync.html
?值得注意的是-P這個參數是綜合了--partial --progress兩個參數,所以rsync的斷點續傳可以用下面的例子來說明:
#?rsync?-avzP /tmp/bigfile cnangel@10.1.6.160:/tmp/bigfile
http://blog.csdn.net/david_xtd/article/details/10149617