本文实例实现的功能是监控一个文件或目录的变化,如果有变化,把文件上传备份至备份主机,并且要监控上传过程是否有问题等,具体内容如下
#!/usr/bin/env python #coding=utf-8 # #Status wd gs/ccs sql file changed #文件有变化上传至备份主机,上传之后验证文件是否正确 # import paramiko,os,sys,datetime,time,MySQLdb from pyinotify import WatchManager, Notifier, ProcessEvent, IN_DELETE, IN_CREATE,IN_MODIFY ''' CREATE TABLE `wddel_log.status_sql` ( `ip` varchar(16) NOT NULL COMMENT '机器IP', `tar_name` varchar(50) NOT NULL COMMENT '备份文件名字', `md5` varchar(50) NOT NULL COMMENT '备份文件MD5', `flag` int(2) NOT NULL COMMENT '0:成功;1:失败', `error_log` varchar(100) NOT NULL COMMENT '错误日志', `uptime` datetime NOT NULL COMMENT '更新时间', KEY `ip` (`ip`), KEY `uptime` (`uptime`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8'''#日志表创建脚本 GM_path='/home/asktao/' center_hostname='192.168.1.100' center_username='root' center_password='123456' center_port=63008 def log2db(ip,tar_name,md5,flag,error='0'):#删除日志入库 try: tar_name = os.path.split(tar_name)[1] now = time.strftime("%Y-%m-%d %H:%M:%S") conn = MySQLdb.connect(host = '192.168.1.104',user = 'root',passwd = '1q2w3e4r',charset='utf8',connect_timeout=20) cursor = conn.cursor() sql = "SELECT ip FROM wddel_log.status_sql WHERE ip='%s'" % ip cursor.execute(sql) res = cursor.fetchall() if len(res)==0: inster_sql = "insert into wddel_log.status_sql VALUES('%s','%s','%s',%s,'%s','%s')" % (ip,tar_name,md5,flag,error,now) cursor.execute(inster_sql) conn.commit() else: update_sql = "UPDATE wddel_log.status_sql SET md5='%s',flag='%s',error_log='%s',uptime='%s' WHERE ip='%s'" % (md5,flag,error,now,ip) cursor.execute(update_sql) conn.commit() cursor.close() conn.close() except Exception,e: print e def find_ip():#获取本地eth0的IP地址 ip = os.popen("/sbin/ip a|grep 'global eth0'").readlines()[0].split()[1].split("/")[0] if "192.168." in ip: ip = os.popen("/sbin/ip a|grep 'global eth1'").readlines()[0].split()[1].split("/")[0] return ip def md5sum(file_name):#验证sql打包文件的MD5 if os.path.isfile(file_name): f = open(file_name,'rb') py_ver = sys.version[:3] if py_ver == "2.4": import md5 as hashlib else: import hashlib md5 = hashlib.md5(f.read()).hexdigest() f.close() return md5 else: return 0 def center_md5(file_name):#上传至备份中心的文件的MD5 try: s=paramiko.SSHClient() s.set_missing_host_key_policy(paramiko.AutoAddPolicy()) s.connect(hostname = center_hostname,port=center_port,username=center_username, password=center_password) conm = "/usr/bin/md5sum %s" % file_name stdin,stdout,stderr=s.exec_command(conm) result = stdout.readlines()[0].split()[0].strip() s.close() return result except Exception,e: return e def back_file(ip,tar_name,tar_md5):#上传文件到备份中心 remote_dir='/data/sql' file_name=os.path.join(remote_dir,os.path.split(tar_name)[1]) try: t=paramiko.Transport((center_hostname,center_port)) t.connect(username=center_username,password=center_password) sftp=paramiko.SFTPClient.from_transport(t) sftp.put(tar_name,file_name) t.close() #print "%s back_file OK" % tar_name os.remove(tar_name) remot_md5=center_md5(file_name) if remot_md5 == tar_md5: log2db(ip,tar_name,tar_md5,0) else: log2db(ip,tar_name,tar_md5,1,'remot_md5!=tar_md5') except Exception,e: #print "connect error!" log2db(ip,tar_name,tar_md5,1,e) os.remove(tar_name) def back_sql():#执行备份 ip = find_ip() tar_name = "/tmp/%s.tar.gz" % ip sql_conn = "/usr/bin/find %s -type f -name '*.sql'|/usr/bin/xargs /bin/tar zcvPf %s" % (GM_path,tar_name) sql_tar = os.popen(sql_conn).readlines() tar_md5 = md5sum(tar_name) if tar_md5 != 0: back_file(ip,tar_name,tar_md5) else: error_log = "%s not find" % tar_name log2db(ip,tar_name,tar_md5,0,error_log) class PFilePath(ProcessEvent):#文件变化的触发 def process_IN_CREATE(self, event): if os.path.splitext(event.name)[1] == ".sql": text = "Create file: %s " % os.path.join(event.path, event.name) #print text back_sql() def process_IN_MODIFY(self, event): if os.path.splitext(event.name)[1] == ".sql": text = "Modify file: %s " % os.path.join(event.path, event.name) #print text back_sql() def FSMonitor():#主监控函数 back_sql()#运行脚本先备份sql文件 wm = WatchManager() mask = IN_CREATE |IN_MODIFY notifier = Notifier(wm, PFilePath()) wdd = wm.add_watch(GM_path, mask, rec=True) print 'now starting monitor %s' % (GM_path) while True: try : notifier.process_events() if notifier.check_events(): notifier.read_events() except KeyboardInterrupt: notifier.stop() break if __name__ == "__main__": FSMonitor()
以上就是本文的全部内容,希望对大家的学习有所帮助。
本文向大家介绍python中文件变化监控示例(watchdog),包括了python中文件变化监控示例(watchdog)的使用技巧和注意事项,需要的朋友参考一下 在python中文件监控主要有两个库,一个是pyinotify ( https://github.com/seb-m/pyinotify/wiki ),一个是watchdog(http://pythonhosted.org/watchd
本文向大家介绍一个监控LINUX目录和文件变化的Shell脚本分享,包括了一个监控LINUX目录和文件变化的Shell脚本分享的使用技巧和注意事项,需要的朋友参考一下 最近看到群里有人聊到他们的服务器最近被挂马,然后想利用一个脚本能够实时监控web目录下文件的变化,也就是对该目录的增删改操作都会记录到相应日志下。 当时感觉这个功能的确实有点意思,所以网上查阅了些资料,自己研究了下,这会儿有空写了个
本文向大家介绍java 使用线程监控文件目录变化的实现方法,包括了java 使用线程监控文件目录变化的实现方法的使用技巧和注意事项,需要的朋友参考一下 java 使用线程监控文件目录变化的实现方法 由于某种特殊的需求、弄了个使用线程监控文件目录变化的 代码基本如下、其中减去一些复杂的操作、只留下基本代码: 执行后,效果图如下: 如有疑问请留言或者到本站社区交流讨论,感谢阅读,希望能帮助到大家,
gulp api 中的 watch() 方法利用文件系统的监控程序(file system watcher)将 globs 与 任务(task) 进行关联。它对匹配 glob 的文件进行监控,如果有文件被修改了就执行关联的任务(task)。如果被执行的任务(task)没有触发 异步完成 信号,它将永远不会再次运行了。 此 API 的默认设置是基于通常的使用场景的,而且提供了内置的延迟和排队机制。
目录大小和进程详情的数据采集可用脚本falcon-scripts来做。 收集的指标如下: 指标名 注释 du.bytes.used 目录大小,单位byte proc.cpu 进程所占cpu,百分比 proc.mem 进程所占内存,单位byte proc.io.in 进程io输入,单位byte proc.io.out 进程io输出,单位byte 工作原理 du.sh脚本借助du命令采集数据 proc
问题内容: Python似乎具有复制文件的功能(例如)和复制目录的功能(例如),但是我还没有找到能够同时处理两者的函数。当然,检查要复制文件还是目录很简单,但这似乎很奇怪。 确实没有像unix命令那样工作的标准函数,即同时支持目录和文件以及递归复制吗?在Python中解决此问题的最优雅方法是什么? 问题答案: 建议您先致电,如果引发异常,请重试。