Selenium IDE 附带了一些命令,可以让您添加条件逻辑以及循环到测试中。 这使您只有在满足应用程序中的某些条件时才执行命令(或一组命令),或者根据预定义的条件重复执行命令。 1. JavaScript 表达式 使用 JavaScript 表达式检查应用程序中的条件。 您可以在测试期间的任何时候使用 execute script 或 execute async script 命令运行 Jav
在数据采集一节中我们介绍了常见的监控数据源。open-falcon作为一个监控框架,可以去采集任何系统的监控指标数据,只要将监控数据组织为open-falcon规范的格式就OK了。 Flume的数据采集可以通过脚本flume-monitor来做。 工作原理 flume-monitor.py是一个采集脚本,只需要放到falcon-agent的plugin目录,在portal中将对应的plugin绑定
vsphere 监控 在数据采集一节中我们介绍了常见的监控数据源。open-falcon作为一个监控框架,可以去采集任何系统的监控指标数据,只要将监控数据组织为open-falcon规范的格式就OK了。 vsphere 的运行指标监控,可以通过脚本采集 vsphere 的各项状态,包括 Esxi,datastore,vm 等然后推送给 Open-Falcon 即可。 可以直接使用 vsphere-
mesos.py是leancloud开发的open-falcon插件脚本,通过这个插件,结合open-falcon agent/transfer,可以采集mesos相关数据,并将采集信息自动上报给open-falcon服务端 https://github.com/leancloud/satori/tree/master/satori-rules/plugin/mesos
urlooker 监控web服务可用性及访问质量,采用go语言编写,易于安装和二次开发 Feature 返回状态码检测 页面响应时间检测 页面关键词匹配检测 自定义Header GET、POST、PUT访问 自定义POST BODY 检测结果支持推送 open-falcon Architecture ScreenShot 常见问题 wiki手册 常见问题 初始用户名密码:admin/passwor
在数据采集一节中我们介绍了常见的监控数据源。open-falcon作为一个监控框架,可以去采集任何系统的监控指标数据,只要将监控数据组织为open-falcon规范的格式就OK了。 Nginx的数据采集可以通过ngx_metric来做。 ngx_metric是借助lua-nginx-module的log_by_lua功能实现nginx请求的实时分析,然后借助ngx.shared.DICT存储中间结
在数据采集一节中我们介绍了常见的监控数据源。open-falcon作为一个监控框架,可以去采集任何系统的监控指标数据,只要将监控数据组织为open-falcon规范的格式就OK了。 HAProxy的数据采集可以通过haproxymon来做。 工作原理 haproxymon是一个cron,每分钟跑一次采集脚本haproxymon.py,haproxymon通过Haproxy的stats socket
VMware的主体机器(host machine)是运行ESXi作业系统。没有办法安装Open-Falcon agent来监控,所以不能用普通的方式来做监控。 ESXi作业系统设备的运行指标的采集,可以透过写脚本,通过SNMP协议来采集交换机的各项运行指标,包括内存占用、CPU使用、流量、磁盘用量等。esxicollector就是這樣子的腳本。 工作原理 esxicollector是一系列整理过的
在数据采集一节中我们介绍了常见的监控数据源。open-falcon作为一个监控框架,可以去采集任何系统的监控指标数据,只要将监控数据组织为open-falcon规范的格式就OK了。 Solr的数据采集可以通过脚本solr_monitor来做。 工作原理 solr_monitor是一个cron,每分钟跑一次脚本solr_monitor.py,主要采集一些solr实例内存信息和缓存命中信息等等,然后组
在数据采集一节中我们介绍了常见的监控数据源。open-falcon作为一个监控框架,可以去采集任何系统的监控指标数据,只要将监控数据组织为open-falcon规范的格式就OK了。 RMQ的数据采集可以通过脚本rabbitmq-monitor来做。 工作原理 rabbitmq-monitor是一个cron,每分钟跑一次脚本rabbitmq-monitor.py,其中配置了RMQ的用户名&密码等,脚
在数据采集一节中我们介绍了常见的监控数据源。open-falcon作为一个监控框架,可以去采集任何系统的监控指标数据,只要将监控数据组织为open-falcon规范的格式就OK了。 Memcache的数据采集可以通过采集脚本memcached-monitor来做。 工作原理 memcached-monitor是一个cron,每分钟跑一次采集脚本memcached-monitor.py,脚本可以自动
MongoDB performance monitor plugin for Open-Falcon 功能支持 已测试版本: 支持MongoDB版本2.4,2.6 3.0,3.2, 以及Percona MongoDB3.0 支持存储引擎:MMAPv1, wiredTiger, RocksDB, PerconaFT 存储引擎(部分存储引擎的指标未采集完,可直接代码中添加) 支持结构: standlo
在数据采集一节中我们介绍了常见的监控数据源。open-falcon作为一个监控框架,可以去采集任何系统的监控指标数据,只要将监控数据组织为open-falcon规范的格式就OK了。 Redis的数据采集可以通过采集脚本redis-monitor 或者 redismon来做。 工作原理 redis-monitor是一个cron,每分钟跑一次采集脚本redis-monitor.py,其中配置了redi
在数据采集一节中我们介绍了常见的监控数据源。open-falcon作为一个监控框架,可以去采集任何系统的监控指标数据,只要将监控数据组织为open-falcon规范的格式就OK了。 硬件的数据采集可以通过 HWCheck 来做。 HWCheck rvadmin工具等组件实现硬件监控,需要安装falcon-agent 仅支持dell物理机,可以监控的指标有: cpu 内存 阵列卡 物理磁盘 虚拟磁盘
集群监控的本质是一个聚合功能。 单台机器的监控指标难以反应整个集群的情况,我们需要把整个集群的机器(体现为某个HostGroup下的机器)综合起来看。比如所有机器的qps加和才是整个集群的qps,所有机器的request_fail数量 ÷ 所有机器的request_total数量=整个集群的请求失败率。 我们计算出集群的某个整体指标之后,也会有“查看该指标的历史趋势图” “为该指标配置报警” 这种