我有一个数据集,从数据库查询中获得,大约有5,000个元素。我想把这些数据分成块,然后让“用户”(线程)发出HTTP请求。
这样做的目的是我们有一个站点,提供实时信息的瞬态数据,我想模拟多个并发的请求对服务。
1-尝试创建一个测试计划,在该测试计划中完成DB查询,然后通过ForEach控制器通过HTTP请求进行处理。但是,当我只有1个'user'时,这工作很好;如果我将用户计数增加到2+,那么DB查询将运行2+次,每个“用户”将运行整个5,000多个数据点
2-我尝试将DB查询移动到它自己的线程组中,然后使用BeanShell将数据放入环境(prop.add(...))。这是因为数据在那里,但是http请求线程组中的每个“用户”再次迭代所有数据。
理想情况下,我希望获取数据,并让HTTP请求线程组划分数据,使线程1获取第一个2,500个,线程2获取第二个2,500个(或者,如果有4个“用户”,则线程1获取第一个1,250个,线程2获取下一个1,250个,依此类推)。
我刚开始看JMeter,我不认为它能“自动”完成这个任务,但我想问问,以防我遗漏了一些明显的东西。
将Counter元素放入testplan,使用:
起始值:1
增量:1
引用名称:(例如)cid
并禁用“独立跟踪计数器...”。
然后添加JSR223或BeanShell采样器,编写一段简单的代码:
Integer cid = Integer.valueOf(vars.get("cid"));
Integer dataShift = 2500;
Integer startReadDataFrom = (cid - 1) * 2500;
vars.put('startReadDataFrom', String.valueOf(startReadDataFrom));
然后可以使用变量${startReadDataFrom}作为起点,为每个线程(0,2500,5000,7500,...)读取数据。
我试图在jeter中的两个CSV数据集配置之间共享变量,但不幸的是,所有配置元素都同时加载,因此它无法从CSV文件中读取新导入的变量。 < li >我想导入包含登录名、密码、第三变量CSV数据集配置测试计划映像的CSV文件 < li >我想将第三个变量作为文件路径的一部分传递给下一个CSV数据集配置第二个Csv数据集配置,其中包含第一个变量的变量 实际结果:Java . lang . illega
主要内容:创建JMeter测试计划,添加JDBC请求,保存并执行测试计划,验证输出在本节中,将学习如何创建测试数据库服务器的基本测试计划。 为了我们的测试目的,这里将创建一个数据库。 可以根据自己的方便使用任何其他数据库服务器。还可以参考我们的MySQL数据库教程:https://www.xnip.cn/mysql 来了解有关数据库创建的更多信息。 在系统上安装数据库服务器之后。 按着这些次序: 创建名为testdb的数据库。 创建表 - 。 将记录插入到表中。 下图显示了创建
7.4.5.用户数据分区 对开发者和用户来讲,用户数据分区才是最重要的。用户数据都储存在这里,下载的应用程序储存在这里,而且所有的应用程序数据也都储存在这里。 用户安装的应用程序都储存在/data/app目录,而开发者关心的数据文件都储存在/data/data目录。在这个目录之下,每个应用程序对应一个单独的子目录,按照Java package的名字作为标识。从这里可以再次看出Java packag
THX!
问题内容: 我有一个多类分类问题,并且我的数据集存在偏差,我有100个特定类的实例,并说10个不同类的实例,所以如果我有100个特定类的实例,我想在各个类之间分配数据集保留率我想让30%的记录进入训练集中,我想让100个记录代表的类有30个实例,而10个记录代表的类有3个实例,依此类推。 问题答案: 您可以从在线文档中使用sklearn的: 分层K折交叉验证迭代器 提供训练/测试索引以将数据拆分为
我正在尝试使用基于Kafka Connect的Confluent在几个MySQL数据库之间同步数据。我在源连接器配置中使用了“批量”作为模式,因为主键类型是 varchar,所以我无法使用递增模式。它工作正常,但我遇到了两个问题: 似乎它无法同步删除,当源数据库中的数据被删除时,接收器数据库没有任何变化。数据仍存在于接收器数据库中。 同步数据需要相当长的时间。就我而言,同步具有 2~4k 行的表大