我使用Spring Data、Spring Boot和Hibernate作为JPA提供程序,我想提高批量插入的性能。
我引用这个链接来使用批处理:
http://docs.jboss.org/hibernate/orm/4.1/manual/en-US/html/ch15.html
这是我的代码和应用程序。插入分批实验的属性。
我的服务:
@Value("${spring.jpa.properties.hibernate.jdbc.batch_size}")
private int batchSize;
@PersistenceContext
private EntityManager em;
@Override
@Transactional(propagation = Propagation.REQUIRED)
public SampleInfoJson getSampleInfoByCode(String code) {
// SampleInfo newSampleInfo = new SampleInfo();
// newSampleInfo.setId(5L);
// newSampleInfo.setCode("SMP-5");
// newSampleInfo.setSerialNumber(10L);
// sampleInfoDao.save(newSampleInfo);
log.info("starting... inserting...");
for (int i = 1; i <= 5000; i++) {
SampleInfo newSampleInfo = new SampleInfo();
// Long id = (long)i + 4;
// newSampleInfo.setId(id);
newSampleInfo.setCode("SMPN-" + i);
newSampleInfo.setSerialNumber(10L + i);
// sampleInfoDao.save(newSampleInfo);
em.persist(newSampleInfo);
if(i%batchSize == 0){
log.info("flushing...");
em.flush();
em.clear();
}
}
与批处理相关的部分application.properties:
spring.jpa.properties.hibernate.jdbc.batch_size=100
spring.jpa.properties.hibernate.cache.use_second_level_cache=false
spring.jpa.properties.hibernate.order_inserts=true
spring.jpa.properties.hibernate.order_updates=true
实体类:
@Entity
@Table(name = "sample_info")
public class SampleInfo implements Serializable{
private Long id;
private String code;
private Long serialNumber;
@Id
@GeneratedValue(
strategy = GenerationType.SEQUENCE,
generator = "sample_info_seq_gen"
)
@SequenceGenerator(
name = "sample_info_seq_gen",
sequenceName = "sample_info_seq",
allocationSize = 1
)
@Column(name = "id")
public Long getId() {
return id;
}
public void setId(Long id) {
this.id = id;
}
@Column(name = "code", nullable = false)
public String getCode() {
return code;
}
public void setCode(String code) {
this.code = code;
}
@Column(name = "serial_number")
public Long getSerialNumber() {
return serialNumber;
}
public void setSerialNumber(Long serialNumber) {
this.serialNumber = serialNumber;
}
}
运行上面的服务批量插入 5000 行需要 30 到 35 秒才能完成,但如果注释以下行:
if(i%batchSize == 0){
log.info("flushing...");
em.flush();
em.clear();
}
插入 5000 行仅需 5 到 7 秒,比批处理模式更快。
为什么在使用批处理模式的时候会比较慢?
这是因为EntityManager不会立即将数据保存在数据库中。当您调用< code>flush()时,数据将被持久化。当您注释这些行时,EntityManager会根据flush-mode参数刷新数据,直接调用flush会告诉EntityManager在数据库中执行查询。
我正在尝试读取包含700K条记录的Excel文件,并将这些记录批量插入MySQL数据库表中。 请注意,Excel解析速度很快,我可以在50秒左右的时间内将实体对象放入中。 我使用Spring Boot和Spring数据JPA。 下面是我的部分文件: 以及我的部分: 以下是我的 : 下面是类: 有人能告诉我我在这里做了什么不正确的事情吗? 编辑: 进程未完成并最终抛出错误:- 谢谢
我创建了一个向MySql数据库插入数百万个值的程序。我读到过有关批插入的文章,它将优化我的程序并使其更快,但当我尝试这样做时,它以同样的方式工作。我没有将每个值插入数据库,而是每次将500个值保存在一个列表中,然后将它们插入一个大循环中,如下所示: 然后我删除列表中的所有值,并再次开始收集500个值。它不应该工作得更好吗? 我的插入代码是: 我有一些问题: 1。为什么当我批量插入时它不能更快地工作
在我的spring boot应用程序中,我试图进行批插入以提高写入性能。问题是,我定期获得重复数据,对于这些数据,我的表上有一些唯一的约束。在进行串行插入时,我只捕获DataIntegrityException并忽略它们。但在执行批插入时,即使一次插入失败,也不会保存整个批。我希望hibernate仍然保存不会抛出错误的记录。我正在使用存储库。saveAll()用于插入,我的数据库是Mysql
本文向大家介绍MySQL批量插入数据脚本,包括了MySQL批量插入数据脚本的使用技巧和注意事项,需要的朋友参考一下 MySQL批量插入数据脚本 新建表格就可以了 插入十万的数据为./jiaoben.sh 100000
问题内容: 我试图切换一些硬编码的查询以使用参数化输入,但是遇到一个问题:如何格式化参数化批量插入的输入? 当前,代码如下所示: 一个可能的解决方案(从如何将数组插入到一个带有PHP和PDO的单个MySQL Prepared语句中 修改而来)似乎是: 有没有更好的方法来完成带有参数化查询的批量插入? 问题答案: 好吧,您有三个选择。 一次构建-执行多次。基本上,您只需为一行准备一次插入,然后循环执
问题内容: 我有一些要导入mySQL的CSV数据文件。我想在shell脚本中进行插入,以便可以将其自动化。但是,我对在脚本中使用明文形式输入用户名和密码感到有些厌倦 我有以下问题: 我对脚本中明文中的uname / pwd的想法感到不满意(反正还是这样,还是我太偏执)?也许我可以为插入表设置仅具有INSERT特权的用户? 数据库表(导入原始数据的数据库表)具有基于表列的唯一键。我尝试导入的数据中也