我的项目有此要求,即用户上传一个CSV文件,该文件必须被推送到mysql数据库。我知道我们可以使用Spring批处理来处理大量记录。但是我找不到适合我的这一要求的任何教程/示例代码。我遇到的所有教程都只是将CSV文件名硬编码为如下所示:
https://spring.io/guides/gs/batch-
processing/
我需要使用用户上传的文件并进行相应处理。在这里的任何帮助,将不胜感激。
如果不是Spring批处理,还有其他方法可以将上传的CSV数据插入mysql吗?
请以此为主要参考:http : //walkingtechie.blogspot.co.uk/2017/03/spring-batch-
csv-file-to-mysql.html
这说明了如何使用批处理将CSV文件导入MySQL数据库。
但是,正如您所说,所有示例都假设使用了一个不需要的硬代码文件。
在下面的代码中,重要的位(与我提供的链接中的示例不同)是Controller,该控制器将一个多部分文件保存到一个临时文件夹中。然后将文件名作为参数传递给Job:
JobExecution jobExecution = jobLauncher.run(importUserJob, new JobParametersBuilder()
.addString("fullPathFileName", fileToImport.getAbsolutePath())
.toJobParameters());
最后,importReader使用参数fullPathFileName加载用户上传的文件:
@Bean
public FlatFileItemReader<Person> importReader(@Value("#{jobParameters[fullPathFileName]}") String pathToFile) {
FlatFileItemReader<Person> reader = new FlatFileItemReader<>();
reader.setResource(new FileSystemResource(pathToFile));
下面是完整的代码(未经测试,但具有大多数组件),可以使您有所了解:
@Configuration
@EnableBatchProcessing
public class BatchConfig{
@Bean
public ResourcelessTransactionManager batchTransactionManager(){
ResourcelessTransactionManager transactionManager = new ResourcelessTransactionManager();
return transactionManager;
}
@Bean
protected JobRepository jobRepository(ResourcelessTransactionManager batchTransactionManager) throws Exception{
MapJobRepositoryFactoryBean jobRepository = new MapJobRepositoryFactoryBean();
jobRepository.setTransactionManager(batchTransactionManager);
return (JobRepository)jobRepository.getObject();
}
@Bean
public JobLauncher jobLauncher(JobRepository jobRepository) throws Exception {
SimpleJobLauncher jobLauncher = new SimpleJobLauncher();
jobLauncher.setJobRepository(jobRepository);
return jobLauncher;
}
}
@Configuration
public class ImportJobConfig {
@Bean
public FlatFileItemReader<Person> importReader(@Value("#{jobParameters[fullPathFileName]}") String pathToFile) {
FlatFileItemReader<Person> reader = new FlatFileItemReader<>();
reader.setResource(new FileSystemResource(pathToFile));
reader.setLineMapper(new DefaultLineMapper<Person>() {{
setLineTokenizer(new DelimitedLineTokenizer() {{
setNames(new String[]{"firstName", "lastName"});
}});
setFieldSetMapper(new BeanWrapperFieldSetMapper<Person>() {{
setTargetType(Person.class);
}});
}});
return reader;
}
@Bean
public PersonItemProcessor processor() {
return new PersonItemProcessor();
}
@Bean
public JdbcBatchItemWriter<Person> writer() {
JdbcBatchItemWriter<Person> writer = new JdbcBatchItemWriter<>();
writer.setItemSqlParameterSourceProvider(
new BeanPropertyItemSqlParameterSourceProvider<Person>());
writer.setSql("INSERT INTO people (first_name, last_name) VALUES (:firstName, :lastName)");
writer.setDataSource(dataSource);
return writer;
}
// end::readerwriterprocessor[]
// tag::jobstep[]
@Bean
public Job importUserJob(JobCompletionNotificationListener listener) {
return jobBuilderFactory.get("importUserJob").incrementer(new RunIdIncrementer())
.listener(listener).flow(step1()).end().build();
}
@Bean
public Step step1(@Qualifier("importReader") ItemReader<Person> importReader) {
return stepBuilderFactory.get("step1").<Person, Person>chunk(10).reader(importReader)
.processor(processor()).writer(writer()).build();
}
}
@RestController
public class MyImportController {
@Autowired private JobLauncher jobLauncher;
@Autowired private Job importUserJob;
@RequestMapping(value="/import/file", method=RequestMethod.POST)
public String create(@RequestParam("file") MultipartFile multipartFile) throws IOException{
//Save multipartFile file in a temporary physical folder
String path = new ClassPathResource("tmpuploads/").getURL().getPath();//it's assumed you have a folder called tmpuploads in the resources folder
File fileToImport = new File(path + multipartFile.getOriginalFilename());
OutputStream outputStream = new FileOutputStream(fileToImport);
IOUtils.copy(multipartFile.getInputStream(), outputStream);
outputStream.flush();
outputStream.close();
//Launch the Batch Job
JobExecution jobExecution = jobLauncher.run(importUserJob, new JobParametersBuilder()
.addString("fullPathFileName", fileToImport.getAbsolutePath())
.toJobParameters());
return "OK";
}
}
我的项目有这样的要求,用户上传一个CSV文件,该文件必须推送到mysql数据库。我知道我们可以使用Spring批处理来处理大量记录。但我找不到任何教程/示例代码来满足我的这一要求。我遇到的所有教程都只是将CSV文件名硬编码在其中,如下所示: https://spring.io/guides/gs/batch-processing/ 我需要使用用户上传的文件并进行相应的处理。如果您有任何帮助,我们将
问题内容: 如何在csv中编写多头标头,以便第二个标头值应来自数据库 //预期的输出 //以下是用于弹簧批处理写入csv的代码段 问题答案: 您可以在中执行查询,并将结果附加到标题的第一行。
问题内容: 我有一些要导入mySQL的CSV数据文件。我想在shell脚本中进行插入,以便可以将其自动化。但是,我对在脚本中使用明文形式输入用户名和密码感到有些厌倦 我有以下问题: 我对脚本中明文中的uname / pwd的想法感到不满意(反正还是这样,还是我太偏执)?也许我可以为插入表设置仅具有INSERT特权的用户? 数据库表(导入原始数据的数据库表)具有基于表列的唯一键。我尝试导入的数据中也
我在360个CSV文件中有大量的数据,我想通过使用C#将它们存储在SQL Server数据库中。 我已经安装了Visual Studio 2010,但没有安装任何版本的SQL Server。 现在我有两个问题: 是否可以使用C#创建SQL Server数据库(尽管SQL Server不可用)? 如果是,如何创建数据库并使用C#将数据插入数据库? 我尝试了一些代码,如下所示,从不同的来源找到(盲目复
问题内容: 我是Spring Batch的新手,但遇到了问题。 我正在处理的批处理应用程序从分隔的文本文件中读取和处理行。我已将应用程序配置为使用FlatFileReader来读取带分隔符的文本文件,但问题是正在读取的某些数据中带有双引号。当FlatFileReader遇到单引号时,将引发FlatFileParseException,但是当存在两个双引号时,则不会引发FlatFileParseEx
问题内容: 我是新来的反应js。我想用react js异步上传图像假设我有这段代码 任何答案将不胜感激! 问题答案: 你可以利用