当前位置: 首页 > 知识库问答 >
问题:

将CSV文件从Azure blob存储大容量插入到SQL托管实例

廖臻
2023-03-14

我正在使用以下代码:

BULK INSERT testing
FROM 'test.csv'
WITH (DATA_SOURCE = 'BULKTEST',
  FIELDTERMINATOR = ',',
  FIRSTROW = 0,
  CODEPAGE = '65001',
  ROWTERMINATOR = '0x0a'
   );

如果CSV文件中有4列,则希望数据库表中的第5行为null

共有1个答案

闾丘卓
2023-03-14

对不起,我们在批量插入中实现了这一点。根据我的经验,没有其他办法。

Data Factory数据流中也不支持Azure SQL托管实例作为dataset。否则,我们可以使用数据流派生列创建一个新列,映射到Azure SQL数据库。

最好的方法是编辑csv文件:只需在csv文件中添加新列作为标题。

 类似资料:
  • 我正在使用大容量插入将文本文件读入SQL Server表。当我尝试使用bulk insert时,我总是会遇到同样的错误,尽管如果我取文本文件的第一行,并将值复制到一个普通的旧insert into语句中,一切都正常。我的数据库stop_times的设置如下: 但是,将第一行复制并粘贴到 管用。我觉得我在大容量插入函数中遗漏了一些非常明显的东西,但我一无所知。

  • 我正在尝试使用pyspark来分析我在数据砖笔记本上的数据。Blob 存储已装载到数据砖群集上,在分析后,希望将 csv 写回 blob 存储。由于 pyspark 以分布式方式工作,csv 文件被分解为小块并写入 Blob 存储。如何克服这个问题,并在我们使用pyspark进行分析时在blob上编写为单个csv文件。谢谢。

  • 希望创建一个与空间数据类型相对应的列的sql db。

  • 我正在使用大容量插入并得到以下错误: 注意:加载文件中的数据不超过配置的列长度 从'C:\temp\dataload\load_file.txt'大容量插入load_data(firstrow=1,fieldterminator='0x09',rowterminator='\n',MAXERRORS=0,ERRORFILE='C:\temp\dataload\load_file') Msg 486

  • 问题内容: 我有一些要导入mySQL的CSV数据文件。我想在shell脚本中进行插入,以便可以将其自动化。但是,我对在脚本中使用明文形式输入用户名和密码感到有些厌倦 我有以下问题: 我对脚本中明文中的uname / pwd的想法感到不满意(反正还是这样,还是我太偏执)?也许我可以为插入表设置仅具有INSERT特权的用户? 数据库表(导入原始数据的数据库表)具有基于表列的唯一键。我尝试导入的数据中也