当前位置: 首页 > 知识库问答 >
问题:

在SQL Server中大容量插入加载失败

郗学
2023-03-14

我正在尝试将.csv文件插入到现有表中。现有的表有3列,这些列是ID(在表中分配)、学生号和组号。

在我的.csv中,我有下面的格式,但是每次插入它时,我都会得到一个错误

   ID,StudentNumber,GroupNumber
   ,0000123456,3
   ,0000794613,3
    BULK INSERT [dbo].[Table_StudentNumber]
    FROM 'E:\CSV\sample.csv'
    WITH
    (
        FIRSTROW = 2,
        FIELDTERMINATOR = ',',
        ROWTERMINATOR = '\n'
    );

共有1个答案

马权
2023-03-14

不要将CSV大容量插入到实际表中。首先将其插入到没有标识列的表中,更改数据,然后将其插入到实际表中。

 类似资料:
  • 就像有人说的第二种方式更慢,但我不确定,那么哪种方式更好呢?不能使数据库崩溃。

  • 下面是我用来将数据插入弹性搜索的代码- 谁能告诉我我在这里做错了什么吗?多谢了。

  • 我正在使用大容量插入并得到以下错误: 注意:加载文件中的数据不超过配置的列长度 从'C:\temp\dataload\load_file.txt'大容量插入load_data(firstrow=1,fieldterminator='0x09',rowterminator='\n',MAXERRORS=0,ERRORFILE='C:\temp\dataload\load_file') Msg 486

  • 问题内容: 我有一个存储在典型MySQL数据库中的表,并且已经使用java构建了一个小型解析器工具,以解析并构建neo4j数据库。该数据库将具有约4000万个节点,每个节点具有一个或多个边缘(最多可能有10个边缘)。问题来自我必须创建某些节点的方式。有一个用户节点,评论节点和标签节点。用户节点和主题标签节点必须各自唯一。我正在使用以下示例中的代码来确保唯一性: } 我已经考虑过使用批处理插入器,但

  • 我正在尝试使用大容量插入和BCP将数据加载到Azure SQL server。我能够将数据加载到我的表中,没有任何问题,但在我的情况下,加载性能是个问题。在大多数情况下,BCP比批量插入更快。 BCP 将数据从UNIX加载到数据库 批量插入 通过BLOB存储将数据加载到AzureSQL服务器 我想知道除了添加TABLOCK和drop/recreate index之外,如何提高批量插入性能。由于增量

  • 我无法使用C#webapi将大量数据插入AzureSQL服务器DB 考虑考虑 我想插入60K 我的方法:(都在本地sql server中工作,但不在Azure sql server中工作) 1) 尝试使用EF逐个插入记录(10000次约10分钟,大部分超时) 2) 尝试使用大容量插入扩展以及在SqlBulkCopy中尝试的EF 3) 4) 尝试增加连接字符串中的连接超时 5) 尝试在Dbconte