当前位置: 首页 > 知识库问答 >
问题:

如何像调度程序一样将大数据从MongoDB导入SQL Server

饶高雅
2023-03-14

共有1个答案

许寒
2023-03-14

我不知道任何工具,但我肯定他们存在,如果你谷歌他们。

如果是我,在没有事先知识的情况下,我可以将数据导出到平面文件(.csv),然后创建存储过程或SSIS包将数据导入SQL。

Python可能是我的选择,可以在一夜之间自动化块中的导出,而SQL可以处理导入和清理。

mongoexport --host yourhost --db yourdb --collection yourcollection --csv --out yourfile.csv --fields field1,field2,field3

这样做可以让您在结构到达SSIS包之前定义它。

另一种方式

这里有一个很好的执行所有集合的例子。这是另一个答案。

 out = `mongo  #{DB_HOST}/#{DB_NAME} --eval "printjson(db.getCollectionNames())"`

  collections = out.scan(/\".+\"/).map { |s| s.gsub('"', '') }

  collections.each do |collection|
    system "mongoexport --db #{DB_NAME}  --collection #{collection}  --host '#{DB_HOST}' --out #{collection}_dump"
  end
 类似资料:
  • 我想插入我的json数据到mongo数据库,我导入mongo驱动程序v 3.2.2并创建一个数据库,收集在mlab.com但我不能在数据库这样的文档发送数据。 这是我的代码:

  • 问题内容: 我需要分析mongodb中的集合中有大量数据。如何将这些数据导入熊猫? 我是pandas和numpy的新手。 编辑:mongodb集合包含带有日期和时间标记的传感器值。传感器值是float数据类型。 样本数据: 问题答案: 可能会帮助您,以下是我正在使用的一些代码:

  • 问题内容: 我有一个看起来像这样的数据结构: 我在模型表中有超过500万行,我需要在两个外键表的每一个中插入 约5000万 行。我的文件看起来像这样: 它们每个约为 7 Gb 。问题是,当我这样做时,大约需要 12个小时 才能在AMD Turion64x2 CPU上导入 约400万 行。操作系统是Gentoo〜amd64,PostgreSQL是版本8.4,在本地编译。数据目录是一个绑定安装,位于我

  • 问题内容: 我正在努力将数据从文件导入。 我可以使用在命令行中执行相同的操作。 我进行了很多尝试,但无法使用Java从Json文件导入。 sample.json 谢谢你的时间 〜加内什〜 问题答案: 假设您可以分别读取JSON字符串。例如,您阅读了第一个JSON文本 并将其分配给变量(字符串json1),下一步是解析它, 将所有 dbo 放入列表, 然后将它们保存到数据库中: 编辑: 在最新的Mo

  • 问题内容: 我有以下结构的csv文件: 使用以下MySQL函数如何导入MySQL表的第一和第三列: 我为我的英语道歉! 提前致谢 ! 问题答案: 您可以指定列,并将不需要的列标记为“ @dummy”。 替换,并且只要你喜欢。要设置不在数据文件中的其他列,您可以这样做: 作为进一步的参考,我建议您看一下MySQL参考。

  • 我有一个开发和qa Azure Cosmos数据库,有3或4个集合。我希望能够对数据进行快照并在本地复制,这样我就可以使用Cosmos Db模拟器进行本地开发。我已经看到了数据迁移工具,虽然它确实提到了从模拟器复制,但它没有提到是否可以复制到模拟器。有人知道它或其他工具是否可以从Azure Cosmos Db复制到本地模拟器吗?如果可以,有什么特殊步骤可以做到这一点吗?或者有没有更简单的方法只导出