当前位置: 首页 > 面试题库 >

哪个noSQL数据库最适合大批量插入/写入?

齐承泽
2023-03-14
问题内容

哪种nosql系统更适合开箱即用地处理大量插入?最好在1台物理机上运行(允许许多实例)。

有没有人做过基准测试?(谷歌搜索没有帮助)

注意 :我了解选择noSQL数据库取决于需要存储的数据类型(文档:MongoDB,图:Neo4j等)。


问题答案:

Apache
Cassandra
的独特持久性模型使其在写操作方面表现出色。有人声称它的写入速度比读取速度快20倍,但我认为它确实取决于您的使用情况。

在其常见问题解答和各种
博客
文章中阅读有关它的内容。

也就是说,当然,如果您具有大量数据的“经典”数据库概要文件。如果您的数据很小,或者被临时使用和/或用作缓存层,那么当然应该选择Redis,因为它基于内存(最终具有磁盘持久性),因此无论是读取还是写入都具有最快的吞吐量。



 类似资料:
  • 我创建了一个向MySql数据库插入数百万个值的程序。我读到过有关批插入的文章,它将优化我的程序并使其更快,但当我尝试这样做时,它以同样的方式工作。我没有将每个值插入数据库,而是每次将500个值保存在一个列表中,然后将它们插入一个大循环中,如下所示: 然后我删除列表中的所有值,并再次开始收集500个值。它不应该工作得更好吗? 我的插入代码是: 我有一些问题: 1。为什么当我批量插入时它不能更快地工作

  • 本文向大家介绍初识NoSQL NoSql数据库入门 NoSql数据库基础知识,包括了初识NoSQL NoSql数据库入门 NoSql数据库基础知识的使用技巧和注意事项,需要的朋友参考一下 做了一年的大一年度项目了,对于关系型数据库结构还是有些了解了,有的时候还是觉得这种二维表不是很顺手。在看过一篇文章之后,对NoSQL有了初步的了解,(https://keen.io/blog/5395834921

  • dolphindb 目前使用的 是 pool = ddb.DBConnectionPool("0.0.0.0", 8903, 20, "admin", "123456") appender = ddb.PartitionedTableAppender("dfs://dd", "dd", "instrument_id", pool) 多线程 线程池写入 问题是: 批量写入有重复 怎么去除重复呢 写入

  • 问题内容: 我读到这里:使用Python将CSV文件导入sqlite3数据库表 似乎每个人都建议使用逐行读取,而不是使用SQLite的bulk .import。但是,如果您有数百万行的数据,这将使插入速度非常慢。还有其他方法可以避免这种情况吗? 更新:我尝试下面的代码逐行插入,但是速度不如我预期的那样。反正有改进的地方吗 问题答案: 使用生成器表达式将您的数据即时划分为多个块,在事务内进行插入。这

  • 问题内容: 在我的代码中,用户可以上传一个excel文档,希望其中包含电话联系人列表。作为开发人员,我应阅读excel文件,将其转换为dataTable并将其插入数据库。问题是某些客户拥有大量的联系人,例如说5000个和更多的联系人,而当我尝试将这种数据量插入数据库时​​,它崩溃了,并给了我一个超时异常。避免这种异常的最佳方法是什么?它们的任何代码都可以减少insert语句的时间,从而使用户不必等

  • 我有大约400K的数据,也许更多(以sql格式),并将它插入到mysql数据库。哪一个性能更好,在sql文件中写sql命令插入数据: > 对每个数据重复此命令,直到400k 在表(col1、col2、coln)中插入值(val1、val2、valn)、(val1、val2、valn)、(val1、val2、valn)、.....[直到100个数据] 在表(col1,col2,coln)中插入值(v