当前位置: 首页 > 知识库问答 >
问题:

何时不使用Azure Cosmos DB批量执行器?

冯宏恺
2023-03-14

我是应该考虑在Azure Cosmos DB中使用批量执行器来更新/插入5-10个文档,还是最好使用一个循环来逐个插入文档?

共有1个答案

满自明
2023-03-14

批量操作针对大量文档进行了优化。对于如此低的音量,您可以简单地同时调用它们。

您没有指定您正在使用的语言,但在C#上,您可以简单地将这些5-10个文档创建为列表中的任务并等待它们:

List<Task> operations = new List<Task>();
foreach(MyDocument document in documents)
{
    operations.Add(client.CreateDocumentAsync(....));
}

await Task.WhenAll();

对于V3. NET SDK,我们有一个博客,讨论了批量和非批量:https://devblogs.microsoft.com/cosmosdb/introducing-bulk-support-in-the-net-sdk/

 类似资料:
  • 本文向大家介绍如何执行批量插入?相关面试题,主要包含被问及如何执行批量插入?时的应答技巧和注意事项,需要的朋友参考一下 首先,创建一个简单的 insert 语句:   然后在 java 代码中像下面这样执行批处理插入:

  • 我想比较一个函数的不同实现: 我得到的结果是,第一个度量值总是比第二个慢(

  • 我们什么时候应该使用Spring boot执行器。如果包括在内,它对应用程序内存和CPU使用有多大影响? 我目前正在使用Spring Boot 2. x。

  • 我是spark streaming的新手,我有一个关于其用法的一般性问题。我目前正在实现一个应用程序,它从一个Kafka主题流式传输数据。 使用应用程序只运行一次批处理是一种常见的场景吗,例如,一天结束,收集主题中的所有数据,做一些聚合和转换等等? 这意味着在用spark-submit启动应用程序后,所有这些东西将在一批中执行,然后应用程序将被关闭。或者spark stream build是为了在

  • 问题内容: 我正在使用MongoDB 3.2和MongoDB Java驱动程序3.2。我有一个包含数百个更新文档的数组,这些文档现在应该保存/存储在MongoDB中。为了做到这一点,我遍历数组,并为该数组中的每个文档调用方法。 现在,我想通过批量更新重新实现此逻辑。我尝试在使用MongoDB Java驱动程序3.2的MongoDB 3.2中找到批量更新的示例。 我尝试了这段代码: 但是,似乎这种方

  • 我想用Django更新一个表-类似这样的原始SQL: 我的第一个结果是这样的——但这很恶心,不是吗? 有没有更优雅的方式?