GPars

Groovy的并行处理框架
授权协议 Apache
开发语言 Groovy
所属分类 程序开发、 并发/并行处理框架
软件类型 开源软件
地区 不详
投 递 者 施超
操作系统 跨平台
开源组织
适用人群 未知
 软件概览

随着并行计算在计算机上的广泛应用(自己用的本本都已经是双核的了),并行计算软件也逐步走向台前,GPars就为我们用Groovy编写并行程序提供了方便。

GPar( Apache 2 License),原名是 GParallelizer 。是为Groovy提供的一款开源并行类库,给我们提供了多种高级抽象,包括:map/reduce、fork/join、asynchronous closures、actors、agents、dataflow concurrency及其它概念。这样用Groovy编写并行程序就方便多了。

  • 具有Speedier Actor的GPars 0.11 GPars 版本0.11已发布,其完整的数据流实现具有选择器,点对点,发布-订阅通道和prioritySelector。 它还具有新的Java API和actor消息传递核心加速功能。 有新的专业操作员和方法可以从多个渠道中选择一个值。 GPars利用Java和Groovy来同时,异步和分布式地处理Java或Groovy任务。 有关更多信息,

  • 我对gpars比较熟悉了,前几天把使用gpars的代码贴了出来(包名等已处理): https://github.com/wushexu/my_gpars

  • 随着并行计算在计算机上的广泛应用(自己用的本本都已经是双核的了),并行计算软件也逐步走向台前,GPars就为我们用Groovy编写并行程序提供了方便。 GPar( Apache 2 License),原名是 GParallelizer 。是为Groovy提供的一款开源并行类库,给我们提供了多种高级抽象,包括:map/reduce、fork/join、asynchronous closures、ac

  • GPars支持actor的灵感来自Scala的Actor类库,但不只这些。 Actor是一种基于消息的并发模型,由相互交换消息且没有可变共享状态的独立活动对象构建而来。Actor能够使开发者避免死锁、或锁或饿死等共享内存典型并发问题,同时还利用到了当今硬件的多核特点。 Actor保证了某一时刻actor体至多只有一个线程处理,每次线程被分配共一个actor时内存已经得到同步。因此在actor体中修

  • Actors的原理在前一篇“Actors概览”中已有所提及。Actors共享了一个线程池,其中的线程是在actors需要react消息时动态分配的。在消息处理完之后,线程会归还至池中,actor则空闲等待更多消息到来。Actors与底层线程分离,使得很小的线程池即支持多至无限的actors。 用actors创建异步服务 actor为非线程安全代码提供线程安全保证 Actor生命周期方法 线程池管理

  • 如果是默认的话就 比如设置3000 ((ThreadPoolExecutor )(((DefaultPool)Actors.defaultActorPGroup.threadPool).executorService)).setMaximumPoolSize(3000);       

  • GPars的SafeVariable(0.8版之前叫做SafeVariable,0.9之后就叫Safe了)类的创作灵感来自Clojure中的Agents,它接收代码(函数)并运行之以修改Agent内部变量。 本质上,agents只允许一个单个agent管理的线程(agent-managed thread)修改其内部状态,从而获得安全性。agent内部的可变变量不能从外部直接访问,相反,需求(处理代

  • 为了易于编写和理解,GPars还提供了一些特殊的Actor。 动态派发Actor DynamicDispatchActor类是一个池管理的actor,是消息处理代码的另一种形式。通常 DynamicDispatchActor会反复扫描消息,并将收到的消息派发给其某个onMessage(message)方法(类似事件处理的写法),或更简单的使用when handler。DynamicDispatch

  • 为了更好的活学活用actors,GPars User Guide提供了一些Actor技巧及经典样例,对于有意使用GPars actor的读者来说,这一部分原文一定要读。 原文参见: [url=http://www.groovyq.net/node/140]GPars(9):Actors技巧及经典样例[/url]

 相关资料
  • 当我使用Spring批处理管理运行长时间运行的批处理作业的多个实例时,它会在达到jobLauncher线程池任务执行程序池大小后阻止其他作业运行。但是从cron中提取多个工作似乎效果不错。下面是作业启动器配置。 Spring批处理管理员Restful API是否使用不同于xml配置中指定的作业启动器?

  • 问题内容: 给出以下代码: 我可以假设’dowork’函数将并行执行吗? 这是实现并行性的正确方法,还是对每个goroutine使用通道并将单独的“ workwork”工人分开更好? 问题答案: 关于GOMAXPROCS,您可以在Go 1.5的发行文档中找到: 默认情况下,Go程序在将GOMAXPROCS设置为可用内核数的情况下运行;在以前的版本中,它默认为1。 关于防止main功能立即退出,您可

  • 问题内容: 什么是在python 2.7中进行并行处理的简单代码?我在网上找到的所有示例都是令人费解的,其中包括不必要的代码。 我如何做一个简单的蛮力整数分解程序,在其中我可以在每个核(4)上分解一个整数?我的真实程序可能只需要2个内核,并且需要共享信息。 我知道并存python和其他库,但是我想将使用的库数保持最少,因此我想使用和/或库,因为它们是python附带的 问题答案: 从python中

  • 只要需要并行的程序逻辑可以划分为不同的职责,并分配给各个独立的step,那么就可以在单个进程中并行执行。并行Step执行很容易配置和使用,例如,将执行步骤(step1,step2)和步骤3step3并行执行,则可以向下面这样配置一个流程: <job id="job1"> <split id="split1" task-executor="taskExecutor" next="step4"

  • 我目前正在构建一个spring批处理应用程序,其中执行了几个步骤。除了一个,所有的步骤都是简单的tasklet(没有读取器或写入器),它们负责各种任务,如复制文件、发送请求、启动批处理(*.bat)文件等。 大多数步骤应该是串行执行的。在一个特定的步骤中,我希望启动X文件,这些文件最多可以有Y个实例。 null 如果:)我想我必须使用taskExecutor,下面我有一个示例,在这里我开始第一步(

  • 假设数组如下所示: 数组中最多可以有100.000个值。 另一方面,如果我这样做: 我得到serialization异常,因为spark正在尝试序列化spark上下文,而spark上下文是不可序列化的。 如何使这个工作,但仍然利用并行性。 这是我得到的咒语:

  • 我正在用s设计异步调用。这是一个批处理调用,在这里我需要同时处理几个实体。在呼叫结束时,我必须收集关于每一个项目的处理状态的信息。 作为输入,我有这些实体的ID数组。这是一个复杂的实体,为了将一个实体编译成一个对象,我必须发出几个DAO调用。每个DAO方法都返回。 我将那些DAO调用链接起来,因为如果其中一个部分不存在,我将无法构造一个完整的对象。下面是我的代码段的样子: 问题是,由于链接的关系,

  • 很多批处理问题都可以通过单进程、单线程的工作模式来完成, 所以在想要做一个复杂设计和实现之前,请审查你是否真的需要那些超级复杂的实现。 衡量实际作业(job)的性能,看看最简单的实现是否能满足需求: 即便是最普通的硬件,也可以在一分钟内读写上百MB数据文件。 当你准备使用并行处理技术来实现批处理作业时,Spring Batch提供一系列选择,本章将对他们进行讲述,虽然某些功能不在本章中涵盖。从高层