Dopamine

基于 Tensorflow 的强化学习框架
授权协议 Apache-2.0
开发语言 Python
所属分类 神经网络/人工智能、 机器学习/深度学习
软件类型 开源软件
地区 不详
投 递 者 魏宏邈
操作系统 跨平台
开源组织 Google
适用人群 未知
 软件概览

Dopamine 是由 Google AI 实验室推出的一个基于 Tensorflow 的强化学习(RL)框架,旨在为新手和资深 RL 研究人员提供灵活性、稳定性和可重复性。该框架受大脑中的奖励动机行为启发,反映了神经科学与强化学习研究之间的强历史联系,旨在实现可以推动激进发现的投机性研究。

Dopamine 遵循以下设计原则:

  • 简单的实验:让新用户轻松运行基准实验。

  • 灵活的开发:让新用户轻松尝试研究创意。

  • 紧凑而可靠:为少数经过实战考验的算法提供实施方案。

  • 可重复性:促进结果的可重复性。

  • 多巴胺PEG多巴胺,Dopamine-PEG-Dopamine 基本信息: 产品名称:多巴胺聚乙二醇多巴胺,双多巴胺聚乙二醇(Dopamine-PEG-Dopamine) 中文别名:多巴胺PEG多巴胺,双多巴胺聚乙二醇 英文名称:Dopamine-PEG-Dopamine CAS:- 分子量:400、500、600、800、1K、2K、3.4K、4K、5K、6K、8K、10K、20K 纯度:95%

  • 多巴胺聚乙二醇羧基 Dopamine-PEG-COOH 英文同义词:Carboxylic acid (polyethylene glycol) Dopamine、Acid PEG Dopamine、 Dopamine PEG Acid 、Dopamine-PEG-COOH、COOH-PEG-Dopamine 中文同义词:羧基聚乙二醇多巴胺、多巴胺聚乙二醇羧基、羧基PEG多巴胺、多巴胺PEG羧基 该

  • 名称:多巴胺-聚乙二醇-cRGD穿膜肽,多巴胺-聚乙二醇-crgd细胞穿膜肽 英文名称:Dopamine-PEG-cRGD,DOPA-PEG-cRGD 规格:50mg,100mg,150mg(根据要求可定制) 描述: cRGD多肽序列: cyclo(RGDfK) 外 观 : 半固体或固体,取决于分子量。 溶解性:有机溶剂等 PEG分子量:2000、3400、5000、10000 双多巴胺聚乙二醇(

 相关资料
  • 我正在读一本书,Glenn Seemann和David M Bourg的“游戏开发人员的AI”,他们使用视频游戏AI作为基于规则的学习系统的示例。 基本上,玩家有3个可能的移动,并以三次打击的组合命中。人工智能旨在预测玩家的第三次打击。系统的规则是所有可能的三步组合。每个规则都有一个关联的“权重”。每次系统猜错,规则的权重就会降低。当系统必须选择规则时,它会选择权重最高的规则。 这与基于强化学习的

  • 主要内容 课程列表 基础知识 专项课程学习 参考书籍 论文专区 课程列表 课程 机构 参考书 Notes等其他资料 MDP和RL介绍8 9 10 11 Berkeley 暂无 链接 MDP简介 暂无 Shaping and policy search in Reinforcement learning 链接 强化学习 UCL An Introduction to Reinforcement Lea

  • 强化学习(Reinforcement Learning)的输入数据作为对模型的反馈,强调如何基于环境而行动,以取得最大化的预期利益。与监督式学习之间的区别在于,它并不需要出现正确的输入/输出对,也不需要精确校正次优化的行为。强化学习更加专注于在线规划,需要在探索(在未知的领域)和遵从(现有知识)之间找到平衡。 Deep Q Learning.

  • 有关TensorFlow与其他框架的详细对比可以阅读: https://zhuanlan.zhihu.com/p/25547838   01 TensorFlow的编程模式 编程模式分为两种:命令式编程与符号式编程 前者是我们常用的C++,java等语言的编程风格如下 命令式编程看起来逻辑非常清晰,易于理解。而符号式编程涉及较多的嵌入和优化,如下 执行相同的计算时c,d可以共用内存,使用Tenso

  • 本文向大家介绍关于机器学习中的强化学习,什么是Q学习?,包括了关于机器学习中的强化学习,什么是Q学习?的使用技巧和注意事项,需要的朋友参考一下 Q学习是一种强化学习算法,其中包含一个“代理”,它采取达到最佳解决方案所需的行动。 强化学习是“半监督”机器学习算法的一部分。将输入数据集提供给强化学习算法时,它会从此类数据集学习,否则会从其经验和环境中学习。 当“强化代理人”执行某项操作时,将根据其是否

  • 探索和利用。马尔科夫决策过程。Q 学习,策略学习和深度强化学习。 我刚刚吃了一些巧克力来完成最后这部分。 在监督学习中,训练数据带有来自神一般的“监督者”的答案。如果生活可以这样,该多好! 在强化学习(RL)中,没有这种答案,但是你的强化学习智能体仍然可以决定如何执行它的任务。在缺少现有训练数据的情况下,智能体从经验中学习。在它尝试任务的时候,它通过尝试和错误收集训练样本(这个动作非常好,或者非常

  • 这就是Keras Keras是一个高层神经网络库,Keras由纯Python编写而成并基Tensorflow或Theano。Keras 为支持快速实验而生,能够把你的idea迅速转换为结果,如果你有如下需求,请选择Keras: 简易和快速的原型设计(keras具有高度模块化,极简,和可扩充特性) 支持CNN和RNN,或二者的结合 支持任意的链接方案(包括多输入和多输出训练) 无缝CPU和GPU切换

  • 强化学习(RL)如今是机器学习的一大令人激动的领域,也是最老的领域之一。自从 1950 年被发明出来后,它被用于一些有趣的应用,尤其是在游戏(例如 TD-Gammon,一个西洋双陆棋程序)和机器控制领域,但是从未弄出什么大新闻。直到 2013 年一个革命性的发展:来自英国的研究者发起了 Deepmind 项目,这个项目可以学习去玩任何从头开始的 Atari 游戏,在多数游戏中,比人类玩的还好,它仅