当前位置: 首页 > 软件库 > 神经网络/人工智能 > >

DeepLearning.scala

DSL 创建的深度神经网络
授权协议 Apache
开发语言 Scala
所属分类 神经网络/人工智能
软件类型 开源软件
地区 不详
投 递 者 颛孙沈义
操作系统 跨平台
开源组织
适用人群 未知
 软件概览

DeepLearning.scala 是一个 DSL 创建的深度神经网络,Scala 语言编写。利用 DeepLearning.scala,普通程序员能够从简单的代码构建复杂的神经网络。 你可以像往常一样编写代码,唯一的区别是基于 DeepLearning.scala 的代码是可区分的,这使得这样的代码可以通过不断修改参数来改善。

特性

可区分的基础类型

像 Theano 和其他深度学习工具包一样,DeepLearning.scala 允许从数学公式构建神经网络。 它支持浮点数双精度GPU 加速的 N 维数组,并计算公式中权重的导数。

可区分的 ADT

Deep Learning.scala 创建的神经网络支持 ADT 数据结构(例如 HList 和 Coproduct),并通过这些数据结构计算导数。

可区分控制流

由 DeepLearning.scala 创建的神经网络可能包含像常规语言中的 if / else / match / case 这样的控制流。 结合 ADT 数据结构,您可以在神经网络中实现任意算法,并且仍然保留在算法中使用的一些变量可区分和可训练。

可组合性

DeepLearning.scala 创建的神经网络是可组合的。 您可以通过组合较小的网络来创建大型网络。 如果两个较大的网络共享一些子网络,则用一个网络训练的共享子网络中的权重影响另一个网络。

静态类型系统

所有上述功能都是静态类型检查。

配置:

{
  "sudo": false,
  "addons": {
    "apt": {
      "packages": [
        "graphviz"
      ]
    }
  },
  "language": "scala",
  "jdk": "oraclejdk8",
  "before_cache": [
    "find $HOME/.sbt -name '*.lock' -delete",
    "find $HOME/.ivy2 -name 'ivydata-*.properties' -delete"
  ],
  "cache": {
    "directories": [
      "$HOME/.ivy2/cache",
      "$HOME/.sbt/boot/"
    ]
  },
  "script": [
    "sbt +test"
  ],
  "before_deploy": null,
  "group": "stable",
  "dist": "precise",
  "os": "linux"
}
  •          小编近来要做用户推荐相关的一些工作,根据调研,目前用于搜索、推荐等的算法以阿里妈妈、美团等团队的DIN等算法为主,因此需要祭出神经网络这样的武器,但奈何公司的大数据基础建设仍有待提高,直接使用高维度的item变量及用户变量进行模型开发可能会面临一定的工程难度,因此考虑使用循环神经网络的方法,将用户的点击页、浏览页作为一个个词,并用来评估用户下一步对产品、活动的兴趣点,而且LSTM

  • 在deeplearning4j下训练word2vec模型还是比较简单的,先看下依赖情况: <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> <nd4j.version>0.7.1</nd4j.version> <dl4j.version>0.7.1</dl4j.version>

  • 这篇文档给予了scala语言及其编译器的快速介绍。假设阅读者具有面向对象编程,尤其是在java上的经验。 使用hello world作为第一个例子 object HelloWorld {   def main(args: Array[String]) {     println("Hello, world!")   } } Java程序员应该熟悉这个程序的结构:它包含一个名为main的方法,它接受

  • The choice of programming language for different machine learning task (both for academic purposes and industry purposes) are made to achieve optimization of the algorithm in terms of execution speed.

  •   http://deeplearning.stanford.edu/wiki/index.php/UFLDL教程

  • http://www.2cto.com/kf/201501/373173.html

  • code: package com.aura.scala.day01 object forComprehensions { def main(args: Array[String]): Unit = { val userBase = List(User("pan1", 29), User("pan2", 30), User("pan3", 23), User("pan5", 32))

  • 参考: 1.http://blog.csdn.net/zhoubl668/article/details/24800611 2.http://www.cnblogs.com/tornadomeet/archive/2013/03/20/2970724.html 3.http://www.cnblogs.com/tornadomeet/archive/2013/03/19/2970101.html

  • class Point(xc: Int, yc: Int) { var x: Int = xc var y: Int = yc def move(dx: Int, dy: Int) { x = x + dx y = y + dy } override def toString(): String = "(" + x + ", " + y + ")"; } 以上定

  • 环境准备 已经装好的Anaconda,创建一个环境,用于学习和练习 # find the python version installed python --version # create new env named "pytorch" conda create -n pytorch python=3.8.8 # To activate this environment, use conda a

 相关资料
  • LeNet 5 LeNet-5是第一个成功的卷积神经网络,共有7层,不包含输入,每层都包含可训练参数(连接权重)。 AlexNet tf AlexNet可以认为是增强版的LeNet5,共8层,其中前5层convolutional,后面3层是full-connected。 GooLeNet (Inception v2) GoogLeNet用了很多相同的层,共22层,并将全连接层变为稀疏链接层。 In

  • 代码见nn_overfit.py 优化 Regularization 在前面实现的RELU连接的两层神经网络中,加Regularization进行约束,采用加l2 norm的方法,进行负反馈: 代码实现上,只需要对tf_sgd_relu_nn中train_loss做修改即可: 可以用tf.nn.l2_loss(t)对一个Tensor对象求l2 norm 需要对我们使用的各个W都做这样的计算(参考t

  • 本章到目前为止介绍的循环神经网络只有一个单向的隐藏层,在深度学习应用里,我们通常会用到含有多个隐藏层的循环神经网络,也称作深度循环神经网络。图6.11演示了一个有$L$个隐藏层的深度循环神经网络,每个隐藏状态不断传递至当前层的下一时间步和当前时间步的下一层。 具体来说,在时间步$t$里,设小批量输入$\boldsymbol{X}_t \in \mathbb{R}^{n \times d}$(样本数

  • 在LeNet提出后的将近20年里,神经网络一度被其他机器学习方法超越,如支持向量机。虽然LeNet可以在早期的小数据集上取得好的成绩,但是在更大的真实数据集上的表现并不尽如人意。一方面,神经网络计算复杂。虽然20世纪90年代也有过一些针对神经网络的加速硬件,但并没有像之后GPU那样大量普及。因此,训练一个多通道、多层和有大量参数的卷积神经网络在当年很难完成。另一方面,当年研究者还没有大量深入研究参

  • 深度神经网络(DNN)是在输入和输出层之间具有多个隐藏层的ANN。 与浅层神经网络类似,DNN可以模拟复杂的非线性关系。 神经网络的主要目的是接收一组输入,对它们执行逐步复杂的计算,并提供输出以解决诸如分类之类的现实世界问题。 我们限制自己前馈神经网络。 我们在深层网络中有输入,输出和顺序数据流。 神经网络广泛用于监督学习和强化学习问题。 这些网络基于彼此连接的一组层。 在深度学习中,隐藏层的数量

  • 神经网络和深度学习是一本免费的在线书。本书会教会你: 神经网络,一种美妙的受生物学启发的编程范式,可以让计算机从观测数据中进行学习 深度学习,一个强有力的用于神经网络学习的众多技术的集合 神经网络和深度学习目前给出了在图像识别、语音识别和自然语言处理领域中很多问题的最好解决方案。本书将会教你在神经网络和深度学习背后的众多核心概念。 想了解本书选择的观点的更多细节,请看这里。或者直接跳到第一章 开始

  •     想到正则化,我们首先想到的就是L1正则化和L2正则化。L1正则化和L2正则化原理类似,这里重点讲述DNN的L2正则化。     而DNN的L2正则化通常的做法是只针对与线性系数矩阵W,而不针对偏倚系数b。利用我们之前的机器学习的知识,我们很容易可以写出DNN的L2正则化的损失函数。     假如我们的每个样本的损失函数是均方差损失函数,则所有的m个样本的损失函数为:$$J(W,b) = f

  • 第 10 章介绍了人工神经网络,并训练了第一个深度神经网络。 但它非常浅,只有两个隐藏层。 如果你需要解决非常复杂的问题,例如检测高分辨率图像中的数百种类型的对象,该怎么办? 你可能需要训练更深的 DNN,也许有 10 层或更多,每层包含数百个神经元,通过数十万个连接相连。 这可不像公园散步那么简单,可能碰到下面这些问题: 你将面临棘手的梯度消失问题(或相关的梯度爆炸问题):在反向传播过程中,梯度