你拿起这本书的时候,可能已经知道深度学习近年来在人工智能领域所取得的非凡进展。在图像识别和语音转录的任务上,五年前的模型还几乎无法使用,如今的模型的表现已经超越了人类。
机器学习是一门研究如何使用计算机模拟人类行为,以获取新的知识与技能的学科。它是人工智能的核心,同时也是处理大数据的关键技术之一。机器学习的主要目标是自动地从数据中发现价值的模式,亦即将原始信息自动转换为人们可以加以利用的知识。
官方资源 本文档就是最好的入门学习资源,其它一些有用的资源如下: Cocos官网 中文社区 引擎官方测试项目 测试项目的编译和运行在 环境搭建章节 介绍 网络资源 zilongshanren.com/categories/Cocos2d-x/ learnopengl-cn.github.io/ github.com/fusijie/Cocos-Resource
书籍 RxSwift - By Raywenderlich 视频 Learning Path: RxSwift from Start to Finish - By Realm 团队 RxSwift in Practice - By Raywenderlich Reactive Programming with RxSwift - By RxSwift 图书的核心作者 Boxue.io RxSwif
Observer 和 迭代器(Iterator) / 枚举器(Enumerator)/ 生成器(Generator) / 序列(sequences) 之间的二元性 observer 和生成器模式之间存在二元性。这正是使我们从异步回调世界到同步的序列世界的转换。 简而言之,枚举器和观察者模式两者都描述序列。这相当明显为什幺枚举器定义一个序列,但是观察者稍微更复杂些。 然而,这有一个非常简单不需要大量
该章节函数包括三角函数及 π 值获取的函数等。 6.1 acos 函数 函数作用:计算反余弦(余弦的倒数)函数。 返回以弧度为单位的数字,例如 0 到 π 之间的数字。 参数:number 从[-1,1]间隔开始的浮点数。 返回值: number 语法: acos(number) => value 输入代码 .animation { rotate: acos(0.540302305868139
数学函数简介 数学函数主要用于数组的处理,比如数字的取整四舍五入、三角函数等数学运算。 5.1 ceil 函数 函数作用:取整,将浮点数向下舍入到下一个整数。 参数: number 浮点数。 返回值: 整数。 语法: ceil(number) => value 输入代码 .ceil { rows: ceil(2.3); } 输出代码 .ceil { rows: 3; } 5.2 flo
1. 数学函数 在数学中我们用过sin和ln这样的函数,例如sin(π/2)=1,ln1=0等等,在C语言中也可以使用这些函数(ln函数在C标准库中叫做log): 例 3.1. 在C语言中使用数学函数 #include <math.h> #include <stdio.h> int main(void) { double pi = 3.1416; printf("sin(pi/2)=%f\n
在数学领域,你可能会看到sin和log这样的函数,也学过对sin(π/2)和log(1/x)这样的表达式求值。首先,要求出括号中表达式的值,这个值称为函数的参数。比如π/2约为1.571,若x为10则1/x的值为0.1。 然后你就可以通过查表或执行各种计算来求函数本身的值了。1.571的正弦是1,0.1的对数是-1(假设log函数是求以10为底的对数)。 对于求类似log(1/sin(π/2))这
坐标系统 向量 Vector2f Vector3f 矩阵 Matrix3f Matrix4f 四元数 Quaternion 颜色
校验者: @XuJianzhi @RyanZhiNie @羊三 翻译者: @XuJianzhi @羊三 Look for the bare necessitiesThe simple bare necessitiesForget about your worries and your strifeI mean the bare necessitiesOld Mother Nature’s reci
1.1. 广义线性模型 1.1.1. 普通最小二乘法 1.1.1.1. 普通最小二乘法复杂度 1.1.2. 岭回归 1.1.2.1. 岭回归的复杂度 1.1.2.2. 设置正则化参数:广义交叉验证 1.1.3. Lasso 1.1.3.1. 设置正则化参数 1.1.3.1.1. 使用交叉验证 1.1.3.1.2. 基于信息标准的模型选择 1.1.3.1.3. 与 SVM 的正则化参数的比较 1.1
探索和利用。马尔科夫决策过程。Q 学习,策略学习和深度强化学习。 我刚刚吃了一些巧克力来完成最后这部分。 在监督学习中,训练数据带有来自神一般的“监督者”的答案。如果生活可以这样,该多好! 在强化学习(RL)中,没有这种答案,但是你的强化学习智能体仍然可以决定如何执行它的任务。在缺少现有训练数据的情况下,智能体从经验中学习。在它尝试任务的时候,它通过尝试和错误收集训练样本(这个动作非常好,或者非常
监督学习的两大任务:回归和分类。线性回归,损失函数和梯度下降。 通过在数字广告上花费更多的钱,我们能挣多少钱?这个贷款的申请人是否能偿还贷款?股市明天会发生什么? 在监督学习的问题中,我们以一个数据集开始,它包含训练样本,每个样本带有关联的正确标签。例如,学习分类手写数字的时候,监督学习算法接受数千张手写体数字的图片,以及标签,它们包含每个图片表示的正确数字。算法会学习图像和关联的数值的关系。之后
Viewer 类学习 — 一切API的入口 • Camera类学习 — 想去哪里去哪里( Cartesian3和Cartographic) • ImageryLayer类学习 — 地球原来如此多姿( ImageryProvider类) • TerrainProvider类学习 – 这才是“真”三维( sampleTerrain) • EntityAPI – 与地球交互起来( DataSource,