学习如何将 Materialize 快速应用到你的网站中。 下载 Materialize 来源于两种不同的形式。你可以根据自己的喜好与经验来选择你喜欢的版本。 一开始使用 Materialize,你必须从下面选择一个去下载。 Materialize 这是标准版本,包含压缩过的和没有压缩过的 css 和 javascript 文件。 选择这个不需要任何设置,只要引入文件。如果你不熟悉 Sass 就选
主要内容 课程列表 专项课程学习 辅助课程 论文专区 课程列表 课程 机构 参考书 Notes等其他资料 卷积神经网络视觉识别 Stanford 暂无 链接 神经网络 Tweet 暂无 链接 深度学习用于自然语言处理 Stanford 暂无 链接 自然语言处理 Speech and Language Processing 链接 专项课程学习 下述的课程都是公认的最好的在线学习资料,侧重点不同,但推
主要内容 课程列表 基础知识 专项课程学习 参考书籍 论文专区 课程列表 课程 机构 参考书 Notes等其他资料 MDP和RL介绍8 9 10 11 Berkeley 暂无 链接 MDP简介 暂无 Shaping and policy search in Reinforcement learning 链接 强化学习 UCL An Introduction to Reinforcement Lea
除了agent和环境之外,强化学习的要素还包括策略(Policy)、奖励(reward signal)、值函数(value function)、环境模型(model),下面对这几种要素进行说明: 策略(Policy) ,策略就是一个从当环境状态到行为的映射; 奖励(reward signal) ,奖励是agent执行一次行为获得的反馈,强化学习系统的目标是最大化累积的奖励,在不同状态下执行同一个行
从下图,我们可以对集成学习的思想做一个概括。对于训练集数据,我们通过训练若干个个体学习器,通过一定的结合策略,就可以最终形成一个强学习器,以达到博采众长的目的。 也就是说,集成学习有两个主要的问题需要解决,第一是如何得到若干个个体学习器,第二是如何选择一种结合策略,将这些个体学习器集合成一个强学习器。 2. 集成学习之个体学习器 上一节我们讲到,集成学习的第一个问题就是如何得到若干个个体学习器。这
学习资源 有很多社区资源可以帮助你开发应用。如果你对Meteor感兴趣,希望你能参与其中! 教程 快速开始Meteor 官方教程! Stack Overflow 对于技术问题,提问、寻找答案最好的去处就是 Stack Overflow. 确保给你的问题添加 meteor 标签。 论坛 访问 Meteor discussion forums宣布项目,寻求帮助,讨论社区或是讨论核心模块的变动。 Git
集成学习基本问题 集成学习的核心是将多个 集成学习的基本思想 结合多个学习器组合成一个性能更好的学习器 集成学习为什么有效? 不同的模型通常会在测试集上产生不同的误差;如果成员的误差是独立的,集成模型将显著地比其成员表现更好。 集成学习的基本策略 Boosting 方法 基于串行策略:基学习器之间存在依赖关系,新的学习器需要根据上一个学习器生成。 基本思路: 先从初始训练集训练一个基学习器;初始训
学习资源 Deep learning book Deep learning resources 以及 tutorial cs231n cs224d Papers Moning Paper colah’s blog kdnuggets MachineLearning-Handbook arXiv arXiv Sanity Neural Networks and Deep Learning UFLDL
Google Cloud Platform 推出了一个 Learn TensorFlow and deep learning, without a Ph.D. 的教程,介绍了如何基于 Tensorflow 实现 CNN 和 RNN,链接在 这里。 Youtube Slide1 Slide2 Sample Code
集成学习(ensemble learning)的主要思想是利用一定的手段学习出多个分类器,然后将多个分类器进行组合预测。核心思想就是如何训练处多个弱分类器以及如何将这些弱分类器进行组合。若集成中只包含同种类型的个体学习器,则这样的集成是“同质”的,其个体学习器称为“基学习器”。若包含的是不同类型的个体学习器,则称为“异质”,其基学习器称为“组件学习器”。 集成学习通过将多个学习器进行结合,常可获得
迁移学习(Transfer learning)顾名思义就是就是把已学训练好的模型参数迁移到新的模型来帮助新模型训练数据集。 经典论文: Progressive Neural Networks
强化学习(Reinforcement Learning)的输入数据作为对模型的反馈,强调如何基于环境而行动,以取得最大化的预期利益。与监督式学习之间的区别在于,它并不需要出现正确的输入/输出对,也不需要精确校正次优化的行为。强化学习更加专注于在线规划,需要在探索(在未知的领域)和遵从(现有知识)之间找到平衡。 Deep Q Learning.
监督学习的目标是建立一个学习过程,将预测结果与“训练数据”(即输入数据)的实际结果进行比较,不断的调整预测模型,直到模型的预测结果达到一个预期的准确率,包括分类、回归等问题。而常用算法包括线性回归、决策树、贝叶斯分类、最小二乘回归、逻辑回归、支持向量机、神经网络等。 监督学习的整个训练流程如下图所示
版本选择 VERSION RT-Thread 完整版 RT-Thread是一个嵌入式实时多线程操作系统,系统完全开源,它不仅仅是一个实时内核,还具备丰富的中间层组件,包括如文件系统、图形库等较为完整的中间件组件,具备低功耗、安全、通信协议支持和云端连接能力的软件平台,RT-Thread 就是一个 IoT OS。更多... 适用于需要使用RT-Thread的丰富功能,如各类外设、物联网组件、软件包等
Directed learning This section focuses on directed learning via schools, courses, programs and bootcamps.