当前位置: 首页 > 面试题库 >

CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性?

仲孙焱
2023-03-14
本文向大家介绍CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性? 相关面试题,主要包含被问及CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性? 时的应答技巧和注意事项,需要的朋友参考一下

 

答:以上几个不相关的问题的相关性在于,都是存在局部与整体的关系,由低层次的特征经过组合,组成高层次的特征,并且得到不同特征之间的空间相关性

CNN抓住共性的手段有四个:局部连接、权值共享、池化操作、多层次结构

局部连接:使网络可以提取数据的局部特征;

权值共享:大大降低了网络的训练难度,一个filter只提取一个特征,在整个图片(或者语音、文本)中进行卷积;

池化操作:与多层次结构一起,实现了数据的降维,将低层次的局部特征组合为较高层次的特征,从而对整个图片进行表示

 

 

 类似资料:
  • 本文向大家介绍CNN为什么可以应用在CV、NLP、SPEECH乃至ALPHA GO中?相关面试题,主要包含被问及CNN为什么可以应用在CV、NLP、SPEECH乃至ALPHA GO中?时的应答技巧和注意事项,需要的朋友参考一下 以上几个不相关问题的相关性在于,都存在局部与整体的关系,由低层次的特征经过组合,组成高层次的特征,并且得到不同特征之间的空间相关性。如下图:低层次的直线/曲线等特征,组合成

  • 本文向大家介绍什么是CNN的池化相关面试题,主要包含被问及什么是CNN的池化时的应答技巧和注意事项,需要的朋友参考一下 池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n) 上图所展示的是取区域最大,即上图左边部分中 左上角2x2的矩阵中6最大,右上角2x2的矩阵中8最大,左下角2x2的矩阵中3最大,右下角2x2的矩阵中4最大,所以得到上图右边部分的结果:6 8 3 4。

  • 对于这样一个陈词滥调的问题我很抱歉,但我真的不知道为什么我的CNN没有进步。 我正在训练一个美国有线电视新闻网的SVHN数据集(一位数)与32x32的图像。 对于预处理,我将RGB转换为灰度,并通过标准化对所有像素数据进行规格化。因此,数据范围变为(-1,1)。为了验证我的和是否正确对应,我从中随机选取了一个图像,并从中选取了一个具有相同索引的标签,这表明它们是正确的。 以下是我的代码(Keras

  • 本文向大家介绍什么是CNN的池化pool层?相关面试题,主要包含被问及什么是CNN的池化pool层?时的应答技巧和注意事项,需要的朋友参考一下 池化指的是在区域内取平均或者最大

  • 我试图在调试日志下面发出一个REST post调用。我尝试了不同的方法-信任许多不同风格的所有证书,将证书上载到java cacerts(JVM在加载时将证书显示为受信任的),但我仍然会变成failure_shake错误。下面的代码是否为您提供了有关问题的任何提示?使用Java8。

  • 我正在运行一个模型来检测图像中一些有趣的特征。我有一组600x200像素的图像。这些图像具有我想识别的岩石碎片等特征。想象一个(4x12)网格覆盖在图像上,我可以使用注释器工具手动生成注释,例如((4,9),(3,10),(3,11),(3,12)),以识别图像中感兴趣的单元格。我可以用Keras建立CNN模型,输入为灰度图像。但我应该如何对输出进行编码。在我看来,一种直观的方法是将其视为形状的稀