之前做的一些项目中涉及到feature map 可视化的问题,一个层中feature map的数量往往就是当前层out_channels的值,我们可以通过以下代码可视化自己网络中某层的feature map,个人感觉可视化feature map对调参还是很有用的。
不多说了,直接看代码:
import torch from torch.autograd import Variable import torch.nn as nn import pickle from sys import path path.append('/residual model path') import residual_model from residual_model import Residual_Model model = Residual_Model() model.load_state_dict(torch.load('./model.pkl')) class myNet(nn.Module): def __init__(self,pretrained_model,layers): super(myNet,self).__init__() self.net1 = nn.Sequential(*list(pretrained_model.children())[:layers[0]]) self.net2 = nn.Sequential(*list(pretrained_model.children())[:layers[1]]) self.net3 = nn.Sequential(*list(pretrained_model.children())[:layers[2]]) def forward(self,x): out1 = self.net1(x) out2 = self.net(out1) out3 = self.net(out2) return out1,out2,out3 def get_features(pretrained_model, x, layers = [3, 4, 9]): ## get_features 其实很简单 ''' 1.首先import model 2.将weights load 进model 3.熟悉model的每一层的位置,提前知道要输出feature map的网络层是处于网络的那一层 4.直接将test_x输入网络,*list(model.chidren())是用来提取网络的每一层的结构的。net1 = nn.Sequential(*list(pretrained_model.children())[:layers[0]]) ,就是第三层前的所有层。 ''' net1 = nn.Sequential(*list(pretrained_model.children())[:layers[0]]) # print net1 out1 = net1(x) net2 = nn.Sequential(*list(pretrained_model.children())[layers[0]:layers[1]]) # print net2 out2 = net2(out1) #net3 = nn.Sequential(*list(pretrained_model.children())[layers[1]:layers[2]]) #out3 = net3(out2) return out1, out2 with open('test.pickle','rb') as f: data = pickle.load(f) x = data['test_mains'][0] x = Variable(torch.from_numpy(x)).view(1,1,128,1) ## test_x必须为Varibable #x = Variable(torch.randn(1,1,128,1)) if torch.cuda.is_available(): x = x.cuda() # 如果模型的训练是用cuda加速的话,输入的变量也必须是cuda加速的,两个必须是对应的,网络的参数weight都是用cuda加速的,不然会报错 model = model.cuda() output1,output2 = get_features(model,x)## model是训练好的model,前面已经import 进来了Residual model print('output1.shape:',output1.shape) print('output2.shape:',output2.shape) #print('output3.shape:',output3.shape) output_1 = torch.squeeze(output2,dim = 0) output_1_arr = output_1.data.cpu().numpy() # 得到的cuda加速的输出不能直接转变成numpy格式的,当时根据报错的信息首先将变量转换为cpu的,然后转换为numpy的格式 output_1_arr = output_1_arr.reshape([output_1_arr.shape[0],output_1_arr.shape[1]])
以上这篇pytorch 可视化feature map的示例代码就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持小牛知识库。
在本章中,我们将在Convents的帮助下专注于数据可视化模型。需要以下步骤才能使用传统的神经网络获得完美的可视化图像。 第1步 导入必要的模块,这对于传统神经网络的可视化非常重要。 第2步 要通过训练和测试数据来停止潜在的随机性,请调用以下代码中给出的相应数据集 - 第3步 使用以下代码绘制必要的图像,以完美的方式定义训练和测试数据 - 输出显示如下 -
我正在寻找使用谷歌表作为源数据的示例代码,并使用谷歌可视化制作了一个相当简单的折线图。 我注意到新的谷歌表没有在“共享图表”功能中包含脚本,它们提供了IFRAME,宽度/高度也不起作用。所以,我希望用谷歌可视化来做这件事。 谢谢你的帮助。 编辑... 这是我的电子表格。 这是我的HTML文件。 它不画。我尝试了电子表格中的各种选择,比如避免列A,不去。我做错了什么?
上一节,我们看到了一个完整的 Kibana 插件的官方用例。一般来说,我们不太会需要自己从头到尾写一个 angular app 出来。最常见的情况,应该是在 Kibana 功能的基础上做一定的二次开发和扩展。其中,可视化效果应该是重中之重。本节,以一个红绿灯效果,演示如何开发一个 Kibana 可视化插件。 插件目录生成 Kibana 开发组提供了一个简单的工具,辅助我们生成一个 Kibana 插
本文向大家介绍vue实现可视化可拖放的自定义表单的示例代码,包括了vue实现可视化可拖放的自定义表单的示例代码的使用技巧和注意事项,需要的朋友参考一下 实现如例子所示的可视化可拖放表单功能。整个页面,分为左中右三栏布局,左栏的部件库的部件(组件)作为key,拖放到中间区域时,往vuex存放数组数据,拖一个就push一个。点击某个组件时,在右栏显示其属性,其实也就是在vuex存放的数据中查找数据迭代
问题内容: 我想从pytorch模型中形象化。我该怎么做?我尝试使用,但出现错误: 问题答案: 需要一个变量(即带有的张量),而不是模型本身。 尝试:
问题内容: 我是使用sciki-learn的菜鸟,所以请多多包涵。 我正在查看示例:http : //scikit-learn.org/stable/modules/tree.html#tree from sklearn.datasets import load_iris from sklearn import tree iris = load_iris() clf = tree.Decision