下面是调用模型进行批量测试的代码(出现溢出),开始以为导致溢出的原因是数据读入方式问题引起的,用了tf , PIL和cv等方式读入图片数据,发现越来越慢,内存占用飙升,调试时发现是sess.run这里出了问题(随着for循环进行速度越来越慢)。
# Creates graph from saved GraphDef create_graph(pb_path) # Init tf Session config = tf.ConfigProto() config.gpu_options.allow_growth = True sess = tf.Session(config=config) init = tf.global_variables_initializer() sess.run(init) input_image_tensor = sess.graph.get_tensor_by_name("create_inputs/batch:0") output_tensor_name = sess.graph.get_tensor_by_name("conv6/out_1:0") for filename in os.listdir(image_dir): image_path = os.path.join(image_dir, filename) start = time.time() image_data = cv2.imread(image_path) image_data = cv2.resize(image_data, (w, h)) image_data_1 = image_data - IMG_MEAN input_image = np.expand_dims(image_data_1, 0) raw_output_up = tf.image.resize_bilinear(output_tensor_name, size=[h, w], align_corners=True) raw_output_up = tf.argmax(raw_output_up, axis=3) predict_img = sess.run(raw_output_up, feed_dict={input_image_tensor: input_image}) # 1,height,width predict_img = np.squeeze(predict_img) # height, width voc_palette = visual.make_palette(3) masked_im = visual.vis_seg(image_data, predict_img, voc_palette) cv2.imwrite("%s_pred.png" % (save_dir + filename.split(".")[0]), masked_im) print(time.time() - start) print(">>>>>>Done")
下面是解决溢出问题的代码(将部分代码放在for循环外)
# Creates graph from saved GraphDef create_graph(pb_path) # Init tf Session config = tf.ConfigProto() config.gpu_options.allow_growth = True sess = tf.Session(config=config) init = tf.global_variables_initializer() sess.run(init) input_image_tensor = sess.graph.get_tensor_by_name("create_inputs/batch:0") output_tensor_name = sess.graph.get_tensor_by_name("conv6/out_1:0") ############################################################################################################## raw_output_up = tf.image.resize_bilinear(output_tensor_name, size=[h, w], align_corners=True) raw_output_up = tf.argmax(raw_output_up, axis=3) ############################################################################################################## for filename in os.listdir(image_dir): image_path = os.path.join(image_dir, filename) start = time.time() image_data = cv2.imread(image_path) image_data = cv2.resize(image_data, (w, h)) image_data_1 = image_data - IMG_MEAN input_image = np.expand_dims(image_data_1, 0) predict_img = sess.run(raw_output_up, feed_dict={input_image_tensor: input_image}) # 1,height,width predict_img = np.squeeze(predict_img) # height, width voc_palette = visual.make_palette(3) masked_im = visual.vis_seg(image_data, predict_img, voc_palette) cv2.imwrite("%s_pred.png" % (save_dir + filename.split(".")[0]), masked_im) print(time.time() - start) print(">>>>>>Done")
总结:
在迭代过程中, 在sess.run的for循环中不要加入tensorflow一些op操作,会增加图节点,否则随着迭代的进行,tf的图会越来越大,最终导致溢出;
建议不要使用tf.gfile.FastGFile(image_path, 'rb').read()读入数据(有可能会造成溢出),用opencv之类读取。
以上这篇解决Tensoflow sess.run导致的内存溢出问题就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持小牛知识库。
本文向大家介绍linux解决Tomcat内存溢出的问题,包括了linux解决Tomcat内存溢出的问题的使用技巧和注意事项,需要的朋友参考一下 Tomcat本身不能直接在计算机上运行,需要依赖于操作系统和一个JAVA虚拟机。JAVA程序启动时JVM会分配一个初始内存和最大内存给程序。当程序需要的内存超出内存的最大值时虚拟机就会提示内存溢出,并且导致应用服务崩溃。 一、常见的Java内存溢出有以下三
本文向大家介绍一个JSP页面导致的tomcat内存溢出的解决方法,包括了一个JSP页面导致的tomcat内存溢出的解决方法的使用技巧和注意事项,需要的朋友参考一下 今天新能测试组的同事找我看一个奇怪的现象。一个tomcat应用,里面只有一个单纯的jsp页面,而且这个jsp页面没有任何java代码(想用这个jsp页面测试在她的服务器上的一个tomcat的最大QPS)。但是用loadrunner压测了
本文向大家介绍JVM Metaspace内存溢出问题解决方案,包括了JVM Metaspace内存溢出问题解决方案的使用技巧和注意事项,需要的朋友参考一下 一. 现象 前段时间公司线上环境的一个Java应用因为OOM的异常报警,导致整个服务不可用被拉出集群,本地模拟重现的现象如下: 当时的解决方案是增加metaspace的容量:-XX:MaxMetaspaceSize=500m,从原来默认的256
本文向大家介绍解决golang内存溢出的方法,包括了解决golang内存溢出的方法的使用技巧和注意事项,需要的朋友参考一下 最近在项目中出现golang内存溢出的问题,master刚开始运行时只有10多M,运行几天后,竟然达到了10多个G。而且到凌晨流量变少内存也没有明显降低,内存状态呈现一种很不健康的曲线。 像这种情况肯定是golang内存溢出了,为此我持续排查了两天,终于找到问题所在,特此记录
本文向大家介绍JAVA内存溢出解决方案图解,包括了JAVA内存溢出解决方案图解的使用技巧和注意事项,需要的朋友参考一下 这篇文章主要介绍了JAVA内存溢出解决方案图解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 1.在apache-tomcat-7.0.70\bin\catalina.bat(Linux 系统则在catalina.sh) 文件下
我有一个形式为