当前位置: 首页 > 面试题库 >

我可以在GPU上运行Keras模型吗?

寇靖
2023-03-14
问题内容

我正在运行Keras模型,提交截止日期为36小时,如果我在cpu上训练我的模型大约需要50个小时,是否可以在gpu上运行Keras?

我正在使用Tensorflow后端,并在未安装anaconda的Jupyter笔记本上运行它。


问题答案:

是的,您可以在GPU上运行keras模型。几件事您将必须首先检查。

  1. 您的系统具有GPU(Nvidia。因为AMD尚未运行)
  2. 您已经安装了Tensorflow的GPU版本
  3. 您已安装CUDA安装说明
  4. 验证Tensorflow是否与GPU一起运行,检查GPU是否正常工作

sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))

要么

from tensorflow.python.client import device_lib
print(device_lib.list_local_devices())

输出将是这样的:

[
  name: "/cpu:0"device_type: "CPU",
  name: "/gpu:0"device_type: "GPU"
]

完成所有这些操作后,您的模型将在GPU上运行:

要检查keras(> = 2.1.1)是否使用GPU:

from keras import backend as K
K.tensorflow_backend._get_available_gpus()

祝一切顺利。



 类似资料:
  • 我正在运行一个Keras模型,提交截止日期为36小时,如果我在cpu上训练我的模型,大约需要50小时,有没有办法在gpu上运行Keras? 我正在使用Tensorflow后端并在我的Jupyter笔记本上运行它,而没有安装anaconda。

  • 什么JVM在CPU+GPU上运行? 我知道像Oracle、Zulu、OpenJDK这样的JVM,但没有一个是为了将处理卸载到GPU上而设计的。

  • 我有一个量化的tflite模型,我想在Nvidia Jetson Nano上进行推理。我使用tf.lite。用于推理的解释器()方法。这个过程似乎没有在GPU上运行,因为CPU和GPU上的推理时间是相同的。 有没有办法使用Python在GPU上运行tflite模型? 我试图通过设置tf来强制使用GPU。device()方法,但仍然不起作用。官方文档中有一个叫做GPU加速委托的东西,但我似乎找不到任

  • 我一直在我的电脑上用Tensorflow写程序,它使用Linux薄荷。无论出于什么原因,我都无法让Tensorflow在我的图形处理器上运行。 2021-04-26 15:46:11.462612: W tenstorflow/stream_executor/平台/默认/dso_loader.cc:60]无法加载动态库'libcudart.so.11.0';libcudart.so.11.0:无法

  • 我已经在NetBeans中创建了一个Java项目,自动构建的分发文件(.jar)在我的Ubuntu15.04AMD64机器上运行得非常好。 我想在发布它之前确保它在windows上运行,但在windows 7 32位机器上测试后,我发现它不工作。下面是错误消息的屏幕截图。 我可以猜到一些问题--因为它谈到了一个。regex错误。我并没有在代码中真正使用regex,而是使用string.split。

  • 我想计算一个损失函数,它在不同的输入上使用网络的输出两次。例如,假设, 更新:谢谢你们的回复。我想在keras或张量流中重新实现这篇论文。正如其中所解释的,“批评家”网络在GAN中是鉴别器,它有两个输入,一个接一个地运行,并根据输出和计算梯度计算损失函数。主要问题是如何在张量流或Keras中实现?