GPU 显存释放
我们在使用tensorflow 的时候, 有时候会在控制台终止掉正在运行的程序,但是有时候程序已经结束了,nvidia-smi也看到没有程序了,但是GPU的内存并没有释放,那么怎么解决该问题呢?
首先执行下面的命令:
fuser -v /dev/nvidia* #查找占用GPU资源的PID
因为我们只有一块显卡,所以显示如下图所示:
可以看到我们的nvidia0上还有一个python 2.7的PID
然后我们执行:
kill -9 pid
然后再执行nvidia-smi就可以看到内存已经被释放了
GPU 显存实施查看:
但是有时我们希望不仅知道那一固定时刻的GPU使用情况,我们希望一直掌握其动向,此时我们就希望周期性地输出,比如每 10s 就更新显示。
这时候就需要用到 watch命令,来周期性地执行nvidia-smi命令了。
了解一下watch的功能:
$ whatis watch
watch(1) - execute a program periodically, showing output fullscreen
作用:周期性执行某一命令,并将输出显示。
watch的基本用法是:
$ watch [options] command
最常用的参数是 -n, 后面指定是每多少秒来执行一次命令。
监视显存:我们设置为每 10s 显示一次显存的情况:
$ watch -n 10 nvidia-smi
原文:https://blog.csdn.net/jasonzzj/article/details/52649174
查看是否使用GPU计算:
import tensorflow as tf
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
查看日志信息若包含gpu信息,就是使用了gpu。
其他方法:跑计算量大的代码,通过 nvidia-smi 命令查看gpu的内存使用量。
最新文章
- DOM解析XML文件
- .NET面试题解析(07)-多线程编程与线程同步 (转)
- CAS+SSO原理浅谈
- Page.ClientScript.RegisterStartupScript不执行问题
- How to initialize a static const map in c++?
- Ubuntu下hadoop2.4搭建集群(单机模式)
- Linux非root用户程序使用小于1024端口
- Python之向日志输出中添加上下文信息
- 20行以内python代码画出各种减压图
- 信步漫谈之Git—环境搭建及入门
- 树莓派(Raspberry Pi)使用Shell编写的极简Service
- CIO知识储备
- xmlns:dubbo 路径错误
- hdu 2034 改革春风吹满地 多边形面积
- jstl-随机数-借用jsp嵌入的代码
- Unity3D研究院之设置自动旋转屏幕默认旋转方向
- iOS动画1 — UIView动画
- ubantu下如何完全彻底卸载mysql(转)
- Git 查看提交历史(分布式版本控制系统)
- 2009年末最强梅麻呂3D动画游戏大作 汉化补丁
热门文章
- 微软BI 之SSAS 系列 - 自定义的日期维度设计
- 使用Phantomjs和ChromeDriver添加Cookies的方法
- C++ 第九课 标准c数学函数
- angular中的 登录检查 和 过期Session清理
- hibernate5(12)注解映射[4]一对一外键关联
- string format 格式化小数位
- SpringMVC学习笔记三:拦截器
- javascript用正則表達式检測username的合法性
- 使用Dockerfile文件构建基于centOS系统的nodejs镜像
- ios实例开发精品文章推荐(8.5)