pytorch使用tensorboardX进行loss可视化
2024-10-18 18:16:09
最近pytorch出了visdom,也没有怎么去研究它,主要是觉得tensorboardX已经够用,而且用起来也十分的简单
pip install tensorboardX
然后在代码里导入
from tensorboardX import SummaryWriter
然后声明一下自己将loss写到哪个路径下面
writer = SummaryWriter('./log')
然后就可以愉快的写loss到你得这个writer了
niter = epoch * len(train_loader) + i
writer.add_scalars(args.result_path + 'Train_val_loss', {args.result_path+'train_loss': loss.data.item()}, niter)
其中,add_scalars是将不同得变量添加到同一个图下,图的名称是add_scalars得第一个变量
然后为这个图中不同得曲线添加不同得标题,上面这一行代码
writer.add_scalars(args.result_path + 'Train_val_loss', {args.result_path+'train_loss': loss.data.item()}, niter)
后面得dict中得key是曲线的名称,后面的value是对应得append的值,再后面得niter是x坐标,这句话得意思就相当于,对于图名称为args.result_path + 'Train_val_loss'的图,对曲线名称为args.result_path+'train_loss'添加新的点,这个点为(niter, loss.data.item())
同样的,我可以画出val的loss
niter = epoch * len(train_loader) + i
writer.add_scalars(args.result_path + 'Train_val_loss', {args.result_path+'val_loss': mean_loss}, niter)
writer保存到了我们刚刚声明的路径’./log‘下面,然后终端启动tensorboard
tensorboard --logdir ./log --port
不会用得进行tensorboard --help即可
然后进行端口映射就行了
实际上在使用的过程中,我发现了,如果你要保存的结果在各个子文件夹内,然后你在父文件夹运行tensorboard,就可以在浏览器看到各种结果,而不必再进行不同的端口映射
比如上面这个,我的resnet文件夹下有不同的我writer写入的文件,在父目录下启动tensorboard之后,
没毛病
最新文章
- <;Oracle Database>;后台进程
- 河南省第八届ACM程序设计大赛
- git服务器搭建
- 12-28 显示团购数据界面的搭建,cell的自定义方面的知识总结
- 关于Java的this关键字
- nginx支持url的PATHINFO
- 企业生产环境中linux系统分区的几种方案
- Kendo UI开发教程(27): 移动应用开发简介
- 使用windows-SQLyog连接linux-mysql
- 自定义Annotation
- Python练习一
- SQL查询某库所有的表所有的字段及字段的属性
- Storm基本原理概念及基本使用
- DBS:TestSys
- WGDC2019第八届全球地理信息开发者大会(北京)
- Java并发编程75个问答
- 一次ASM磁盘空间假装耗尽 ORA-15041: DISKGROUP SPACE EXHAUSTED
- Serializable 介绍
- (转)Linux Oracle服务启动&;停止脚本与开机自启动
- linux内核分析第七周-Linux内核如何装载和启动一个可执行程序