Pytorch实战学习(二):用Pytorch实现逻辑回归
2024-09-08 19:09:30
《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili
用Pytorch实现逻辑回归
Logistic Regression
从线性回归 → 逻辑回归
1、分类问题
计算属于每一类的概率
用 Logistic Function 把实数空间映射到[0,1]的概率范围空间内
2、模型变化(线性回归 → 逻辑回归)
2.1、模型结构变化
2.2、Loss Function的变化
为了计算两个概率之间的差异,需要利用到交叉熵的理论。
BCELoss二分类的交叉熵
y_pred and y_data越接近,BCE Loss越小
3、完整代码
代码框架仍然分为4大部分
import torch
import torch.nn.functional as F ## Prepare Dataset:mini-batch, X、Y是3X1的Tensor
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]]) ##Design Model ##构造类,继承torch.nn.Module类
class LogisticRegressionModel(torch.nn.Module):
## 构造函数,初始化对象
def __init__(self):
##super调用父类
super(LogisticRegressionModel, self).__init__()
##构造对象,Linear Unite,包含两个Tensor:weight和bias,参数(1, 1)是w的维度
self.linear = torch.nn.Linear(1, 1) ## 构造函数,前馈运算
def forward(self, x):
## sigmoid(w*x+b)
y_pred = F.sigmoid(self.linear(x))
return y_pred model = LogisticRegressionModel() ##Construct Loss and Optimizer ##损失函数,改为BCELoss
criterion = torch.nn.BCELoss(size_average = False) ##优化器,model.parameters()找出模型所有的参数,Lr--学习率
optimizer = torch.optim.SGD(model.parameters(), lr=0.01) ## Training cycle for epoch in range(100):
y_pred = model(x_data)
loss = criterion(y_pred, y_data)
print(epoch, loss) ##梯度归零
optimizer.zero_grad()
##反向传播
loss.backward()
##更新
optimizer.step() ## Outpue weigh and bias
print('w = ', model.linear.weight.item())
print('b = ', model.linear.bias.item()) ## Test Model
x_test = torch.Tensor([[4.0]])
y_test = model(x_test)
print('y_pred = ', y_test.data)
最新文章
- unix-ln 命令
- 移动端网站优化指南-WAP篇
- Spring MVC 事务配置
- JAVA 实战练习
- CentOS安装时小坑记录
- org.apache.hadoop.fs-BlockLocation
- flex&;bison 1
- C#日期格式精确到毫秒以及上下午
- C# 程序性能提升篇-2、类型(字段类型、class和struct)的错误定义所影响性能浅析
- -_-#【jsonp】cache
- Linux文件管理常用命令
- Swift - 文本输入框(UITextField)的用法
- chapter9_3 协同程序实现迭代器
- nyoj_120: 校园网络
- C#微信公众号开发——错误一
- ide phpStorm注释模板修改
- .NET Core 2.1中的HttpClientFactory最佳实践
- .NET Core 配置GC工作模式与内存的影响
- dedecms怎样调用指定id文章?
- 测试服务器上多个tomcat配置Nginx访问