大蟒蛇python教程共享基于Pytorch实现逻辑回归

python教程分享基于Pytorch实现逻辑回归实例为大家分享了pytorch实现逻辑回归的具体代码,供大家参考,具体内容如下

1.逻辑回归

 线性回归表面上看是“回归问题”,实际上处理的问题是“分类”问题,逻辑回归模型是一种广义的回归模型,其与线性回归模型有很多的相似之处,模型的形式也基本相同,唯一不同的地方在于逻辑回归会对y作用一个逻辑函数,将其转化为一种概率的结果。逻辑函数也称为sigmoid函数,是逻辑回归的核心。

2.基于pytorch实现逻辑回归

import torch as t  import matplotlib.pyplot as plt  from torch import nn  from torch.autograd import variable  import numpy as np        # 构造数据集  n_data = t.ones(100, 2)  # normal()返回一个张量,张量里面的随机数是从相互独立的正态分布中随机生成的。  x0 = t.normal(2*n_data, 1)  y0 = t.zeros(100)  x1 = t.normal(-2*n_data, 1)  y1 = t.ones(100)     # 把数据给合并以下,并且数据的形式必须是下面形式  x = t.cat((x0, x1), 0).type(t.floattensor)  y = t.cat((y0, y1), 0).type(t.floattensor)     # 观察制造的数据  plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=y.data.numpy(), s=100, lw=0)  plt.show()     # 建立逻辑回归  class logisticregression(nn.module):      def __init__(self):          super(logisticregression, self).__init__()          self.lr = nn.linear(2, 1)          self.sm = nn.sigmoid()      def forward(self, x):          x = self.lr(x)          x = self.sm(x)          return x  # 实例化  logistic_model = logisticregression()  # 看gpu是否可使用,如果可以使用gpu否则不使用  if t.cuda.is_available():      logistic_model.cuda()  # 定义损失函数和优化函数  criterion = nn.bceloss()  optimizer = t.optim.sgd(logistic_model.parameters(), lr=1e-3, momentum=0.9)  # 训练模型  for epoch in range(1000):      if t.cuda.is_available():          x_data = variable(x).cuda()          y_data = variable(y).cuda()      else:          x_data = variable(x)          y_data = variable(y)          out = logistic_model(x_data)          loss = criterion(out, y_data)          print_loss = loss.data.item()          # 以0.5为阈值进行分类          mask = out.ge(0.5).float()          # 计算正确预测样本的个数          correct = (mask==y_data).sum()          # 计算精度          acc = correct.item()/x_data.size(0)          optimizer.zero_grad()          loss.backward()          optimizer.step()          # 每个200个epoch打印一次当前的误差和精度          if(epoch+1)%200==0:              print('*'*10)              # 迭代次数              print('epoch{}'.format(epoch+1))              # 误差              print('loss is {:.4f}'.format((print_loss)))              # 精度              print('acc is {:.4f}'.format(acc))  if __name__=="__main__":      logistic_model.eval()      w0, w1 = logistic_model.lr.weight[0]      w0 = float(w0.item())      w1 = float(w1.item())      b = float(logistic_model.lr.bias.item())      plot_x = np.arange(-7, 7, 0.1)      plot_y = (-w0*plot_x-b)/w1      plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=y.data.numpy(), s=100, lw=0)      plt.plot(plot_x, plot_y)      plt.show()

基于Pytorch实现逻辑回归

基于Pytorch实现逻辑回归

以上就是python教程分享基于Pytorch实现逻辑回归的全部内容,希望对大家的学习有所帮助,也希望大家多多支持<计算机技术网(www.ctvol.com)!!>。

需要了解更多python教程分享基于Pytorch实现逻辑回归,都可以关注python教程分享栏目—计算机技术网(www.ctvol.com)!

本文来自网络收集,不代表计算机技术网立场,如涉及侵权请联系管理员删除。

ctvol管理联系方式QQ:251552304

本文章地址:https://www.ctvol.com/pythontutorial/1187741.html

(0)
上一篇 2022年8月4日
下一篇 2022年8月4日

精彩推荐