简介:
线性回归是一种基本的机器学习模型,用于建立输入特征与连续输出之间的关系。它假设输入特征与输出之间的关系是线性的,并且尝试找到最佳的线性拟合,以最小化预测值与真实值之间的差距。
在线性回归中,我们假设输入特征
与输出
之间的关系可以表示为:
其中,
是特征的权重(系数),
是偏置项,用于调整输出值。我们的目标是找到最佳的
和
,使得预测值
与真实值
之间的误差最小化。通常使用最小化均方误差(Mean Squared Error,MSE)来衡量预测值与真实值之间的差距。
在 PyTorch 中,我们可以利用自动求导功能和优化器来实现线性回归模型。下面是一个简单的线性回归示例代码:
我们的目的是:预测输入特征X与对应的真实标签Y之间的关系。
import torch
import matplotlib.pyplot as plt
# 输入数据
x_data = torch.tensor([[1.0], [2.0], [3.0], [4.0]])
y_data = torch.tensor([[2.0], [4.0], [6.0], [8.0]])
# 定义线性回归模型
class LinearRegressionModel(torch.nn.Module):
def __init__(self):
super(LinearRegressionModel, self).__init__()
self.linear = torch.nn.Linear(1, 1) # 输入维度为1,输出维度为1
def forward(self, x):
return self.linear(x)
model = LinearRegressionModel()
# 定义损失函数和优化器
criterion = torch.nn.MSELoss() # 均方误差损失函数
optimizer = torch.optim.SGD(model.parameters(), lr=0.01) # 随机梯度下降优化器
# 训练模型
num_epochs = 1000
for epoch in range(num_epochs):
# 前向传播
y_pred = model(x_data)
# 计算损失
loss = criterion(y_pred, y_data)
# 反向传播与优化
optimizer.zero_grad()
loss.backward()
optimizer.step()
# 输出训练后的参数
print("训练后的参数:")
print("W =", model.linear.weight.item())
print("b =", model.linear.bias.item())
# 绘制数据点
plt.scatter(x_data, y_data)
# 绘制回归线
plt.plot(x_data, model(x_data).detach().numpy(), 'r-', label='Regression Line')
plt.xlabel('X')
plt.ylabel('Y')
plt.title('Linear Regression')
plt.legend()
plt.show()
根据训练得到的参数,线性回归模型的方程为:
其中:
是预测的因变量值, -
是自变量的值。
这意味着自变量
的变化每增加 1 单位,因变量
的变化大约为 1.9862单位。此外,即使自变量
为 0 时,因变量
也会接近 0.0405。