一、实验介绍
- 使用Numpy实现
- 线性模型搭建
- 构造损失函数
- 计算损失值
二、实验环境
本系列实验使用了PyTorch深度学习框架,相关操作如下:
1. 配置虚拟环境
代码语言:javascript复制conda create -n DL python=3.7
代码语言:javascript复制conda activate DL
代码语言:javascript复制pip install torch==1.8.1 cu102 torchvision==0.9.1 cu102 torchaudio==0.8.1 -f https://download.pytorch.org/whl/torch_stable.html
代码语言:javascript复制conda install matplotlib
代码语言:javascript复制 conda install scikit-learn
2. 库版本介绍
软件包 | 本实验版本 | 目前最新版 |
---|---|---|
matplotlib | 3.5.3 | 3.8.0 |
numpy | 1.21.6 | 1.26.0 |
python | 3.7.16 | |
scikit-learn | 0.22.1 | 1.3.0 |
torch | 1.8.1 cu102 | 2.0.1 |
torchaudio | 0.8.1 | 2.0.2 |
torchvision | 0.9.1 cu102 | 0.15.2 |
三、实验内容
ChatGPT:
线性模型是一种基本的机器学习模型,用于建立输入特征与输出之间的线性关系。它是一种线性组合模型,通过对输入特征进行加权求和,再加上一个偏置项,来预测输出值。 线性模型的一般形式可以表示为:y = w1x1 w2x2 ... wnxn b,其中y是输出变量,x1, x2, ..., xn是输入特征,w1, w2, ..., wn是特征的权重,b是偏置项。模型的目标是通过调整权重和偏置项,使预测值与真实值之间的差异最小化。 线性模型有几种常见的应用形式:
- 线性回归(Linear Regression):用于建立输入特征与连续输出之间的线性关系。它通过最小化预测值与真实值的平方差来拟合最佳的回归直线。
- 逻辑回归(Logistic Regression):用于建立输入特征与二分类或多分类输出之间的线性关系。它通过使用逻辑函数(如sigmoid函数)将线性组合的结果映射到概率值,从而进行分类预测。
- 支持向量机(Support Vector Machines,SVM):用于二分类和多分类问题。SVM通过找到一个最优的超平面,将不同类别的样本分隔开。它可以使用不同的核函数来处理非线性问题。
- 岭回归(Ridge Regression)和Lasso回归(Lasso Regression):用于处理具有多重共线性(multicollinearity)的回归问题。它们通过对权重引入正则化项,可以减小特征的影响,提高模型的泛化能力。
线性模型的优点包括简单、易于解释和计算效率高。它们在许多实际问题中都有广泛的应用。然而,线性模型也有一些限制,例如对非线性关系的建模能力较弱。在处理复杂的问题时,可以通过引入非线性特征转换或使用核函数进行扩展,以提高线性模型的性能。
本系列为实验内容,对理论知识不进行详细阐释
(咳咳,其实是没时间整理,待有缘之时,回来填坑)
0. 导入库
首先,导入了numpy
库,用于进行数值计算。
import numpy as np
1. 定义线性模型linear_model
该函数接受输入数据x
,使用随机生成的权重w
和偏置b
,计算输出值output
。这里的线性模型的形式为 output = x * w b
。
def linear_model(x):
w = np.random.randn(1)
b = np.random.randn(1)
output = np.dot(x, w) b
return output
2. 定义损失函数loss_function
该函数接受目标值y
和模型预测值prediction
,计算均方误差损失。均方误差损失的计算公式为 (prediction - y) * (prediction - y)
。
def loss_function(y, prediction):
loss = (prediction - y) * (prediction - y)
return loss
3. 定义数据
- 生成了一个形状为
(5, 1)
的随机输入数据x
,每个元素都是在0到1之间的随机数。 - 生成了一个形状为
(5,)
的目标值y
,包含了5个标签(1或-1),用于模型训练和损失计算。 - 打印了数据的信息,包括每个样本的输入值
x
和目标值y
。
x = np.random.rand(5, 1)
y = np.array([1, -1, 1, -1, 1]).astype('float')
print("The data is as follows:")
for i in range(x.shape[0]):
print("Item " str(i), "x:", x[i][0], "y:", y[i])
4. 调用函数
- 调用
linear_model
函数,传入输入数据x
,得到模型的预测值prediction
。 - 调用
loss_function
函数,传入目标值y
和预测值prediction
,得到损失值loss
。 - 打印了每个样本的损失值。
prediction = linear_model(x)
loss = loss_function(y, prediction)
print("The all loss value is:")
for i in range(len(loss)):
print("Item ", str(i), "Loss:", loss[i])
注意:
本实验的线性模型仅简单地使用随机权重和偏置,计算了模型在训练集上的均方误差损失,没有使用优化算法进行模型参数的更新。
通常情况下会使用梯度下降等优化算法来最小化损失函数,并根据训练数据不断更新模型的参数,具体内容请听下回分解。