二、 损失函数的原理
误差反映单个数据点的预测偏差,损失则是整体数据集的预测偏差总和。损失函数运用这两者原理,聚合误差以优化模型,降低总体预测偏差。
1. 误差(Error)
定义:误差是指模型在对单个数据点进行预测时,其预测结果与真实值之间的差异或偏离程度。这种差异反映了模型预测的不准确性或偏差,用于评估模型在特定数据点上的预测准确性。
计算:误差可以通过多种数学公式来计算。其中,绝对误差是预测值与真实值之间差值的绝对值,用于量化预测偏离真实值的实际大小;平方误差则是预测值与真实值之间差值的平方,常用于平方损失函数中,以便更显著地突出较大的误差。
误差棒: 误差棒通常以线条或矩形的形式出现在数据点的上方、下方或两侧,其长度或大小代表了误差的量级。这种可视化方法有助于识别潜在的问题区域,并指导进一步的模型改进或数据分析。
2. 损失(Loss)
定义:损失是衡量机器学习模型在整个数据集上预测的总体不准确性的总体指标,通过最小化损失可以优化模型参数并改进预测性能。它反映了模型预测与真实值之间的差异,并将这些差异进行聚合, 以提供一个标量值来表示预测的总体不准确性。
计算:损失的具体计算是通过损失函数来完成的。损失函数接受模型的预测值和真实值作为输入,并输出一个标量值,即损失值,表示模型在整个数据集上的总体预测误差。
损失曲线 :损失曲线直观地呈现了模型在训练过程中损失值的变化趋势。通过绘制训练损失和验证损失随迭代次数的变化,我们能够洞察模型是否遭遇过拟合或欠拟合等问题,进而调整模型结构和训练策略。
损失曲线
三、 损失函数的算法
损失函数的算法
1. 均方差损失函数 (MSE)
通过计算模型预测值与真实值之间差值的平方的平均值,衡量回归任务中预测结果的准确性,旨在使预测值尽可能接近真实值。
均方差损失函数(MSE)
应用场景:主要用于回归问题,即预测连续值的任务。
公式:
均方差损失函数(MSE) 公式
特点:
当预测值接近真实值时,损失值较小。
当预测值与真实值差距较大时,损失值迅速增大。
由于其梯度形式简单,易于优化。
优化目标:最小化均方差损失,使得模型的预测值尽可能接近真实值。
2. 交叉熵损失函数(CE)
用于衡量分类任务中模型预测的概率分布与真实标签之间的差异,旨在通过最小化损失来使模型预测更加接近真实类别。
交叉熵损失函数(CE)
应用场景:主要用于分类问题,尤其是多分类问题。
公式:
交叉熵损失函数(CE)公式
特点:
当预测概率分布与真实概率分布相近时,损失值较小。
对预测概率的微小变化非常敏感,尤其当真实标签的概率接近0或1时。
适用于概率输出的模型,如逻辑回归、softmax分类器等。
优化目标:最小化交叉熵损失,使得模型对于每个类别的预测概率尽可能接近真实概率分布。
本文转载自火山引擎开发者社区博主:架构师带你玩转AI