首页 >>  正文

回归方程中的y^怎么读

来源:baiyundou.net   日期:2024-08-27

线性回归可以理解为一个回归算法,我们可以结合线性回归算法来做预测值。这篇文章里,作者就总结了线性回归算法的基本原理、应用场景、优劣势等方面,一起来看看吧。

前两篇文章我们介绍了两个解决分类问题的算法:K近邻和朴素贝叶斯,今天我们一起来学习回归问题中最经典的线性回归(Linear Regression)算法。

一、基本原理

生活中,大家都排过队,我印象最深的应该是排队做核酸的队伍,前后间隔一米,随着做核酸的人越来越多,新来的人看到队伍,都会自动排到队伍的末尾,同样间隔一米,大家“齐心协力”排出了一条长线。

有了这条长线之后,我们就可以对新来的人排队的位置做出预测,这就是线性回归的基本逻辑。

所以线性回归算法的思路就是:根据已有的数据去寻找一条“直线”,让它尽可能的接近这些数据,再根据这条直线去预测新数据的结果

那么具体要怎么找这条“直线”呢?初中数学里描述一条直线时,用的是一元一次方程:y=ax+b,这里的a表示直线的斜率,b表示截距,如下图所示:

以排队为例,我们已知x是人的顺序,y是排的位置,将已有的x和y数据代入到公式中,可以得到一组合适a和b的值来描述这条直线,也就是我们找到了这条直线的分布。

排队的例子比较简单,只有一个x变量,在实际的应用中,会有很多个影响结果的变量,比如预测贷款额度时,会有工资、是否有房等变量,用线性回归的思路解决类似的问题,就要构建多元回归方程了,公式也就变成了 y = a1x1 + a2x2 + … + b

当有两个变量时,线性回归的分布也就不是一条简单的直线了,而是一个平面,如下图所示:

如果有更多的变量,分布就是一个超平面,找到它的分布也会变得更复杂。

二、如何计算最优解

如果每个人的站位(实际值)距离理想站位(预测值)的距离(误差)最小,那就说明我们得到的线性回归分布是最优解。

机器学习中,评价模型的预测值和实际值差异的公式叫做损失函数,损失函数值越小,模型性能越好。

平方残差和就是一种场景的损失函数,其计算公式为 loss=SUM(真实值-预测值)²,就是把每个节点的预测差求平方再求和,前面回归模型评估的文章里提到的MSE就是平方残差和除以样本数量。

三、应用场景

线性回归的应用场景非常广泛,只要数据是符合线性分布的,理论上都可以用线性回归来进行预测:

  • 预测房价:通过分析房屋特征(如面积、位置、房间数量等)与价格之间的关系。
  • 预测员工绩效:通过分析员工的教育背景、工作经验、培训等因素与绩效之间的关系。
  • 营销分析:分析市场调研数据,预测产品销售量,并确定哪些因素对销售量有显著影响。
  • 交通规划:预测交通流量,通过分析道路特征、人口密度等因素与交通流量之间的关系。
  • 环境科学:分析环境数据,如气候变化、污染物排放等因素与生态系统的影响。

四、优缺点

线性回归算法的优点:

  • 简单而直观:易于理解和解释,适用于初学者入门。
  • 计算效率高:计算速度较快,适用于大规模数据集。
  • 可解释性强:可以提供每个特征对目标变量的影响程度,有助于理解变量之间的关系。
  • 可扩展性强:可以通过添加交互项、多项式特征等进行扩展,以适应更复杂的数据模式。

线性回归算法的缺点:

  • 仅适用于线性关系:线性回归假设自变量与因变量之间存在线性关系,对于非线性关系的数据拟合效果较差。
  • 对异常值敏感:线性回归对异常值较为敏感,异常值的存在可能会对模型的拟合产生较大影响。
  • 忽略了特征之间的复杂关系:线性回归无法捕捉到特征之间的非线性、交互作用等复杂关系。
  • 对多重共线性敏感:当自变量之间存在高度相关性时,线性回归模型的稳定性和可靠性可能会受到影响。

五、总结

本文我们介绍了线性回归算法的原理、应用场景和优缺点,线性回归是一个回归算法,常用来做预测值,和之前介绍的分类模型的输出是有区别的,需要注意一下。

下篇文章,我们来聊一聊逻辑回归算法,敬请期待。

本文由 @AI小当家 原创发布于人人都是产品经理,未经许可,禁止转载

题图来自 Unsplash,基于 CC0 协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

","gnid":"986e0d62b5c4aaf5e","img_data":[{"flag":2,"img":[{"desc":"","height":"420","title":"","url":"https://p0.ssl.img.360kuai.com/t01b35250c3375c56e0.jpg","width":"900"},{"desc":"","height":"710","title":"","url":"https://p0.ssl.img.360kuai.com/t01e230685f98f732cc.jpg","width":"1323"},{"desc":"","height":"783","title":"","url":"https://p0.ssl.img.360kuai.com/t01dda68d216e4588bb.jpg","width":"720"}]}],"original":0,"pat":"art_src_3,sexf,sex4,sexc,fts0,sts0","powerby":"cache","pub_time":1705890180000,"pure":"","rawurl":"http://zm.news.so.com/f1804ee21bcc84664ec444b1a1980982","redirect":0,"rptid":"6c6c54f1e1479e00","rss_ext":[],"s":"t","src":"人人都是产品经理","tag":[],"title":"线性回归算法:用“线性外推”的思路做预测

匡牧柳2152线性回归方程中的^指什么?怎么读?
詹震徐13736313982 ______ 指均值,读作“尖”.

匡牧柳2152高中数学回归分析符号^的读法 -
詹震徐13736313982 ______ 这是一种记法,我觉得没有一定读法,只要是学习数学应该一看就知道,所以你对于最小二乘法公式应该没有必要记住,只要理解其推倒过程就可以 要不你在百度中搜索希腊字母读法 或许能给你一定帮助

匡牧柳2152线性回归方程中字母 a 头上加 ^后怎么读?非常感谢!! -
詹震徐13736313982 ______ 次幂

匡牧柳2152数学中,字母上面带个 ^ 除号是什么什么意思,例如 Y上面 带个 ^ 谢谢 -
詹震徐13736313982 ______ 你说的应该是回归值,根据你的补充, 如果是做回归的话,^ 在Yi 的头顶上表示的 是把自变量带入回归方程所得值

匡牧柳2152线性回归方程中的截距和斜率怎么读 -
詹震徐13736313982 ______ 斜率:亦称“角系数”,表示一条直线相对于横坐标轴的倾斜程度.一条直线与某平面直角坐标系横坐标轴正半轴方向的夹角的正切值即该直线相对于该坐标系的斜率. 如果直线与x轴互相垂直,直角的正切直无穷大,故此直线,不存在斜率. 对于...

匡牧柳2152在解题时,最终写回归方程用不用在y上面写^这个符号?还有,y上有个~是怎么回事,什么时候用? -
詹震徐13736313982 ______[答案] 这个要加的,^表示这个y值是估计值,是根据最小二乘法估计的回归方程, 所以回归方程中的y是估计值,要加^ 如果y是实际值,就不用.比如说散点图上的读数. 总之回归方程的Y要加^

匡牧柳2152统计分析中线性回归模型字母头上的“^”符号是什么含义? -
詹震徐13736313982 ______ 呵呵,本人刚刚注册.第一个来回答你的问题哦.我用一元线性回归方程说明. 当两个变量间存在线性相关关系时,常常希望建立二者间的定量关系表达式,这便是两个变量间的一元线性回归方程.假定x是自变量,y是随机变量,y对x的一元线性回归方程的表达式为:y^=a+bx (^符号是在y的正上方,我不知道怎么输入,所以两个分开了) 其中a为常数,b称为y对x的回归系数.对给定的n对数据(xi,yi),i=1,2,3,……n,根据这些数据去估计a 和 b,于是y也是一个估计值,就于y^来表示区别. 因此字母头上加个“^”表示回归值,表示真实值的一种预测,实际的观测值与回归值是存在偏差的.

匡牧柳2152谁能教一教我回归方程啊 -
詹震徐13736313982 ______[答案] 回归方程是根据样本资料通过回归分析所得到的反映一个变量(依变量)对另一个或一组变量(自变量)的回归关系的数学表达式.回归直线方程用得比较多,可以用最小二乘法求回归直线方程中的a,b,从而得到回归直线方程. 对变量之间统计关系进...

匡牧柳2152回归方程是什么 -
詹震徐13736313982 ______ 回归方程是根据样本资料通过回归分析所得到的反映一个变量(依变量)对另一个或一组变量(自变量)的回归关系的数学表达式.回归直线方程用得比较多,可以用最小二乘法求回归直线方程中的a,b,从而得到回归直线方程.

匡牧柳2152数学回归方程问题 -
詹震徐13736313982 ______ ∑xiyi=X1Y1+X2Y2+X3Y3+...+X(n-1)Y(n-1)+XnYn ∑(xi)^2=(X1)^2+9X2)^2+(X3)^2+...+(Xn-1)^2+(Xn)^2

(编辑:自媒体)
关于我们 | 客户服务 | 服务条款 | 联系我们 | 免责声明 | 网站地图 @ 白云都 2024