博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
用最小二乘做为线性回归的代价函数的一些解释
阅读量:4078 次
发布时间:2019-05-25

本文共 750 字,大约阅读时间需要 2 分钟。

先介绍下问题的背景:

要从看NG Adrew的机器学习视频课程说起,这个课程很早就下载了,但是当时基础知识不够很多没看懂,反反复复看了几次前面的几节课程。昨晚再次看到"under fittng"以及"over fitting"这个视频(是第四个视频吧)的时候,里面讲到了这个问题,也就是在线性回归中,对房价的预测为什么使用了J = 1/2*(y-h(x))^2作为代价函数来求解参数。

接着介绍下问题:

在这个问题中有m个样本,分别用x_1,x_2,...x_m表示,对应的label分别为y_1,y_2,...y_m,使用J = 1/2*(y_1 - h(x_1))^2 + 1/2*(y_2 - h(x_2))^2+...+1/2*(y_m - h(x_m))^2,然后使用优化算法比如梯度下降对h中的参数theta进行优化求解,满足的前提是min J。

索要描述的问题就是:为什么最小化J之后得到的参数theta值,就是我们真正想要的呢?

答案:

令 y = h(x) + error,此时我们假设error符合均值为0的高斯分布(这个假设可以用很多方法证明的),此时当theta固定的话,h(x)是常数,所以p(y-h(x)) = p(error)。

利用似然性得到l(theta) =  p(y_1-h(x_1))*p(y_2-h(x_2))*...*p(y_m-h(x_m)),因为error独立,故让l(theta)最大就可以得到error最小(这个可以根据正太分布的图形知道,当位于中心点的时候误差为0,此时概率最大)由于error符合高斯分布,带入到高斯分布函数中,就可以得到一个表达式(这个表达式太复杂了,csdn编辑器不支持,我就不写了),然后对l两边求log,最后就可以得到J。

转载地址:http://rbini.baihongyu.com/

你可能感兴趣的文章
STL运用的三个档次
查看>>
b站有不少STL的教学视频
查看>>
刷leetcode究竟要不要使用库函数
查看>>
LeetCode 刷题攻略
查看>>
一线互联网公司技术面试的流程以及注意事项
查看>>
现代C++语言可以看作是三部分组成
查看>>
别人推荐的一些C++书籍
查看>>
两种乐趣
查看>>
《C++ primer》第五版习题答案
查看>>
无人机桨的型号的含义
查看>>
木桨震动小
查看>>
关于桨叶越大,拉力越大,效率越高
查看>>
原来容器比如vector的本质是一个类模板
查看>>
opencv使用了很多标准模板库(STL)
查看>>
嵌入式软件工程师真的串口的开发是必备的技能
查看>>
ROS串口编程学习笔记
查看>>
我的无人机运输箱
查看>>
树莓派进行镜像备份(我亲自操作的)
查看>>
树莓派系统镜像备份,多种方法归纳总结
查看>>
快速搭建一个APMT265树莓派无人机
查看>>