tensorflow loss
- 作者: 我有酒你有孤独吗
- 来源: 51数据库
- 2020-09-25
假设数据满足高斯分布的情况下
将y = wx+b 中的y和期望带入高斯分布函数,取对数化简后为 常数-(平方损失函数/方差),是近似平方损失的函数且方差随数据变化是个定值。
固定X使得W为参数时的似然估计最优解得到的概率,等同于真实W下的概率。
所以最大化似然函数值转换为最小化平方损失函数。
所以线性回归实质是寻找一组最贴切的权值,也就是最大化似然函数值。平方损失函数,是最大化函数值的一个简便的式子。
至于这个式子在非线性情况下是否成立我就不知道了。以上在Andrew Ng的课程中有教,我也是刚学如有错误请指证。
可以装xp虚拟机。微软的官网上边有下载。不要自己乱下载,不然会有很多未知问题。现在较流行的是vmware7.0 。window xp pro 镜像文件。下载好备用。(找一个“电脑疯子”xp镜像文件,600m的纯净版最好。)记好路径。
将y = wx+b 中的y和期望带入高斯分布函数,取对数化简后为 常数-(平方损失函数/方差),是近似平方损失的函数且方差随数据变化是个定值。
固定X使得W为参数时的似然估计最优解得到的概率,等同于真实W下的概率。
所以最大化似然函数值转换为最小化平方损失函数。
所以线性回归实质是寻找一组最贴切的权值,也就是最大化似然函数值。平方损失函数,是最大化函数值的一个简便的式子。
至于这个式子在非线性情况下是否成立我就不知道了。以上在Andrew Ng的课程中有教,我也是刚学如有错误请指证。
可以装xp虚拟机。微软的官网上边有下载。不要自己乱下载,不然会有很多未知问题。现在较流行的是vmware7.0 。window xp pro 镜像文件。下载好备用。(找一个“电脑疯子”xp镜像文件,600m的纯净版最好。)记好路径。
推荐阅读
