参考资料:
吴恩达教授机器学习课程
机器学习课程中文笔记

Week 1

一. 引言

机器学习模型可分为监督学习Superviese learning(每个数据集给出了正确的值)和无监督学习Unsupervised learning(数据集只有特征,没有对应正确的值)

机器学习处理的问题可以分为Regression回归问题(结果是real-valued output连续的值)和Classification问题 (结果是discrete-valued离散的值)

二. 单变量线性回归(Linear Regression with One Variable)

代价函数Cost function

代价函数用来表现目前模型与结果的拟合情况。
平方差函数是回归问题中常用的代价函数
截屏2019-12-30下午4.39.03

梯度下降 Gradient descent

梯度下降算法用来最小化函数,这里用来最小化代价函数;
原理:通过将每个参数不停减去“对应参数偏导数*学习速率“来同时更新每个参数,从而达到求得局部最小的函数值。

线性回归模型大致

截屏2019-12-30下午4.28.41

hypothesis 是一个通过一个training set + 机器学习算法训练出的模型 。

对于traning set,找一个合适的学习算法,然后通过训练最小化代价函数从而得到最适合的参数。

三. 术语

  • Data set = training set
  • example
  • Input = features
  • output = target
  • label
  • Superviese learning
  • Unsupervised learning
内容来源于网络如有侵权请私信删除

文章来源: 博客园

原文链接: https://www.cnblogs.com/z1xiang/p/12181503.html

你还没有登录,请先登录注册
  • 还没有人评论,欢迎说说您的想法!