一、第一中值定理

如果函数f(x)在闭区间[a,b]上连续,则在积分区间[a,b]上至少存在一个点$xi $,使得$int_{a}^{b}f(x)dx=f(xi )(b-a).(aleqslant xi leqslant b)$

  

二、微积分基本定理

积分上限函数:函数f(x)在区间[a,b]上连续,对于定积分$int_{a}^{x}f(x)dx$每一个取值的x都有一个对应的定积分值。记作:$Phi (x)=int_{a}^{x}f(t)dt$

定理1:

  

定理2(原函数存在定理):

  

三、牛顿—莱布尼兹公式

牛顿-莱布尼兹公式(Newton-Leibniz formula),通常也被称为微积分基本公式,它揭示了定积分与被积函数的原函数或者不定积分之间的联系。

如果F(x)是连续函数f(x)在区间[a,b]上的一个原函数,则:$int_{a}^{b}f(x)dx=F(b)-F(a)$

解释:一个连续函数在区间[a,b]上的定积分等于它的任意一个原函数在区间[a,b]上的增量

几何解释:

  

可得:$f(b)-f(a)=sum dy$,由于$dy={f}'(x)dx$,所以 $f(b)-f(a)=sum f'(x)dx=int_{a}^{b}f'(x)dx$

例题:求解$int_{0}^{frac{pi }{2}}(2cos x+sin x-1)dx$

  

定理3(微积分基本公式)

  

有$f(x)in C[a,b]$,且$F'(x)=f(x)$

  

例题:计算由曲线y2=2x和直线y=x-4所围成的图形的面积

  

   

四、泰勒公式

简单来讲就是用一个多项式函数去无限逼近一个给定的函数(即尽量使多项式函数图像拟合给定的函数图像,如sin x,cos x等函数值的近似计算),注意,逼近的时候一定是从函数图像上的某个点展开。如果一个非常复杂函数,想求其某点的值,直接求无法实现,这时候可以使用泰勒公式去近似的求该值,这是泰勒公式的应用之一。泰勒公式在机器学习中主要应用于梯度迭代。

首先回忆微分 

若$f'(x_{0})$存在,在$x_{0}$附近有$f(x_{0}+Delta x)-f(x_{0})approx f'(x_{0})Delta x$。

由于$Delta x=x-x_{0}$,可以得到$f(x)=f(x_{0})+f'(x_{0})(x-x_{0})+o(x-x_{0})$,

近似可得$f(x)approx f(x_{0})+f'(x_{0})(x-x_{0})$。

接着再来引出泰勒公式,如果说我们想要以直线来近似的代替一个曲线,如下图所示

  

只用一阶导数看起来有点不准呀,如上图所示,能不能在利用一些呢?答案肯定是可以的,一阶导数只帮我们定位了下一个点是上升还是下降,然后对之后的趋势就很难把控了。

  

那如何定位的更准确一些呢?如果我们再把二阶导数利用上呢?

  

我们可以发现,这样的方式存在精确度不够高,误差不能估计等不足之处。所以,主要的问题就是寻找函数P(x),使得f(x)≈P(x),从而使得误差R(x)=f(x)-P(x)可估计。

  

分析:如果说要f(x)≈P(x),且近似程度要好,Pn(x)应该满足什么条件?

  

由上图就可以引出泰勒公式了

  

$P_{n}(x)=f(x_{0})+f'(x_{0})(x-x_{0})+frac{f''(x_{0})}{2!}(x-x_{0})^{2}+cdots +frac{f^{(n)}(x_{0})}{n!}(x-x_{0})^{n}$称为f(x)在点x0关于(x-x0)的n阶泰勒多项式,这个式子只能说是得到的值能够无限的逼近真正的函数值,但是其中还存在一个误差项R(x),也就是说f(x)=R(x)+P(x),这里的误差项称为余项。对于一般的机器学习、深度学习来说,余项本身也用不上在加上其比较复杂,所以在这里就不作解释了。

五、泰勒公式详细解释

多项式逼近如下图所示

  

公式里面的阶数是什么意思呢?

阶数越高增长速度越快。观察可发现,越高次项在越偏右侧影响越大。对于一个复杂函数,给我们的感觉是在当前点,低阶项能更好的描述当前点附近,对于之后的走势就越来越依靠高阶的了。

  

公式里面的阶乘是什么意思呢?

如果把9次的和2次的直接放在一起,那2次的就直接不用玩了呀,它们之间的差距太大了。但是在开始的时候应该是2次的效果更好,之后才是慢慢轮到9次的。

  

 有了阶乘(!)之后,就帮助我们解决了这样的问题

  

如下图所示,使用不同阶的多项式函数来逼近$y=sin x$函数

  

可以看到,阶数越高的函数越能拟合$y=sin x$函数。

内容来源于网络如有侵权请私信删除

文章来源: 博客园

原文链接: https://www.cnblogs.com/xiaoyh/p/12064509.html

你还没有登录,请先登录注册
  • 还没有人评论,欢迎说说您的想法!