搜索结果
查询Tags标签: 导数,共有 45条记录-
《基础微积分教材中译版》--目录
目录 引言 1 实数和超实数 1 1.1 实线 1 1.2 实函数 6 1.3 直线 16 1.4 斜率和速度;超实线 21 1.5 无穷小量,有限和无限数 27 1.6 标准部分 35 第1章附加问题 41 2 微分 43 2.1 导数 43 2.2 微分和切线 53 2.3 有理函数的导数 60 2.4 反函数 70 2.5 超越函数 78 2.6 链…
2021/12/10 23:25:41 人评论 次浏览 -
AI 神经网络学习
神经网络学习 1、输出与输入的关系(感知基): $$ y=\begin{Bmatrix} 1 & {\overrightarrow{x}\cdot \overrightarrow{w}+b>0}\ 0 & {\overrightarrow{x}\cdot \overrightarrow{w}+b\leqslant 0} \end{Bmatrix} $$ 这个模型由生活中而来,$\overrightarrow{x}…
2021/12/8 23:24:22 人评论 次浏览 -
AI 神经网络学习
神经网络学习 1、输出与输入的关系(感知基): $$ y=\begin{Bmatrix} 1 & {\overrightarrow{x}\cdot \overrightarrow{w}+b>0}\ 0 & {\overrightarrow{x}\cdot \overrightarrow{w}+b\leqslant 0} \end{Bmatrix} $$ 这个模型由生活中而来,$\overrightarrow{x}…
2021/12/8 23:24:22 人评论 次浏览 -
用python学习微积分(四) 链式法则及高阶导数(下)- 链式法则
本文内容来自学习麻省理工学院公开课:单变量微积分-链式法则及高阶导数-网易公开课 一、公式推导 被引伸的问题,一个复合的函数如何求导?如: 可以添加中间变量t: ( 内部 ) ( 外部 ) 之所以可以这样做,是因为: 当 t->0 ,公式变为 先计算 再计算 所以 也可以写…
2021/12/4 22:47:22 人评论 次浏览 -
用python学习微积分(四) 链式法则及高阶导数(下)- 链式法则
本文内容来自学习麻省理工学院公开课:单变量微积分-链式法则及高阶导数-网易公开课 一、公式推导 被引伸的问题,一个复合的函数如何求导?如: 可以添加中间变量t: ( 内部 ) ( 外部 ) 之所以可以这样做,是因为: 当 t->0 ,公式变为 先计算 再计算 所以 也可以写…
2021/12/4 22:47:22 人评论 次浏览 -
李正元400题 -- 卷四
选择题 1.根据图像判断驻点、极值点、拐点 上来就是个错题,我是没想到的 注意f(x)即使无定义,但满足在其去心邻域变号也是拐点 难度: ⭐ 2. 凑导数定义 凑导数定义+ 奇函数求导是偶函数 难度: ⭐ 3. 级数收敛域概念与结论\(R_1\ne R_2时,R=min{R_1,R_2};\) \(R_1=R_2时,…
2021/11/13 23:10:53 人评论 次浏览 -
李正元400题 -- 卷四
选择题 1.根据图像判断驻点、极值点、拐点 上来就是个错题,我是没想到的 注意f(x)即使无定义,但满足在其去心邻域变号也是拐点 难度: ⭐ 2. 凑导数定义 凑导数定义+ 奇函数求导是偶函数 难度: ⭐ 3. 级数收敛域概念与结论\(R_1\ne R_2时,R=min{R_1,R_2};\) \(R_1=R_2时,…
2021/11/13 23:10:53 人评论 次浏览 -
22张宇八套卷(过关版) -- 卷一
选择题 1. 无穷小比阶 常见无穷小等价即可 难度:⭐ 2. 微分方程的几何应用 根据题意列出方程即可。 难度:⭐ 3.多元微分学驻点、极值点判断 满足fx=0且fy=0的点(x,y) 称为驻点; 无条件极值点:fxx fyy - (fxy)^2 >0 难度: ⭐ 4.二元微分方程特解形式 y + ay+by =…
2021/11/9 6:12:35 人评论 次浏览 -
22张宇八套卷(过关版) -- 卷一
选择题 1. 无穷小比阶 常见无穷小等价即可 难度:⭐ 2. 微分方程的几何应用 根据题意列出方程即可。 难度:⭐ 3.多元微分学驻点、极值点判断 满足fx=0且fy=0的点(x,y) 称为驻点; 无条件极值点:fxx fyy - (fxy)^2 >0 难度: ⭐ 4.二元微分方程特解形式 y + ay+by =…
2021/11/9 6:12:35 人评论 次浏览 -
第五部分:神经网络
chapter1 神经网络的表述 1.模型表示 基础神经元: X0=1 偏置、参数又可称为权重,激活函数sigmoid: 2.神经网络:关于层: 第一层为输入层,最后一 层为输出层,中间一层为隐藏层。我们为每一层都有一个偏差单位。 关于节点: ——代表第
2021/10/23 23:09:42 人评论 次浏览 -
第五部分:神经网络
chapter1 神经网络的表述 1.模型表示 基础神经元: X0=1 偏置、参数又可称为权重,激活函数sigmoid: 2.神经网络:关于层: 第一层为输入层,最后一 层为输出层,中间一层为隐藏层。我们为每一层都有一个偏差单位。 关于节点: ——代表第
2021/10/23 23:09:42 人评论 次浏览 -
自动微分原理与示例
自动微分原理与示例机器学习的同学在学习过程中会经常遇到一个问题,那就是对目标函数进行求微分,线性回归这类简单的就不说、复杂的如神经网络类那些求导过程。本文介绍了五种微分方式,最后两种才是自动微分。前两种方法求出了原函数对应的导函数,后三种方法只是求出了…
2021/10/13 6:44:22 人评论 次浏览 -
自动微分原理与示例
自动微分原理与示例机器学习的同学在学习过程中会经常遇到一个问题,那就是对目标函数进行求微分,线性回归这类简单的就不说、复杂的如神经网络类那些求导过程。本文介绍了五种微分方式,最后两种才是自动微分。前两种方法求出了原函数对应的导函数,后三种方法只是求出了…
2021/10/13 6:44:22 人评论 次浏览 -
反向传播算法之梯度下降
一、导数常见性质 1.基本函数的导数常数函数c导数为0,如
2021/10/6 22:10:59 人评论 次浏览 -
反向传播算法之梯度下降
一、导数常见性质 1.基本函数的导数常数函数c导数为0,如
2021/10/6 22:10:59 人评论 次浏览