网站首页 站内搜索

搜索结果

查询Tags标签: frac,共有 422条记录
  • 杜教筛

    杜教筛作用:用来求积性函数前缀和,时间复杂度为\(O(n^\frac{2}{3})\)积性函数 若对于函数 \(f(x)\) 满足 \(f(x)=f(a)*f(b)\) ,其中 \(x=a*b\) 且 \(gcd(a,b)=1\),那么 \(f(x)\) 为积性函数。 常见积性函数:\(\mu()\) ——莫比乌斯函数。 \(\phi()\) ——欧拉函数。\…

    2021/10/6 23:13:28 人评论 次浏览
  • 【题解】CF1408I Bitwise Magic

    求最后修正的异或和就行,考虑每个位置最后被操作的次数: \[F(x,y)=\prod_{i=1}^{n}\left(\sum_{j=0}^{k}\frac{x^j}{j!}y^{a_i\oplus (a_{i}-j)}\right) \]这里从 \(a_i\oplus (a_i-j)\) 考虑。具体地考虑 \(\left\{x\oplus (x-1),x\oplus (x-2),\cdots, x\oplus (x-k)\…

    2021/10/6 23:13:13 人评论 次浏览
  • 【题解】CF1408I Bitwise Magic

    求最后修正的异或和就行,考虑每个位置最后被操作的次数: \[F(x,y)=\prod_{i=1}^{n}\left(\sum_{j=0}^{k}\frac{x^j}{j!}y^{a_i\oplus (a_{i}-j)}\right) \]这里从 \(a_i\oplus (a_i-j)\) 考虑。具体地考虑 \(\left\{x\oplus (x-1),x\oplus (x-2),\cdots, x\oplus (x-k)\…

    2021/10/6 23:13:13 人评论 次浏览
  • 反向传播算法之梯度下降

    一、导数常见性质 1.基本函数的导数常数函数c导数为0,如

    2021/10/6 22:10:59 人评论 次浏览
  • 反向传播算法之梯度下降

    一、导数常见性质 1.基本函数的导数常数函数c导数为0,如

    2021/10/6 22:10:59 人评论 次浏览
  • 势能函数和鞅的停时定理

    势能函数和鞅的停时定理 考虑随机事件序列 \(\{A_0,A_1,\cdots \}\) ,随机变量 \(T\) 为它的停时。我们希望求出 \(E(T)\) ,但一般来说较为困难,因此我们考虑构造一个势能函数 \(\Phi(A)\) ,满足:\(\Phi(A_{i})<\infty\) ; \(E(\Phi(A_{i+1})-\Phi(A_i))=-1\) 。…

    2021/10/4 6:13:15 人评论 次浏览
  • 势能函数和鞅的停时定理

    势能函数和鞅的停时定理 考虑随机事件序列 \(\{A_0,A_1,\cdots \}\) ,随机变量 \(T\) 为它的停时。我们希望求出 \(E(T)\) ,但一般来说较为困难,因此我们考虑构造一个势能函数 \(\Phi(A)\) ,满足:\(\Phi(A_{i})<\infty\) ; \(E(\Phi(A_{i+1})-\Phi(A_i))=-1\) 。…

    2021/10/4 6:13:15 人评论 次浏览
  • 神经网络与误差反向传播

    目录1 神经网络1.1 神经元1.2 前馈网络1.3 梯度下降1.4 误差反向传播 1 神经网络 大量结构简单的、功能接近的神经元节点按一定体系架构连接成的模拟大脑结构的网状结构。用于分类、模式识别、连续值预测。建立输入与输出的映射关系. 1.1 神经元 生物神经元之间相互连接,…

    2021/10/3 6:13:44 人评论 次浏览
  • 神经网络与误差反向传播

    目录1 神经网络1.1 神经元1.2 前馈网络1.3 梯度下降1.4 误差反向传播 1 神经网络 大量结构简单的、功能接近的神经元节点按一定体系架构连接成的模拟大脑结构的网状结构。用于分类、模式识别、连续值预测。建立输入与输出的映射关系. 1.1 神经元 生物神经元之间相互连接,…

    2021/10/3 6:13:44 人评论 次浏览
  • [atAGC054E]ZigZag Break

    结论:(不妨假设$p_{1}<p_{n}$)$\{p_{i}\}$合法当且仅当$\exists 1\le i\le n-1$,使得$p_{1}\ge p_{i}$且$p_{i+1}\ge p_{n}$充分性—— 为了方便,在删除一个元素后,$i$和$n$也随之变化(指向原来的元素,若删除$p_{i}$或$p_{n}$会补充说明) 对$\{p_{1},p_{2},..…

    2021/10/2 23:14:32 人评论 次浏览
  • [atAGC054E]ZigZag Break

    结论:(不妨假设$p_{1}<p_{n}$)$\{p_{i}\}$合法当且仅当$\exists 1\le i\le n-1$,使得$p_{1}\ge p_{i}$且$p_{i+1}\ge p_{n}$充分性—— 为了方便,在删除一个元素后,$i$和$n$也随之变化(指向原来的元素,若删除$p_{i}$或$p_{n}$会补充说明) 对$\{p_{1},p_{2},..…

    2021/10/2 23:14:32 人评论 次浏览
  • 神经网络反向传播算法公式推导

    规定\(y_{ij}\)为第\(i\)层网络第\(j\)个神经元的输出. \(t_i\)为输出层第\(i\)个输出. \(n_i\)为第\(i\)层网络的神经元数量. 激活函数\(\sigma(x)=Sigmod(x)=\frac{1}{1+e^{-x}}\),因此\(\frac{\partial \sigma(x)}{\partial x}=\sigma(x)[1-\sigma(x)]\). \(E\)代表误…

    2021/10/1 20:12:04 人评论 次浏览
  • 神经网络反向传播算法公式推导

    规定\(y_{ij}\)为第\(i\)层网络第\(j\)个神经元的输出. \(t_i\)为输出层第\(i\)个输出. \(n_i\)为第\(i\)层网络的神经元数量. 激活函数\(\sigma(x)=Sigmod(x)=\frac{1}{1+e^{-x}}\),因此\(\frac{\partial \sigma(x)}{\partial x}=\sigma(x)[1-\sigma(x)]\). \(E\)代表误…

    2021/10/1 20:12:04 人评论 次浏览
  • 感知器算法的公式推导及代码实现

    公式推导 \(L_{i}=(\sigma(\Sigma_{j=0}^{2}x^{i}_{j}\omega_{j})-t_{i})^{2}\). \(\nabla_{i}=\frac{dL}{d\omega_{i}}=2(\sigma(\Sigma_{j=0}^{2}x^{i}_{j}\omega_{j})-t_{i})\sigma(\Sigma_{j=0}^{2}x^{i}_{j}\omega_{j})(1-\sigma(\Sigma_{j=0}^{2}x^{i}_{j}\omega_{j…

    2021/10/1 20:11:43 人评论 次浏览
  • 感知器算法的公式推导及代码实现

    公式推导 \(L_{i}=(\sigma(\Sigma_{j=0}^{2}x^{i}_{j}\omega_{j})-t_{i})^{2}\). \(\nabla_{i}=\frac{dL}{d\omega_{i}}=2(\sigma(\Sigma_{j=0}^{2}x^{i}_{j}\omega_{j})-t_{i})\sigma(\Sigma_{j=0}^{2}x^{i}_{j}\omega_{j})(1-\sigma(\Sigma_{j=0}^{2}x^{i}_{j}\omega_{j…

    2021/10/1 20:11:43 人评论 次浏览
扫一扫关注最新编程教程