搜索结果
查询Tags标签: sigmoid,共有 19条记录-
神经网络——浅浅的做个笔记
有四个激活函数import matplotlib.pyplot as plt import numpy as npx = np.linspace(-10,10) y_sigmoid = 1/(1+np.exp(-x)) y_tanh = (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))fig = plt.figure()#plot sigmoid ax = fig.add_subplot(221) ax.plot(x,y_sigmoid) a…
2022/9/10 23:24:57 人评论 次浏览 -
机器学习---神经网络(Neural Network)
1. 神经网络的基本概念神经网络的分层:神经网络由输入层、隐藏层、输出层组成。 神经元之间的连接:层与层之间有神经元连接、而层内之间没有神经元连接。连接的神经元都有对应的权重。 输入层:负责接收输入的数据。 输出层:从这层获取神经网络输出数据。 隐藏层:输入…
2022/7/12 6:22:08 人评论 次浏览 -
李宏毅机器学习2022年学习笔记(一)
Introduction 1. 概念机器学习可以应用到很多场景中,例如语音识别、图像识别、AI智能下棋等。它的输入可以是一段声音信号/图片/物体之间的位置关系,数据类型例如:Vector、Matrix、Sequence等。之后通过机器学习寻找一种将输入进行转化为你想要的输出结果的方法,经过这…
2022/4/30 23:30:09 人评论 次浏览 -
了解深度学习(一)
一、logistic回归已知输入x,参数w和b,预测出y帽的值,以此来表示预测事件的概率。其中sigmoid函数为激活函数。 损失函数是在单个训练样本中定义的用以衡量算法的运行情况,用来表示预测值y帽与y实际值有多接近的函数,而成本函数是衡量算法在全体训练样本上的表现,一般…
2022/1/30 23:11:23 人评论 次浏览 -
MMDetection源码解析:Focal loss
Focal loss在文件.\mmdet\models\losses\focal_loss.py实现,代码如下:import torch import torch.nn as nn import torch.nn.functional as F from mmcv.ops import sigmoid_focal_loss as _sigmoid_focal_lossfrom ..builder import LOSSES from .utils import weight_r…
2022/1/29 17:05:25 人评论 次浏览 -
《深度学习入门:基于Python的理论与实现》读书笔记:第3章 神经网络
目录 第3章 神经网络 3.1 从感知机到神经网络 3.1.1 神经网络的例子 3.1.2 复习感知机 3.1.3 激活函数登场 3.2 激活函数 3.2.1 sigmoid函数 3.2.2 阶跃函数的实现 3.2.4 sigmoid函数的实现 3.2.5 sigmoid函数和阶跃函数的比较 3.2.6 非线性函数 3.2.7 ReLU函数3.3 多维数…
2022/1/26 17:05:37 人评论 次浏览 -
-人工神经元\激活函数
#--------------------------------|--------------------------------------------------------------------------#-为什么要激活函数: -线性变换无法扩展特征空间,得到的特征空间有限,线性的层只能学习到输入(输入空间)的线性变换(仿射变换)。 -非线性的激活函数能将…
2021/12/31 6:07:18 人评论 次浏览 -
-人工神经元\激活函数
#--------------------------------|--------------------------------------------------------------------------#-为什么要激活函数: -线性变换无法扩展特征空间,得到的特征空间有限,线性的层只能学习到输入(输入空间)的线性变换(仿射变换)。 -非线性的激活函数能将…
2021/12/31 6:07:18 人评论 次浏览 -
写算子单元测试Writing Unit Tests!
写算子单元测试Writing Unit Tests! 一些单元测试示例,可在tests/python/relay/test_op_level3.py中找到,用于累积总和与乘积算子。 梯度算子 梯度算子对于编写Relay中的可微程序非常重要。虽然Relay的autodiff算法可区分一流的语言结构,但算子是不透明的。Relay无法查…
2021/12/6 6:16:34 人评论 次浏览 -
写算子单元测试Writing Unit Tests!
写算子单元测试Writing Unit Tests! 一些单元测试示例,可在tests/python/relay/test_op_level3.py中找到,用于累积总和与乘积算子。 梯度算子 梯度算子对于编写Relay中的可微程序非常重要。虽然Relay的autodiff算法可区分一流的语言结构,但算子是不透明的。Relay无法查…
2021/12/6 6:16:34 人评论 次浏览 -
吴恩达机器学习编程作业ex3 Multi-class Classification
一、程序及函数 1.引导脚本ex3.m %% Machine Learning Online Class - Exercise 3 | Part 1: One-vs-all% Instructions % ------------ % % This file contains code that helps you get started on the % linear exercise. You will need to complete the following…
2021/10/16 1:14:42 人评论 次浏览 -
吴恩达机器学习编程作业ex3 Multi-class Classification
一、程序及函数 1.引导脚本ex3.m %% Machine Learning Online Class - Exercise 3 | Part 1: One-vs-all% Instructions % ------------ % % This file contains code that helps you get started on the % linear exercise. You will need to complete the following…
2021/10/16 1:14:42 人评论 次浏览 -
逻辑回归
逻辑回归 逻辑回归是分类模型,对于二分类模型来说,类别标签为0(否)和1(是)。所以逻辑回归的范围应限制在0-1之间。 显然线性回归模型应用到分类问题时不能达到这种效果,为了解决这个问题将回归函数作为输入x放到sigmoid函数中,使函数的值域在0-1之间。 sigmoid函数 …
2021/9/19 6:06:55 人评论 次浏览 -
逻辑回归
逻辑回归 逻辑回归是分类模型,对于二分类模型来说,类别标签为0(否)和1(是)。所以逻辑回归的范围应限制在0-1之间。 显然线性回归模型应用到分类问题时不能达到这种效果,为了解决这个问题将回归函数作为输入x放到sigmoid函数中,使函数的值域在0-1之间。 sigmoid函数 …
2021/9/19 6:06:55 人评论 次浏览 -
神经网络基础以及激活函数,以及梯度下降
1.神经网络分为三层:输入层,隐藏层以及输出层 2.a^[0]表示输入层,a^[1]表示隐藏层,a^[2]表示输出层,在隐藏层还要表示 则呈现a^[1]1,a^[1]2,a^[1]3 3.m个训练集向量化Z^[1] = W^[1]X+b A^[1] = 符号(Z^[1]) Z^[2] = W^[2]A^[1]+b^[2] a^[2] = 符号(Z^[2])#sigmoid()激…
2021/8/27 6:07:58 人评论 次浏览