搜索结果
查询Tags标签: 深度学习,共有 357条记录-
相比英文,中文命名实体的识别难在哪?又该如何解决?
假设你借助自然语言处理技术开发了一个能够从图片(例如纸质文档的扫描件)中提取重要文字(例如所涉及到的人名)的应用,面对 Tony、Lisa 之类英文名,应用很轻松就准确地识别了出来;可如果面对张三、李四这样的中文名,识别效果却总是不如意。这有可能是什么问题造成的…
2020/5/16 5:25:47 人评论 次浏览 -
相比英文,中文命名实体的识别难在哪?又该如何解决?
假设你借助自然语言处理技术开发了一个能够从图片(例如纸质文档的扫描件)中提取重要文字(例如所涉及到的人名)的应用,面对 Tony、Lisa 之类英文名,应用很轻松就准确地识别了出来;可如果面对张三、李四这样的中文名,识别效果却总是不如意。这有可能是什么问题造成的…
2020/5/15 21:25:42 人评论 次浏览 -
对抗样本攻击与防御,MindSpore是怎么做的?
5 月 7 日,机器之心联合华为昇腾学院开设的线上公开课《轻松上手开源框架MindSpore》第 5 课完成,刘志丹讲师为大家带来了主题分享《MindSpore模型健壮性评估工具》,第 5 课回顾视频如下:在第五课的 QA 环节中,有一些问题被大家广泛提到,刘志丹讲师再次做了精选与编…
2020/5/15 6:26:22 人评论 次浏览 -
TensorFlow有Tensorboard,MindSpore框架如何做可视化?
昇腾学院开设的线上公开课《轻松上手开源框架MindSpore》第 6 课完成,王越讲师为大家带来了主题分享《MindSpore可视化工具使用指南》,第 6 课回顾视频如下:www.bilibili.com/video/BV1et…第六课精选问答在第六课的QA环节中,有一些问题被大家广泛提到,王越讲师再次做…
2020/5/15 6:26:19 人评论 次浏览 -
深度残差网络+自适应参数化ReLU激活函数(调参记录10)
本文在调参记录9的基础上,在数据增强部分添加了shear_range = 30,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。 Keras里ImageDataGenerator的用法见如下网址:https://fairyonice.github.io/... 深度残差网络+自适应参数化ReLU激活函数(…
2020/5/12 16:26:44 人评论 次浏览 -
深度残差网络+自适应参数化ReLU激活函数(调参记录11)
本文在调参记录10的基础上,将残差模块的数量从27个增加到60个,测试采用Adaptively Parametric ReLU(APReLU)激活函数的深度残差网络,在Cifar10图像集上的效果。 Keras程序如下: #!/usr/bin/env python3 # -*- coding: utf-8 -*- """ Created on Tue …
2020/5/12 16:26:43 人评论 次浏览 -
深度残差网络+自适应参数化ReLU激活函数(调参记录15)
在调参记录14里,只有2个残差模块,结果遭遇欠拟合了。这次增加一个残差模块试试。 自适应参数化ReLU激活函数的基本原理如下: Keras程序如下: #!/usr/bin/env python3 # -*- coding: utf-8 -*- """ Created on Tue Apr 14 04:17:45 2020 Implemented us…
2020/5/12 16:26:42 人评论 次浏览 -
深度残差网络+自适应参数化ReLU激活函数(调参记录16)
在调参记录15的基础上,将第一个残差模块的卷积核数量,从16个增加到32个,同时将自适应参数化ReLU激活函数中第一个全连接层的神经元个数改成原先的1/16,继续测试其在Cifar10数据集上的效果。 自适应参数化ReLU激活函数的基本原理如下: Keras程序: #!/usr/bin/env pyt…
2020/5/12 16:26:41 人评论 次浏览 -
深度残差网络+自适应参数化ReLU激活函数(调参记录17)
在调参记录16的基础上,增加了两个残差模块,继续测试其在Cifar10数据集上的效果。 自适应参数化ReLU激活函数的基本原理如下: Keras程序: #!/usr/bin/env python3 # -*- coding: utf-8 -*- """ Created on Tue Apr 14 04:17:45 2020 Implemented using …
2020/5/12 16:26:39 人评论 次浏览 -
深度残差网络+自适应参数化ReLU激活函数(调参记录18)Cifar10~94.28%
本文将残差模块的数量增加到27个。其实之前也这样做过,现在的区别在于,自适应参数化ReLU激活函数中第一个全连接层中的神经元个数设置成了特征通道数量的1/16。同样是在Cifar10数据集上进行测试。 自适应参数化ReLU激活函数的基本原理如下: Keras代码如下: #!/usr/bin…
2020/5/12 16:26:38 人评论 次浏览 -
深度残差网络+自适应参数化ReLU激活函数(调参记录19)Cifar10~93.96%
由于调参记录18依然存在过拟合,本文将自适应参数化ReLU激活函数中最后一层的神经元个数减少为1个,继续测试深度残差网络+自适应参数化ReLU激活函数在Cifar10数据集上的效果。 同时,迭代次数从调参记录18中的5000个epoch,减少到了500个epoch,因为5000次实在是太费时间…
2020/5/12 16:26:37 人评论 次浏览 -
被吹的神乎其神的Python到底都能干什么
1. 前言 最近几年 Python 被吹的神乎其神,很多同学都不清楚 Python 到底能干什么就盲目去学习 Python,今天小胖哥就 Python 的应用领域来简单盘点一下,让想学习Python 的同学找对方向不迷茫。 2. Python 的特点 这里就谈谈自己的看法,首先 Python是跨平台语言,语法很简…
2020/5/12 14:26:49 人评论 次浏览 -
跟你深入剖析可迭代对象和迭代器的区别与联系
导语 可迭代对象和迭代器是经常碰到但又很容易混淆的两个概念,所以今天小编跟大家深入剖析一下可迭代对象和迭代器的区别。认真看完本文,你将收获:理解什么是可迭代对象 理解检查可迭代对象的方法 理解什么是迭代器 可迭代对象和迭代器的关系事不宜迟,我们马上开始吧…
2020/5/12 14:26:46 人评论 次浏览 -
FreeAnchor:抛弃单一的IoU匹配,更自由的anchor匹配方法 | NIPS 2019
论文抛弃以往根据IoU硬性指定anchor和GT匹配关系的方法,提出FreeAnchor方法来进行更自由的匹配,该方法将目标检测的训练定义为最大似然估计(MLE)过程,端到端地同时学习目标分类、目标检测以及匹配关系,从实验来看,效果十分显著来源:晓飞的算法工程笔记 公众号论文: …
2020/5/12 6:26:26 人评论 次浏览 -
深度残差网络+自适应参数化ReLU激活函数(调参记录8)
续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录7)https://blog.csdn.net/dangqin...本文将层数设置得很少,只有两个残差模块,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。 Keras代码如下: #!/usr/bin/env python3 # -*- …
2020/5/11 21:26:34 人评论 次浏览