深度学习
2021/4/25 18:25:29
本文主要是介绍深度学习,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
深度学习介绍
1.神经网络是分布的,一般分为输入层,隐藏层,输出层。每层有多个神经元,隐藏层可以有很多层。
2.激活函数F。神经元的输入X权重,然后再加上偏差值。其得到的结果做为激活函数的参数,最总的结果就是神经元的输出。
3.常见的激活函数是S型的,或者是线性的。其中最常用的是S型的。它看起来就是一个Y(-1,1)中心对称的一个函数曲线。逼近但不相交。
4.如果我们知道想要的输出,则这种神经网络的学习算法称为监督学习。
5.在学习的过程中,输入模式被赋网络的输入层,最初所有权重被设为随机数,发送到网络中检查输出的结果。如果结果是错误的,就重新调整权重带到正确的输出(迭代过程),这个算法被称为反向传播。
卷积神经网络
1.深度学习的神经网络与经典的神经网络具有相同的背景,他们最主要的区别在于输入层。
1)经典的神经网络需要提供具体的特征作为输入层。例如面积,周长,行数等。
2)深度学习中就不必探索特征是什么,直接用整个图像作为输入。深度神经网络(DNN)可以自己检测并识别特征。
2.卷积层。就是一个卷积运算,应用于整个前一层,为我们提供了一个新的过滤对象。
1)卷积层中可以定义不同的参数,例如卷积核的数量,图像尺寸。
2)这些参数就像神经网络中的权重一样。它可以标记图像中提取最重要的特征。
3)假如一个100X100的图像,在深度学习中,通常一开始的卷积层就有3X3大小的64个卷积核。这就会生成100X100X64个神经元,以及3X3
这篇关于深度学习的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-06-26结对编程到底难不难?答案在这里
- 2024-06-19《2023版Java工程师》课程升级公告
- 2024-06-15matplotlib作图不显示3D图,怎么办?
- 2024-06-1503-Loki 日志监控
- 2024-06-1504-让LLM理解知识 -Prompt
- 2024-06-05做软件测试需要懂代码吗?
- 2024-06-0514-ShardingSphere的分布式主键实现
- 2024-06-03为什么以及如何要进行架构设计权衡?
- 2024-05-31全网首发第二弹!软考2024年5月《软件设计师》真题+解析+答案!(11-20题)
- 2024-05-31全网首发!软考2024年5月《软件设计师》真题+解析+答案!(21-30题)