- TensorFlow简介
- TensorFlow安装
- 人工智能简介
- TensorFlow数学基础
- 机器学习和深度学习
- TensorFlow基础
- TensorFlow卷积神经网络
- TensorFlow递归神经网络
- TensorFlow TensorBoard可视化
- TensorFlow单词嵌入
- TensorFlow单层感知
- TensorFlow线性回归
- TensorFlow TFLearn安装和使用
- TensorFlow CNN和RNN区别
- TensorFlow Keras
- TensorFlow分布式计算
- TensorFlow导出
- TensorFlow多层感知器学习
- TensorFlow感知器隐藏层
- TensorFlow优化器
- TensorFlow XOR实现
- TensorFlow梯度下降优化
- TensorFlow成型图表
- TensorFlow识别图像
- 神经网络训练的建议
TensorFlow优化器
优化器是扩展类,其中包括用于训练特定模型的附加信息。优化器类使用给定的参数进行初始化,但重要的是要记住不需要Tensor
。优化器用于提高训练特定模型的速度和性能。
TensorFlow的基本优化器是 -
tf.train.Optimizer
此类在tensorflow/python/training/optimizer.py
路径中定义。
以下是Tensorflow中的一些优化器 -
- 随机梯度下降
- 随机梯度下降与梯度剪裁
- 动量
- Nesterov动量
- Adagrad
- Adadelta
- RMSProp
- Adam
- Adamax
- SMORMS3
这里我们将专注于介绍随机梯度下降,下面是创建优化器的代码 -
def sgd(cost, params, lr = np.float32(0.01)): g_params = tf.gradients(cost, params) updates = [] for param, g_param in zip(params, g_params): updates.append(param.assign(param - lr*g_param)) return updates
基本参数在特定功能中定义。在随后的章节中,将重点介绍梯度下降优化以及优化器的实现。
上一篇:TensorFlow感知器隐藏层
下一篇:TensorFlow XOR实现
关注微信小程序
扫描二维码
程序员编程王