Tensorflow之梯度裁剪
2020/3/8 16:01:46
本文主要是介绍Tensorflow之梯度裁剪,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
tensorflow中的梯度计算和更新
为了解决深度学习中常见的梯度消失(gradient explosion)和梯度爆炸(gradients vanishing)问题,tensorflow
中所有的优化器tf.train.xxxOptimizer
都有两个方法:
compute_gradients
apply_gradients
compute_gradients
对于compute_gradients
方法,计算var_list中参数的梯度,使得loss变小。默认情况下,var_list为GraphKeys.TRAINABLE_VARIABLES
中的所有参数。
compute_gradients方法返回由多个(gradients, variable)
二元组组成的列表。
compute_gradients( loss, var_list=None, gate_gradients=GATE_OP, aggregation_method=None, colocate_gradients_with_ops=False, grad_loss=None )
apply_gradients
对于apply_gradients
方法,根据compute_gradients的返回结果对参数进行更新
apply_gradients( grads_and_vars, global_step=None, name=None )
梯度裁剪(Gradient Clipping)
tensorflow中裁剪梯度的几种方式
方法一tf.clip_by_value
def clip_by_value(t, clip_value_min, clip_value_max, name=None):
其中,t
为一个张量,clip_by_value返回一个与t的type相同、shape相同的张量,但是新tensor中的值被裁剪到了clip_value_min
和clip_value_max
之间。
方法二:tf.clip_by_global_norm
def clip_by_global_norm(t_list, clip_norm, use_norm=None, name=None):
其中,t_list
为A tuple or list of mixed Tensors
, IndexedSlices
, or None
。clip_norm
为clipping ratio,use_norm
指定global_norm,如果use_norm为None,则按global_norm = sqrt(sum([l2norm(t)**2 for t in t_list]))
计算global_norm。
最终,梯度的裁剪方式为
$$t\_list[i] \times \frac{clip\_norm}{max(global\_norm, clip\_norm)}$$
可知,如果clip_norm > global_norm, 则不对梯度进行裁剪,否则对梯度进行缩放。
scale = clip_norm * math_ops.minimum( 1.0 / use_norm, constant_op.constant(1.0, dtype=use_norm.dtype) / clip_norm)
方法的返回值为裁剪后的梯度列表list_clipped和global_norm
示例代码
optimizer = tf.train.AdamOptimizer(learning_rate) gradients, v = zip(*optimizer.compute_gradients(loss)) gradients, _ = tf.clip_by_global_norm(gradients, grad_clip) updates = optimizer.apply_gradients(zip(gradients, v),global_step=global_step)
方法三tf.clip_by_average_norm
def clip_by_average_norm(t, clip_norm, name=None):
t
为张量,clip_norm
为maximum clipping value
裁剪方式如下,
$$ t \times \frac{clip\_norm}{max(avg\_norm, clip\_norm)}$$
其中,avg_norm=l2norm_avg(t)
方法四:tf.clip_by_norm
def clip_by_norm(t, clip_norm, axes=None, name=None):
t
为张量,clip_norm
为maximum clipping value
裁剪方式为
$$t \times \frac{clip\_norm}{l2norm(t)}$$
示例代码
optimizer = tf.train.AdamOptimizer(learning_rate, beta1=0.5) grads = optimizer.compute_gradients(cost) for i, (g, v) in enumerate(grads): if g is not None: grads[i] = (tf.clip_by_norm(g, 5), v) # clip gradients train_op = optimizer.apply_gradients(grads)
注意到,clip_by_value
、clib_by-avg_norm
和clip_by_norm
都是针对于单个张量的,而clip_by_global_norm
可用于多个张量组成的列表。
这篇关于Tensorflow之梯度裁剪的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-01-23供应链投毒预警 | 恶意Py包仿冒tensorflow AI框架实施后门投毒攻击
- 2024-01-19attributeerror: module 'tensorflow' has no attribute 'placeholder'
- 2024-01-19module 'tensorflow.compat.v2' has no attribute 'internal'
- 2023-07-17【2023年】第33天 Neural Networks and Deep Learning with TensorFlow
- 2023-07-10【2023年】第32天 Boosted Trees with TensorFlow 2.0(随机森林)
- 2023-07-09【2023年】第31天 Logistic Regression with TensorFlow 2.0(用TensorFlow进行逻辑回归)
- 2023-07-01【2023年】第30天 Supervised Learning with TensorFlow 2(用TensorFlow进行监督学习 2)
- 2023-06-18【2023年】第29天 Supervised Learning with TensorFlow 1(用TensorFlow进行监督学习 1)
- 2023-06-17【2023年】第28天 tensorflow的介绍
- 2023-05-16如何在 Windows10 下运行 Tensorflow 的目标检测?