pytorch梯度裁剪的原理是什么-成都创新互联网站建设

关于创新互联

多方位宣传企业产品与服务 突出企业形象

公司简介 公司的服务 荣誉资质 新闻动态 联系我们

pytorch梯度裁剪的原理是什么

本篇内容主要讲解“pytorch梯度裁剪的原理是什么”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“pytorch梯度裁剪的原理是什么”吧!

创新互联公司公司2013年成立,是专业互联网技术服务公司,拥有项目成都网站设计、成都网站制作网站策划,项目实施与项目整合能力。我们以让每一个梦想脱颖而出为使命,1280元宝安做网站,已为上家服务,为宝安各地企业和个人服务,联系电话:18982081108

既然在BP过程中会产生梯度消失/爆炸(就是偏导无限接近0,导致长时记忆无法更新),那么最简单粗暴的方法,设定阈值,当梯度小于/大于阈值时,更新的梯度为阈值,如下图所示:

1、梯度裁剪原理

pytorch梯度裁剪的原理是什么

优点:简单粗暴
缺点:很难找到满意的阈值

2、nn.utils.clip_grad_norm(parameters, max_norm, norm_type=2)

这个函数是根据参数的范数来衡量的

Parameters:

    • parameters(Iterable[Variable]) – 一个基于变量的迭代器,会进行归一化(原文:an iterable of Variables that will have gradients normalized)

    • max_norm(float or int) – 梯度的最大范数

    • norm_type(float or int) – 规定范数的类型,默认为L2

Returns:参数的总体范数(作为单个向量来看)

到此,相信大家对“pytorch梯度裁剪的原理是什么”有了更深的了解,不妨来实际操作一番吧!这里是创新互联网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!


本文题目:pytorch梯度裁剪的原理是什么
当前URL:http://kswsj.cn/article/pcdsoe.html

其他资讯