PyTorch | 0.3到0.4不完整迁移手册

一 写在前面

未经允许,不得转载,谢谢~

pytorch发布了0.4版本,跟0.3相比还是有挺多不同的,所以学习了一下官网的资料,然后在这里做一个内容的整理与记录。方便规范自己以后的代码,也便于大家参考。ヾ(◍°∇°◍)ノ゙

这里我只挑了我觉得重要的或者目前有用的东西整理,没有把所有的东西都写在这里,要看完整版的可以文章拉到底点击参考资料~

二 核心变换

2.1 主要改变

  • TensorVariable合并
  • 有些操作现在可以返回0维张量(scalar)
  • 抑制了volatile标志位

1 合并Tensor和Variable类

这是我觉得最大最重要的一点改变了。

  • torch.autograd.Variabletorch.Tensor现在是同一个类.
  • 更准确的说是torch.Tensor包括了Variable,所以我们都称之为Tensor好了。
  • Variable还能像以前一样工作,但是返回的类型是torch.Tensor
  • 这样也就意味着你没必要在代码中用Variable将变量包装起来了。

2 获取Tensor 类型的函数变了

  • 原来是:type(x)
  • 现在是: x.type()
  • 还有isinstance()函数的用法具体如下:
```source-python
>>> x = torch.DoubleTensor([1, 1, 1])
>>> print(type(x)) # was torch.DoubleTensor
<class 'torch.autograd.variable.Variable'>
>>> print(x.type())  # OK: 'torch.DoubleTensor'
'torch.DoubleTensor'
>>> print(isinstance(x, torch.DoubleTensor))  # OK: True
True

3 关于自动求梯度用法的变迁

  • 自动求梯度requires_grad现在是Tensor的属性。
  • 具体的使用可以见这个例子:
```source-python
>>> x = torch.ones(1)  # create a tensor with requires_grad=False (default)
>>> x.requires_grad
False
>>> y = torch.ones(1)  # another tensor with requires_grad=False
>>> z = x + y
>>> # both inputs have requires_grad=False. so does the output
>>> z.requires_grad
False
>>> # then autograd won't track this computation. let's verify!
>>> z.backward()
RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn
>>>
>>> # now create a tensor with requires_grad=True
>>> w = torch.ones(1, requires_grad=True)
>>> w.requires_grad
True
>>> # add to the previous result that has require_grad=False
>>> total = w + z
>>> # the total sum now requires grad!
>>> total.requires_grad
True
>>> # autograd can compute the gradients as well
>>> total.backward()
>>> w.grad
tensor([ 1.])
>>> # and no computation is wasted to compute gradients for x, y and z, which don't require grad
>>> z.grad == x.grad == y.grad == None
True

如上所示,我们可以得到如下信息:

  • 默认情况创建的张量不需要梯度;
  • 所有的输入inputs都不需要张量,那么输出也不需要计算梯度;
  • 当我们希望创建的张量自动计算梯度时,在定义的时候加上requires_grad=True
  • 当输入inputs中的有一个需要梯度时,那么输出也会自动计算梯度
  • 但是其他不在定义的时候不需要计算梯度的张量在反向传播及求梯度的时候就不再计算这些张量的梯度了;

除了在定义的时候指定变量需要计算梯度外,也可以用函数requires_grad_()来对已经存在的张量设置requires_grad属性。

```source-python
>>> existing_tensor.requires_grad_()
>>> existing_tensor.requires_grad
True
>>> my_tensor = torch.zeros(3, 4, requires_grad=True)
>>> my_tensor.requires_grad
True

4 关于.data

  • 之前是用.data来获取Variable中的Tensor
  • 合并以后也有类似的用法,y=x.data,y会是一个跟x数据一样的新张量,默认不计算梯度。
  • 某些情况下,使用.data会比较不安全。因为所有在x.data中出现的变换就不再被autugrad记录了,在反向传播计算梯度的时候可能就会出错。
  • 比较安全的方式是使用x.detach(),虽然返回的还是没是不计算梯度的张量,但是这个张量所作的in-place变换还是会被autograd自动记录到。

5. 开始支持0维标量

  • 以前pytorch会将标量都扩展成1维的张量(1,)
  • 现在开始支持标量的存在了。
  • 具体的标量使用方法以及向量vector使用方法都如下所示:
```source-python
>>> torch.tensor(3.1416)         # create a scalar directly
tensor(3.1416)
>>> torch.tensor(3.1416).size()  # scalar is 0-dimensional
torch.Size([])
>>> torch.tensor([3]).size()     # compare to a vector of size 1
torch.Size([1])
>>>
>>> vector = torch.arange(2, 6)  # this is a vector
>>> vector
tensor([ 2.,  3.,  4.,  5.])
>>> vector.size()
torch.Size([4])
>>> vector[3]                    # indexing into a vector gives a scalar
tensor(5.)
>>> vector[3].item()             # .item() gives the value as a Python number
5.0
>>> sum = torch.tensor([2, 3]).sum()
>>> sum
tensor(5)
>>> sum.size()
torch.Size([])

所以以后在神经网络中计算损失的时候要将原来的total_loss += loss.data[0]改成total_loss += loss.item()

6. 限制了volatile标志位的使用

  • 原来用在Variable中使用volatile=True会让autograd不再计算梯度值。
  • 现在这个标志位被限制了,即使用了也没有作用。
  • pytorch用了更加灵活的方式来代替,具体的使用方法如下所示:
```source-python
>>> x = torch.zeros(1, requires_grad=True)
>>> with torch.no_grad():
...     y = x * 2
>>> y.requires_grad
False
>>>
>>> is_train = False
>>> with torch.set_grad_enabled(is_train):
...     y = x * 2
>>> y.requires_grad
False
>>> torch.set_grad_enabled(True)  # this can also be used as a function
>>> y = x * 2
>>> y.requires_grad
True
>>> torch.set_grad_enabled(False)
>>> y = x * 2
>>> y.requires_grad
False

emmmm,把最主要的几个变换整理了,还有一些没有包括进来,感兴趣的大家还是戳底部看原文吧,也没有什么特别需要讲的东西,纯粹的翻译好像有点太浪费时间了~

参考资料

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,716评论 4 364
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,558评论 1 294
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,431评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,127评论 0 209
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,511评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,692评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,915评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,664评论 0 202
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,412评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,616评论 2 245
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,105评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,424评论 2 254
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,098评论 3 238
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,096评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,869评论 0 197
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,748评论 2 276
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,641评论 2 271