不含模型参数的自定义层
先介绍如何定义一个不含模型参数的自定义层。事实上,这和4.1节(模型构造)中介绍的使用Module
类构造模型类似。下面的CenteredLayer
类通过继承Module
类自定义了一个将输入减掉均值后输出的层,并将层的计算定义在了forward
函数里。这个层里不含模型参数。
1 2 3 4 5 6 7 8
| import torch from torch import nn
class CenteredLayer(nn.Module): def __init__(self, **kwargs): super(CenteredLayer, self).__init__(**kwargs) def forward(self, x): return x - x.mean()
|
可以实例化这个层,然后做前向计算。
1 2
| layer = CenteredLayer() layer(torch.tensor([1, 2, 3, 4, 5], dtype=torch.float))
|
输出:
1
| tensor([-2., -1., 0., 1., 2.])
|
也可以用它来构造更复杂的模型。
1
| net = nn.Sequential(nn.Linear(8, 128), CenteredLayer())
|
下面打印自定义层各个输出的均值。因为均值是浮点数,所以它的值是一个很接近0的数。
1 2
| y = net(torch.rand(4, 8)) y.mean().item()
|
输出:
含模型参数的自定义层
还可以自定义含模型参数的自定义层。其中的模型参数可以通过训练学出。
在4.2节(模型参数的访问、初始化和共享)中介绍了Parameter
类其实是Tensor
的子类,如果一个Tensor
是Parameter
,那么它会自动被添加到模型的参数列表里。所以在自定义含模型参数的层时,应该将参数定义成Parameter
,除了像4.2.1节那样直接定义成Parameter
类外,还可以使用ParameterList
和ParameterDict
分别定义参数的列表和字典。
ParameterList
接收一个Parameter
实例的列表作为输入然后得到一个参数列表,使用的时候可以用索引来访问某个参数,另外也可以使用append
和extend
在列表后面新增参数。
1 2 3 4 5 6 7 8 9 10 11 12
| class MyDense(nn.Module): def __init__(self): super(MyDense, self).__init__() self.params = nn.ParameterList([nn.Parameter(torch.randn(4, 4)) for i in range(3)]) self.params.append(nn.Parameter(torch.randn(4, 1)))
def forward(self, x): for i in range(len(self.params)): x = torch.mm(x, self.params[i]) return x net = MyDense() print(net)
|
输出:
1 2 3 4 5 6 7 8
| MyDense( (params): ParameterList( (0): Parameter containing: [torch.FloatTensor of size 4x4] (1): Parameter containing: [torch.FloatTensor of size 4x4] (2): Parameter containing: [torch.FloatTensor of size 4x4] (3): Parameter containing: [torch.FloatTensor of size 4x1] ) )
|
而ParameterDict
接收一个Parameter
实例的字典作为输入然后得到一个参数字典,然后可以按照字典的规则使用了。例如使用update()
新增参数,使用keys()
返回所有键值,使用items()
返回所有键值对等等,可参考官方文档。
1 2 3 4 5 6 7 8 9 10 11 12 13 14
| class MyDictDense(nn.Module): def __init__(self): super(MyDictDense, self).__init__() self.params = nn.ParameterDict({ 'linear1': nn.Parameter(torch.randn(4, 4)), 'linear2': nn.Parameter(torch.randn(4, 1)) }) self.params.update({'linear3': nn.Parameter(torch.randn(4, 2))})
def forward(self, x, choice='linear1'): return torch.mm(x, self.params[choice])
net = MyDictDense() print(net)
|
输出:
1 2 3 4 5 6 7
| MyDictDense( (params): ParameterDict( (linear1): Parameter containing: [torch.FloatTensor of size 4x4] (linear2): Parameter containing: [torch.FloatTensor of size 4x1] (linear3): Parameter containing: [torch.FloatTensor of size 4x2] ) )
|
这样就可以根据传入的键值来进行不同的前向传播:
1 2 3 4
| x = torch.ones(1, 4) print(net(x, 'linear1')) print(net(x, 'linear2')) print(net(x, 'linear3'))
|
输出:
1 2 3
| tensor([[1.5082, 1.5574, 2.1651, 1.2409]], grad_fn=<MmBackward>) tensor([[-0.8783]], grad_fn=<MmBackward>) tensor([[ 2.2193, -1.6539]], grad_fn=<MmBackward>)
|
也可以使用自定义层构造模型。它和PyTorch的其他层在使用上很类似。
1 2 3 4 5 6
| net = nn.Sequential( MyDictDense(), MyListDense(), ) print(net) print(net(x))
|
输出:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
| Sequential( (0): MyDictDense( (params): ParameterDict( (linear1): Parameter containing: [torch.FloatTensor of size 4x4] (linear2): Parameter containing: [torch.FloatTensor of size 4x1] (linear3): Parameter containing: [torch.FloatTensor of size 4x2] ) ) (1): MyListDense( (params): ParameterList( (0): Parameter containing: [torch.FloatTensor of size 4x4] (1): Parameter containing: [torch.FloatTensor of size 4x4] (2): Parameter containing: [torch.FloatTensor of size 4x4] (3): Parameter containing: [torch.FloatTensor of size 4x1] ) ) ) tensor([[-101.2394]], grad_fn=<MmBackward>)
|