当前位置: 代码迷 >> 综合 >> PyTorch repeat() 函数
  详细解决方案

PyTorch repeat() 函数

热度:69   发布时间:2023-11-25 15:37:28.0

文章目录

  • 1.官方讲解
  • 2.例子
      • 2.1.repeat dims的维度与 tensor 维度相同
      • 2.2.repeat dims的维度大于 tensor 维度

1.官方讲解

Tensor.repeat(*sizes) → [Tensor]

tensor 沿着指定维度复制。不同于 expand(),该函数复制了 tensor 的数据,而不是只返回 tensor 的一个视图。关于 expand() ,详情可见 PyTorch expand() 函数_长命百岁?的博客-CSDN博客

参数:

sizes (torch.Size or int...) – 沿着每一维复制的次数

注意:

repeat dims 的维度不能小于 tensor 的维度(可以大于)。

2.例子

2.1.repeat dims的维度与 tensor 维度相同

a = torch.rand(2, 3)
b = a.repeat(2, 2)
print(a)
print(b)
print(b.shape)
>>tensor([[0.0757, 0.3003, 0.9648],[0.1594, 0.8253, 0.1031]])
>>tensor([[0.0757, 0.3003, 0.9648, 0.0757, 0.3003, 0.9648],[0.1594, 0.8253, 0.1031, 0.1594, 0.8253, 0.1031],[0.0757, 0.3003, 0.9648, 0.0757, 0.3003, 0.9648],[0.1594, 0.8253, 0.1031, 0.1594, 0.8253, 0.1031]])
>>torch.Size([4, 6])

可见。b 的维度变成了 Size([4, 6]),两个维度的大小都变成原来的两倍

print(a.storage().data_ptr())
print(b.storage().data_ptr())
>>94149111617984
>>94149109116160

可见 ab 并不共用一个存储区,也就说明了 repeat 函数是进行数据的复制,而不是返回一个 view

2.2.repeat dims的维度大于 tensor 维度

a = torch.rand(2, 3)
b = a.repeat(2, 2, 2)
print(a)
print(b)
print(b.shape)
>>tensor([[0.8346, 0.2550, 0.8920],[0.1972, 0.1876, 0.6154]])
>>tensor([[[0.8346, 0.2550, 0.8920, 0.8346, 0.2550, 0.8920],[0.1972, 0.1876, 0.6154, 0.1972, 0.1876, 0.6154],[0.8346, 0.2550, 0.8920, 0.8346, 0.2550, 0.8920],[0.1972, 0.1876, 0.6154, 0.1972, 0.1876, 0.6154]],[[0.8346, 0.2550, 0.8920, 0.8346, 0.2550, 0.8920],[0.1972, 0.1876, 0.6154, 0.1972, 0.1876, 0.6154],[0.8346, 0.2550, 0.8920, 0.8346, 0.2550, 0.8920],[0.1972, 0.1876, 0.6154, 0.1972, 0.1876, 0.6154]]])
>>torch.Size([2, 4, 6])

可见,repeat 默认后面的维度是用来复制原 tensor 的 ,如果参数更多的话,会在前面增加维度。(因为不能在后面增加维度,后面都没有数据,复制谁呢?)在前面增加维度,就可以复制该维度后面的数据。