- torch.chunk(tensor, chunks, dim=0)
-
在给定维度(轴)上将输入张量进行分块儿
直接用上面的数据来举个例子:
>>> l, m, n = x.chunk(3, 0) # 在 0 维上拆分成 3 份 >>> l.size(), m.size(), n.size() (torch.Size([1, 10, 6]), torch.Size([1, 10, 6]), torch.Size([1, 10, 6])) >>> u, v = x.chunk(2, 0) # 在 0 维上拆分成 2 份 >>> u.size(), v.size() (torch.Size([2, 10, 6]), torch.Size([1, 10, 6]))
把张量在 0 维度上拆分成 3 部分时,因为尺寸正好为 3,所以每个分块的间隔相等,都为 1。
把张量在 0 维度上拆分成 2 部分时,无法平均分配,以上面的结果来看,可以看成是,用 0 维度的尺寸除以需要拆分的份数,把余数作为最后一个分块的间隔大小,再把前面的分块以相同的间隔拆分。
在某一维度上拆分的份数不能比这一维度的尺寸大
详细解决方案
torch.chunk()
热度:115 发布时间:2023-10-01 03:39:32.0
相关解决方案
- Invalid chunk ignored解决方法
- torch 数据类型转换
- Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False
- torch.chunk()
- anaconda3 torch/_C.cpython-36m-x86_64-linux-gnu.so: undefined symbol: _Z11libshm_initPKc
- torch.Tensor与torch.tensor区别
- pytorch、torch、torchvision介绍
- torch.nn.utils.clip_grad_norm
- print(torch.cuda.is_available())返回False,nvcc --version正常,nvidia-smi报错的解决方法
- from torch.hub import HASH_REGEX ImportError: cannot import name ‘HASH_REGEX‘
- torch.jit.frontend.NotSupportedError 报错解决
- Torch load载入数据集的标准流程
- torch.topk()
- torch.load runtimeerror cuda error out of memory
- UnboundLocalError local variable torch referenced before assignment
- UserWarning: RNN module weights are not part of single contiguous chunk of memory
- 解决在arm2440休眠唤醒后出现大量类似** yaffs chunk 123 was not erased的问题
- torch.nn.Module类属性
- PyTorch——torch.Tensor与np.ndarray(NumPy)之间的类型转换
- with torch.no_grad()或@torch.no_grad() 用法
- VS2017 使用Libtorch 问题 torch.h
- torch.autograd.Variable(target.cuda(async=True)) ---用async调用cuda()出现 SyntaxError: invalid syntax
- Pytorch基础——torch.randperm
- Torch——masklect
- PyTorch:torch.Tensor.repeat()、expand()
- Pytorch出现RuntimeError: Input type (torch.cuda.FloatTensor) and weight type (torch.FloatTensor)