摘要
本发明涉及神经网络处理器NPU,具体涉及一种基于深度学习加速核的缩放算子计算方法,将输入张量的每个通道的二维特征向量展开成一维特征向量作为矩阵A的行,将输入张量的通道数C作为矩阵A的行数,将输入张量的每个通道的特征数H*W作为矩阵A的列数;根据输入张量的尺寸和输出张量的目标尺寸确定矩阵B的尺寸,将矩阵A的列数H*W作为矩阵B的行数,将输出张量的每个通道的特征数DST_H*DST_W作为矩阵B的列数,矩阵B的列对应输出张量的每个像素点,计算输出张量的每个像素点计算所需的权重,并将计算得到的权重放置于矩阵B的每一列对应位置;本发明提供的技术方案能够克服现有技术所存在的缩放算子计算效率较低的缺陷。