摘要
本发明属于深度学习编译器领域,公开了一种面向DL编译器的预量化模型部署方法,包括步骤1:前端框架解析器解析前端预量化的深度学习模型,输出包含Q算子的图;步骤2:进行面向Target,即目标平台的图切分操作,该操作之后,图将被分割为两部分:加速器支持的算子将在加速器上运行,加速器不支持的算子将在CPU上运行;步骤3:DL编译器将针对两部分采用不同的调度和代码生成,并采用两级,即函数级和算子级加速器代码生成器来产生加速器硬件指令和驱动函数。本发明支持面向加速器的切图功能,既能够完成Q算子到普通算子的降级,又能够使加速器子函数的输入输出格式满足硬件要求。