
AI推理框架
Tengine是OPEN AI LAB(开放智能)推出的AI推理框架,致力于解决AIoT应用场景下多厂家多种类的边缘AI芯片与多样的训练框架、算法模型之间的相互兼容适配,同时提升算法在芯片上的运行性能,将从云端完成训练后的算法高效迁移到异构的边缘智能芯片上执行,缩短AI应用开发与部署周期,助力加速AI产业化落地。
简介
为了解决AIoT应用落地问题,Tengine重点关注嵌入式设备上的边缘AI计算推理,为大量AIoT应用和设备提供高性能AI推理的技术支持。一方面可以通过异构计算技术同时调用CPU、GPU、DSP、NPU等不同计算单元来完成AI网络计算,另一方面,它支持PaddlePaddle [3], PyTorch, TensorFlow,Caffe, MXNet, DarkNet, One Flow, ONNX等主流训练框架及网络模型格式。 [1]ONNX官方认证的战略合作伙伴之一。
Tengine于2017年12月31日在Github上开源。
2018年11月9日Tengine与Arm中国AIPU构成人工智能平台“周易”在“2018年乌镇世界互联网大会”发布。
Tengine应用了技术创新。在产品化上具备商用级标准,框架开源与商业服务同步并行。目前已经与20家以上的SoC芯片厂商完成对接适配。
CSDN 2019年发布的《中国AI应用开发者报告》显示,Tengine是开发者最喜爱的本土AI推理框架 [2],在全球开发者生态中,Tengine 排名第八位。 [3]
Tengine与Open CV建立长期战略合作,与主流国产操作系统完成相互兼容认证,全面支持国产芯片、国产操作系统。