From 1ab0410a0b52905bc32f64ff0e5637ace3458607 Mon Sep 17 00:00:00 2001 From: yangyongjie Date: Sat, 29 Oct 2022 15:51:42 +0800 Subject: [PATCH] optimized readme doc Signed-off-by: yangyongjie --- README_zh.md | 40 +++++++++++++++++++++--------------- example/drivers/README_zh.md | 2 +- 2 files changed, 25 insertions(+), 17 deletions(-) diff --git a/README_zh.md b/README_zh.md index 0168d19..d2ca3e9 100644 --- a/README_zh.md +++ b/README_zh.md @@ -2,9 +2,11 @@ ## 简介 -Neural Network Runtime(神经网络运行时)是一套面向AI领域的运行时部件,适配上层AI推理引擎和底层加速芯片,为端侧AI推理引擎提供硬件加速的计算能力。 +Neural Network Runtime(NNRt, 神经网络运行时)是一套面向AI领域的加速推理框架,支持在各种端侧AI加速芯片上的推理计算;NNRt作为上层AI推理框架和底层加速芯片中间的桥梁,为端侧AI推理框架提供统一的Native接口,并使能AI推理框架的硬件加速推理;NNRt开放了南向HDI接口,便于端侧AI加速芯片直接接入OpenHarmony硬件生态。 -如架构图所示,在OpenHarmony系统上,AI应用通常要经过AI推理引擎和Neural Network Runtime才能对接底层芯片驱动,进而加速推理计算。Neural Network Runtime和芯片驱动直接通过HDI接口交互,Neural Network Runtime将模型和数据传递给芯片驱动,通过HDI接口在加速芯片上执行推理计算,计算结果通过Neural Network Runtime、AI推理引擎逐层返回至AI应用。 +如图1所示,NNRt北向对接了[MindSpore Lite](https://gitee.com/openharmony/third_party_mindspore)推理框架,同时开放Native接口对接其他端侧推理框架(Tensorflow Lite等);NNRt南向开放了HDI接口,支持各种AI加速芯片(NPU、DSP等)对接。AI应用层通过AI推理框架和NNRt能直接使用底层AI加速芯片加速推理计算。 + +Neural Network Runtime与MindSpore Lite使用[MindIR](https://gitee.com/openharmony/third_party_mindspore)来统一两个框架间的模型中间表达,减少中间过程不必要的模型转换,使得模型传递更加高效。 通常,AI应用、AI推理引擎、Neural Network Runtime处在同一个进程下,芯片驱动运行在另一个进程下,两者之间需要借助进程间通信(IPC)传递模型和计算数据。Neural Network Runtime根据HDI接口实现了HDI客户端,相应的,芯片厂商需要根据HDI接口实现并开放HDI服务。 @@ -13,18 +15,18 @@ Neural Network Runtime(神经网络运行时)是一套面向AI领域的运 ## 目录 -```undefined +```text /foundation/ai/neural_network_runtime -├── common +├── common # 公共功能 ├── example # 开发样例目录 -│   ├── deep_learning_framework # 应用开发样例存放目录 +│   ├── deep_learning_framework # 应用/推理框架开发样例存放目录 │   └── drivers # 设备驱动开发样例存放目录 -├── frameworks # 框架代码存放目录 -│   └── native +├── frameworks +│   └── native # 框架代码存放目录 │   └── op # 算子头文件和实现存放目录 -├── interfaces # 对外接口存放目录 -│   ├── innerkits # 对内部子系统暴露的头文件存放目录 -│   └── kits # 对外开放的头文件存放目录 +├── interfaces # 接口存放目录 +│   ├── innerkits # 系统内部接口文件存放目录 +│   └── kits # 对外开放接口文件存放目录 └── test # 测试用例存放目录 ├── system_test # 系统测试用例存放目录 └── unittest # 单元测试用例存放目录 @@ -34,17 +36,23 @@ Neural Network Runtime(神经网络运行时)是一套面向AI领域的运 在OpenHarmony源码根目录下,调用以下指令,单独编译Neural Network Runtime。 ```shell -./build.sh --product-name name --ccache --build-target neural_network_runtime +./build.sh --product-name rk3568 --ccache --build-target neural_network_runtime --jobs 4 ``` -> **说明:** name为产品名称,例如Hi3516DV300、rk3568等。 +> **说明:** +--product-name:产品名称,例如Hi3516DV300、rk3568等。 +--ccache:编译时使用缓存功能。 +--build-target: 编译的部件名称。 +--jobs:编译的线程数,可加速编译。 ## 说明 ### 接口说明 -完整的接口文档请参考: -- [neural_network_runtime.h](./interfaces/kits/c/neural_network_runtime.h) -- [neural_network_runtime_type.h](./interfaces/kits/c/neural_network_runtime_type.h) +Native接口文档请参考: +- 待补充,正在评审翻译。 + +HDI接口文档请参考: +- 待补充,正在评审翻译。 ### 使用说明 @@ -54,4 +62,4 @@ Neural Network Runtime(神经网络运行时)是一套面向AI领域的运 ## 相关仓 - [**neural_network_runtime**](https://gitee.com/openharmony-sig/neural_network_runtime) -- [Mindspore](https://gitee.com/openharmony/third_party_mindspore) +- [third_party_mindspore](https://gitee.com/openharmony/third_party_mindspore) diff --git a/example/drivers/README_zh.md b/example/drivers/README_zh.md index 0848080..c6e7de5 100644 --- a/example/drivers/README_zh.md +++ b/example/drivers/README_zh.md @@ -1,4 +1,4 @@ -# NNRt开发指导 +# NNRt设备开发指导 ## NNRt开发概述 -- Gitee