From 6da92f0357de2cea8a6f45a5324374b1eae052c7 Mon Sep 17 00:00:00 2001 From: htpeng Date: Fri, 8 Aug 2025 02:34:05 +0000 Subject: [PATCH] =?UTF-8?q?=E4=BF=AE=E6=94=B9=E6=96=87=E4=BB=B6=E5=90=8D?= =?UTF-8?q?=E5=92=8C=E6=A0=BC=E5=BC=8F=E9=94=99=E8=AF=AF?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Signed-off-by: htpeng --- ...44\275\277\347\224\250\346\214\207\345\215\227.md" | 11 +++-------- 1 file changed, 3 insertions(+), 8 deletions(-) diff --git "a/docs/zh/docs/AI4C/AI4C\347\224\250\346\210\267\344\275\277\347\224\250\346\214\207\345\215\227.md" "b/docs/zh/docs/AI4C/AI4C\347\224\250\346\210\267\344\275\277\347\224\250\346\214\207\345\215\227.md" index 0b31a8edf..8ac01ea71 100644 --- "a/docs/zh/docs/AI4C/AI4C\347\224\250\346\210\267\344\275\277\347\224\250\346\214\207\345\215\227.md" +++ "b/docs/zh/docs/AI4C/AI4C\347\224\250\346\210\267\344\275\277\347\224\250\346\214\207\345\215\227.md" @@ -13,17 +13,15 @@ 2. 使用`git clone https://gitee.com/src-openeuler/AI4C.git`,从目标仓库拉取代码后,使用`rpmdev-setuptree`在主目录下生成rpmbuild文件夹,将拉取代码中的AI4C-v0.1.0-alpha.tar.gz和相关patch文件放入rpmbuild中的SOURCES文件夹中,将AI4C.spec放入rpmbuild中的SPECS目录下。 -3. 进入SPECS目录下,用户需先使用`yum-builddep --spec AI4C.spec`命令安装`AI4C`所需依赖。再使用`rpmbuild -ba AI4C.SPEC`,如果构建成功即可返回上一级文件夹,再进入RPM文件夹下,使用`rpm -ivh <成功构建的rpm>`(若系统因存有旧版本安装包而导致的文件冲突,可以在`rpm -ivh <成功构建的rpm>`命令中添加一行`--force`选项,强制安装新版本;或者通过`rpm -Uvh <成功构建的rpm>`命令更新安装包)。待安装完成后,相关动态库会安装在`/usr/lib64`下,模型会安装在`/usr/lib64/AI4C`目录下。 - - +3. 进入SPECS目录下,用户需先使用`yum-builddep --spec AI4C.spec`命令安装`AI4C`所需依赖。再使用`rpmbuild -ba AI4C.spec`,如果构建成功即可返回上一级文件夹,再进入RPM文件夹下,使用`rpm -ivh <成功构建的rpm>`(若系统因存有旧版本安装包而导致的文件冲突,可以在`rpm -ivh <成功构建的rpm>`命令中添加一行`--force`选项,强制安装新版本;或者通过`rpm -Uvh <成功构建的rpm>`命令更新安装包)。待安装完成后,相关动态库会安装在`/usr/lib64`下,模型会安装在`/usr/lib64/AI4C`目录下。 ## 使用 + 1. 开发者在使用前可以通过`export LD_LIBRARY_PATH=/usr/lib64:$LD_LIBRARY_PATH`和`export INCLUDE_PATH=/usr/include:$INCLUDE_PATH`配置相关环境变量 2. 开发者需先构建自己的模型,再通过onnxruntime保存成一个**ONNX模型**,即可通过AI4C提供的API进行推理。 - - ### API接口 + 以下接口存在动态库`libONNXRunner.so`中,用于模型的推理配置阶段、推理运行阶段和模型推理结束后的资源清理阶段,需要用户实现在目标优化遍的适配层内。 1. 参数为模型存放的路径,并创建session对本次推理进行初始化和配置 @@ -44,8 +42,6 @@ extern float runONNXModel(ONNXRunner* instance, std::vector input_string, std::vector input_int64, std::vector input_float) ``` - - ### demo -- 以“创建session对本次推理进行初始化和配置”为例 这里建议使用`dlopen`链接动态库,避免对目标应用构建时增加增加额外依赖。使用时开发者需根据实际需求增加异常处理机制。 @@ -68,4 +64,3 @@ func (model_path); // 卸载动态库 dlclose (dynamic_library_path); ``` - -- Gitee