From 7ba52f8cf3e54c4c37766a0fb31fe7c306e9b53b Mon Sep 17 00:00:00 2001 From: hwxu Date: Sat, 8 Feb 2025 07:26:34 +0000 Subject: [PATCH] =?UTF-8?q?update=20docs/zh/docs/AI/openEuler=5FCopilot=5F?= =?UTF-8?q?System/=E9=83=A8=E7=BD=B2=E6=8C=87=E5=8D=97/=E6=97=A0=E7=BD=91?= =?UTF-8?q?=E7=BB=9C=E7=8E=AF=E5=A2=83=E4=B8=8B=E9=83=A8=E7=BD=B2=E6=8C=87?= =?UTF-8?q?=E5=8D=97.md.=20=E4=BF=AE=E6=94=B9=E5=BA=8F=E5=8F=B7=EF=BC=8C?= =?UTF-8?q?=E6=A0=BC=E5=BC=8F=E5=92=8C=E6=A0=87=E7=82=B9?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- ...50\347\275\262\346\214\207\345\215\227.md" | 27 ++++++++++--------- 1 file changed, 14 insertions(+), 13 deletions(-) diff --git "a/docs/zh/docs/AI/openEuler_Copilot_System/\351\203\250\347\275\262\346\214\207\345\215\227/\346\227\240\347\275\221\347\273\234\347\216\257\345\242\203\344\270\213\351\203\250\347\275\262\346\214\207\345\215\227.md" "b/docs/zh/docs/AI/openEuler_Copilot_System/\351\203\250\347\275\262\346\214\207\345\215\227/\346\227\240\347\275\221\347\273\234\347\216\257\345\242\203\344\270\213\351\203\250\347\275\262\346\214\207\345\215\227.md" index 4a7712788..84d079127 100644 --- "a/docs/zh/docs/AI/openEuler_Copilot_System/\351\203\250\347\275\262\346\214\207\345\215\227/\346\227\240\347\275\221\347\273\234\347\216\257\345\242\203\344\270\213\351\203\250\347\275\262\346\214\207\345\215\227.md" +++ "b/docs/zh/docs/AI/openEuler_Copilot_System/\351\203\250\347\275\262\346\214\207\345\215\227/\346\227\240\347\275\221\347\273\234\347\216\257\345\242\203\344\270\213\351\203\250\347\275\262\346\214\207\345\215\227.md" @@ -42,8 +42,8 @@ openEuler Copilot System 是一款智能问答工具,使用 openEuler Copilot 注意: 1. 若无 GPU 或 NPU 资源,建议通过调用 OpenAI 接口的方式来实现功能。(接口样例:) -2. 调用第三方 OpenAI 接口的方式不需要安装高版本的 python (>=3.9.9) -3. 英伟达 GPU 对 Docker 的支持必需要新版本 Docker (>= v25.4.0) +2. 调用第三方 OpenAI 接口的方式需要安装 python (>=3.9.9)。 +3. 英伟达 GPU 对 Docker 的支持必需要新版本 Docker (>= v25.4.0)。 ### 部署视图 @@ -51,7 +51,7 @@ openEuler Copilot System 是一款智能问答工具,使用 openEuler Copilot ## 获取 openEuler Copilot System -- 从 openEuler Copilot System 的官方Git仓库 [euler-copilot-framework](https://gitee.com/openeuler/euler-copilot-framework) 下载最新的部署仓库 +- 从 openEuler Copilot System 的官方Git仓库 [euler-copilot-framework](https://gitee.com/openeuler/euler-copilot-framework) 下载最新的部署仓库。 - 如果您正在使用 Kubernetes,则不需要安装 k3s 工具。 ```bash @@ -129,7 +129,7 @@ openEuler Copilot System 是一款智能问答工具,使用 openEuler Copilot #### 3.1 安装 Docker -如需要基于 GPU/NPU 部署大模型,需要检查 Docker 版本是否满足>= v25.4.0 ,如不满足,请升级 Docker 版本 +如需要基于 GPU/NPU 部署大模型,需要检查 Docker 版本是否满足>= v25.4.0 ,如不满足,请升级 Docker 版本。 #### 3.2 安装 K3s 并导入镜像 @@ -357,6 +357,7 @@ openEuler Copilot System 是一款智能问答工具,使用 openEuler Copilot - 创建应用eulercopilot ![部署图](./pictures/创建应用界面.png) + 点击创建应用,输入应用名称、应用主页和应用回调地址(登录后回调地址),参考如下: - 应用名称:eulercopilot - 应用主页: @@ -365,7 +366,7 @@ openEuler Copilot System 是一款智能问答工具,使用 openEuler Copilot ![部署图](./pictures/创建应用成功界面.png) -### 2. 安装 openEuler Copilot System +### 3. 安装 openEuler Copilot System - 编辑 values.yaml @@ -381,10 +382,10 @@ openEuler Copilot System 是一款智能问答工具,使用 openEuler Copilot - 注意: 1. 查看系统架构,并修改values.yaml中的tag; - 2. 修改values.yaml中的globals的domain为EulerCopilot域名,并配置大模型的相关信息 - 3. 手动创建`docs_dir`、`plugin_dir`、`models`三个文件挂载目录 - 4. 修改values.yaml中framework章节的web_url和oidc设置 - 5. 如果部署插件,则需要配置用于Function Call的模型,此时必须有GPU环境用于部署sglang,可参考附件 + 2. 修改values.yaml中的globals的domain为EulerCopilot域名,并配置大模型的相关信息; + 3. 手动创建`docs_dir`、`plugin_dir`、`models`三个文件挂载目录; + 4. 修改values.yaml中framework章节的web_url和oidc设置; + 5. 如果部署插件,则需要配置用于Function Call的模型,此时必须有GPU环境用于部署sglang,可参考附件。 - 安装 openEuler Copilot System @@ -416,13 +417,13 @@ openEuler Copilot System 是一款智能问答工具,使用 openEuler Copilot 注意:如果 Pod 状态出现失败,建议按照以下步骤进行排查 注意:如果 Pod 状态出现失败,建议按照以下步骤进行排查 - 1. 查看 Kubernetes 集群的事件 (Events),以获取更多关于 Pod 失败的上下文信息 + 1. 查看 Kubernetes 集群的事件 (Events),以获取更多关于 Pod 失败的上下文信息。 ```bash kubectl -n euler-copilot get events ``` - 2. 查看镜像拉取是否成功 + 2. 查看镜像拉取是否成功。 ```bash k3s crictl images @@ -440,7 +441,7 @@ openEuler Copilot System 是一款智能问答工具,使用 openEuler Copilot df -h ``` - 5. 如果未拉取成且镜像大小为0,请检查是否是 k3s 版本未满足要求,低于 v1.30.2 + 5. 如果未拉取成且镜像大小为0,请检查是否是 k3s 版本未满足要求,低于 v1.30.2。 ```bash k3s -v @@ -699,7 +700,7 @@ pip show flashinfer - 注意: -1. API Key:请确保 `--api-key` 参数中的 API 密钥是正确的 +1. API Key:请确保 `--api-key` 参数中的 API 密钥是正确的。 2. 模型路径: 确保 `--model-path` 参数中的路径是正确的,并且模型文件存在于该路径下。 3. CUDA 版本:确保你的系统上安装了 CUDA 12.1 和 PyTorch 2.4,因为 `flashinfer` 包依赖于这些特定版本。 4. 线程池大小:根据你的GPU资源和预期负载调整线程池大小。如果你有 8 个 GPU,那么可以选择 --tp 8 来充分利用这些资源。 -- Gitee