From fd5d38c17c682f53581fcfbb6777e1ea39e39197 Mon Sep 17 00:00:00 2001 From: hwxu Date: Mon, 20 Jan 2025 01:31:59 +0000 Subject: [PATCH] =?UTF-8?q?update=20docs/zh/docs/LLM/llama.cpp=E4=BD=BF?= =?UTF-8?q?=E7=94=A8=E6=8C=87=E5=8D=97.md.=20=E4=BF=AE=E6=94=B9=E6=A0=87?= =?UTF-8?q?=E7=82=B9?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- ...lama.cpp\344\275\277\347\224\250\346\214\207\345\215\227.md" | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git "a/docs/zh/docs/LLM/llama.cpp\344\275\277\347\224\250\346\214\207\345\215\227.md" "b/docs/zh/docs/LLM/llama.cpp\344\275\277\347\224\250\346\214\207\345\215\227.md" index 68d2ccc03..609af9b39 100644 --- "a/docs/zh/docs/LLM/llama.cpp\344\275\277\347\224\250\346\214\207\345\215\227.md" +++ "b/docs/zh/docs/LLM/llama.cpp\344\275\277\347\224\250\346\214\207\345\215\227.md" @@ -15,7 +15,7 @@ llama.cpp 核心架构分为两层: 特性: -- 基于 ggml的C/C++ 实现 +- 基于 ggml的C/C++ 实现; - 通过 int4/int8 量化、优化的KV缓存和并行计算等多种方式加速 CPU 推理; - 互动界面是流媒体生成,具有打字机效果; - 无需 GPU,可只用 CPU 运行。 -- Gitee