diff --git "a/docs/zh/docs/LLM/llama.cpp\344\275\277\347\224\250\346\214\207\345\215\227.md" "b/docs/zh/docs/LLM/llama.cpp\344\275\277\347\224\250\346\214\207\345\215\227.md" index 68d2ccc039b0d4ebf8e188cc5dcf47949cab96b5..609af9b39f59602c5ccd3dc9a151595287cecc7c 100644 --- "a/docs/zh/docs/LLM/llama.cpp\344\275\277\347\224\250\346\214\207\345\215\227.md" +++ "b/docs/zh/docs/LLM/llama.cpp\344\275\277\347\224\250\346\214\207\345\215\227.md" @@ -15,7 +15,7 @@ llama.cpp 核心架构分为两层: 特性: -- 基于 ggml的C/C++ 实现 +- 基于 ggml的C/C++ 实现; - 通过 int4/int8 量化、优化的KV缓存和并行计算等多种方式加速 CPU 推理; - 互动界面是流媒体生成,具有打字机效果; - 无需 GPU,可只用 CPU 运行。