diff --git a/MindIE/LLM/DeepSeek/DeepSeek-R1/README.md b/MindIE/LLM/DeepSeek/DeepSeek-R1/README.md index 79878df129f22dc86b104be88c3460b7bddb84b3..5807cb1df15681365eb644193a0da9cbc4911a90 100644 --- a/MindIE/LLM/DeepSeek/DeepSeek-R1/README.md +++ b/MindIE/LLM/DeepSeek/DeepSeek-R1/README.md @@ -2,7 +2,7 @@ # DeepSeek-R1 ## 硬件要求 -部署DeepSeek-R1模型用BF16权重进行推理至少需要4台Atlas 800I A2(8\*64G)服务器,用W8A8量化权重进行推理则至少需要2台Atlas 800I A2 (8\*64G)。 +部署DeepSeek-R1模型用W8A8量化权重进行推理则至少需要2台Atlas 800I A2 (8\*64G)。 ## 权重 diff --git a/MindIE/LLM/DeepSeek/DeepSeek-V3-0324/README.md b/MindIE/LLM/DeepSeek/DeepSeek-V3-0324/README.md index b0f75e841a3e91bbe7410fc11bdc7154199232d8..861a9a1f415c3d893554249d3699d429d4d25c3c 100644 --- a/MindIE/LLM/DeepSeek/DeepSeek-V3-0324/README.md +++ b/MindIE/LLM/DeepSeek/DeepSeek-V3-0324/README.md @@ -2,7 +2,7 @@ # DeepSeek-V3-0324 ## 硬件要求 -部署DeepSeek-V3-0324模型用BF16权重进行推理至少需要4台Atlas 800I A2(8\*64G)服务器,用W8A8量化权重进行推理则至少需要2台Atlas 800I A2 (8\*64G)。 +部署DeepSeek-V3-0324模型用W8A8量化权重进行推理则至少需要2台Atlas 800I A2 (8\*64G)。 ## 权重 **权重下载** diff --git a/MindIE/LLM/DeepSeek/DeepSeek-V3/README.md b/MindIE/LLM/DeepSeek/DeepSeek-V3/README.md index 63444725962949dfeb4006750a1405cc43a6ab50..54b6786f56351f841dd7cba1eced73e91714e234 100644 --- a/MindIE/LLM/DeepSeek/DeepSeek-V3/README.md +++ b/MindIE/LLM/DeepSeek/DeepSeek-V3/README.md @@ -2,7 +2,7 @@ # DeepSeek-V3 ## 硬件要求 -部署DeepSeek-V3模型用BF16权重进行推理至少需要4台Atlas 800I A2(8\*64G)服务器,用W8A8量化权重进行推理则至少需要2台Atlas 800I A2 (8\*64G)。 +部署DeepSeek-V3模型用W8A8量化权重进行推理则至少需要2台Atlas 800I A2 (8\*64G)。 ## 权重 **权重下载**