From 2f3465dd367a6710b94416847fb430d351ab2bee Mon Sep 17 00:00:00 2001 From: yu-shengyuan Date: Mon, 24 Feb 2025 11:45:09 +0800 Subject: [PATCH 1/5] udpate --- .../MultiModal/InternVL/InternVL2/InternVL2_40b/README.md | 5 ++++- .../MultiModal/InternVL/InternVL2/Internvl2_8b/README.md | 5 ++++- .../InternVL/InternVL2_5/Internvl2_5_38b/README.md | 5 ++++- .../InternVL/InternVL2_5/Internvl2_5_78b/README.md | 7 +++++-- MindIE/MultiModal/QVQ-72B-Preview/README.md | 5 ++++- MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md | 5 ++++- MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md | 5 ++++- 7 files changed, 29 insertions(+), 8 deletions(-) diff --git a/MindIE/MultiModal/InternVL/InternVL2/InternVL2_40b/README.md b/MindIE/MultiModal/InternVL/InternVL2/InternVL2_40b/README.md index adcd8c1ab8..76c8bd5a52 100644 --- a/MindIE/MultiModal/InternVL/InternVL2/InternVL2_40b/README.md +++ b/MindIE/MultiModal/InternVL/InternVL2/InternVL2_40b/README.md @@ -188,4 +188,7 @@ curl 127.0.0.1:1040/v1/chat/completions -d ' { "top_p": 0.001, "top_k": 1 }' -``` \ No newline at end of file +``` +## 声明 +- 本代码仓提到的数据集和模型仅作为示例,这些数据集和模型仅供您用于非商业目的,如您使用这些数据集和模型来完成示例,请您特别注意应遵守对应数据集和模型的License,如您因使用数据集或模型而产生侵权纠纷,华为不承担任何责任。 +- 如您在使用本代码仓的过程中,发现任何问题(包括但不限于功能问题、合规问题),请在本代码仓提交issue,我们将及时审视并解答。 \ No newline at end of file diff --git a/MindIE/MultiModal/InternVL/InternVL2/Internvl2_8b/README.md b/MindIE/MultiModal/InternVL/InternVL2/Internvl2_8b/README.md index 2e5d9204f6..7c5e5134c9 100644 --- a/MindIE/MultiModal/InternVL/InternVL2/Internvl2_8b/README.md +++ b/MindIE/MultiModal/InternVL/InternVL2/Internvl2_8b/README.md @@ -188,4 +188,7 @@ curl 127.0.0.1:1040/v1/chat/completions -d ' { "top_p": 0.001, "top_k": 1 }' -``` \ No newline at end of file +``` +## 声明 +- 本代码仓提到的数据集和模型仅作为示例,这些数据集和模型仅供您用于非商业目的,如您使用这些数据集和模型来完成示例,请您特别注意应遵守对应数据集和模型的License,如您因使用数据集或模型而产生侵权纠纷,华为不承担任何责任。 +- 如您在使用本代码仓的过程中,发现任何问题(包括但不限于功能问题、合规问题),请在本代码仓提交issue,我们将及时审视并解答。 \ No newline at end of file diff --git a/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_38b/README.md b/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_38b/README.md index 8776f2f984..c007eb61a6 100644 --- a/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_38b/README.md +++ b/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_38b/README.md @@ -223,4 +223,7 @@ curl 127.0.0.1:1040/v1/chat/completions -d ' { "top_p": 0.001, "top_k": 1 }' -``` \ No newline at end of file +``` +## 声明 +- 本代码仓提到的数据集和模型仅作为示例,这些数据集和模型仅供您用于非商业目的,如您使用这些数据集和模型来完成示例,请您特别注意应遵守对应数据集和模型的License,如您因使用数据集或模型而产生侵权纠纷,华为不承担任何责任。 +- 如您在使用本代码仓的过程中,发现任何问题(包括但不限于功能问题、合规问题),请在本代码仓提交issue,我们将及时审视并解答。 \ No newline at end of file diff --git a/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_78b/README.md b/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_78b/README.md index b391c98385..3122396b57 100644 --- a/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_78b/README.md +++ b/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_78b/README.md @@ -21,7 +21,7 @@ InternVL2_5-78B 是一种多模态大模型,具有强大的图像和文本处 完成之后,请使用`docker images`命令确认查找具体镜像名称与标签。 ## 硬件要求 -部署InternVL2_5-78B模型至少需要1台Atlas 800I A2 32G服务器 +部署InternVL2_5-78B模型至少需要1台Atlas 800I A2 32G服务器 ## 新建容器 @@ -225,4 +225,7 @@ curl 127.0.0.1:1040/v1/chat/completions -d ' { "top_p": 0.001, "top_k": 1 }' -``` \ No newline at end of file +``` +## 声明 +- 本代码仓提到的数据集和模型仅作为示例,这些数据集和模型仅供您用于非商业目的,如您使用这些数据集和模型来完成示例,请您特别注意应遵守对应数据集和模型的License,如您因使用数据集或模型而产生侵权纠纷,华为不承担任何责任。 +- 如您在使用本代码仓的过程中,发现任何问题(包括但不限于功能问题、合规问题),请在本代码仓提交issue,我们将及时审视并解答。 \ No newline at end of file diff --git a/MindIE/MultiModal/QVQ-72B-Preview/README.md b/MindIE/MultiModal/QVQ-72B-Preview/README.md index 0452bcfb38..4ef85556e9 100644 --- a/MindIE/MultiModal/QVQ-72B-Preview/README.md +++ b/MindIE/MultiModal/QVQ-72B-Preview/README.md @@ -227,4 +227,7 @@ curl 127.0.0.1:1040/v1/chat/completions -d ' { "top_p": 0.001, "top_k": 1 }' -``` \ No newline at end of file +``` +## 声明 +- 本代码仓提到的数据集和模型仅作为示例,这些数据集和模型仅供您用于非商业目的,如您使用这些数据集和模型来完成示例,请您特别注意应遵守对应数据集和模型的License,如您因使用数据集或模型而产生侵权纠纷,华为不承担任何责任。 +- 如您在使用本代码仓的过程中,发现任何问题(包括但不限于功能问题、合规问题),请在本代码仓提交issue,我们将及时审视并解答。 \ No newline at end of file diff --git a/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md b/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md index f4e516dabe..37361e0dbd 100644 --- a/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md +++ b/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md @@ -227,4 +227,7 @@ curl 127.0.0.1:1040/v1/chat/completions -d ' { "top_p": 0.001, "top_k": 1 }' -``` \ No newline at end of file +``` +## 声明 +- 本代码仓提到的数据集和模型仅作为示例,这些数据集和模型仅供您用于非商业目的,如您使用这些数据集和模型来完成示例,请您特别注意应遵守对应数据集和模型的License,如您因使用数据集或模型而产生侵权纠纷,华为不承担任何责任。 +- 如您在使用本代码仓的过程中,发现任何问题(包括但不限于功能问题、合规问题),请在本代码仓提交issue,我们将及时审视并解答。 \ No newline at end of file diff --git a/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md b/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md index 5694e0240b..d742b08830 100644 --- a/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md +++ b/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md @@ -227,4 +227,7 @@ curl 127.0.0.1:1040/v1/chat/completions -d ' { "top_p": 0.001, "top_k": 1 }' -``` \ No newline at end of file +``` +## 声明 +- 本代码仓提到的数据集和模型仅作为示例,这些数据集和模型仅供您用于非商业目的,如您使用这些数据集和模型来完成示例,请您特别注意应遵守对应数据集和模型的License,如您因使用数据集或模型而产生侵权纠纷,华为不承担任何责任。 +- 如您在使用本代码仓的过程中,发现任何问题(包括但不限于功能问题、合规问题),请在本代码仓提交issue,我们将及时审视并解答。 \ No newline at end of file -- Gitee From 4ed296e4f5a4905691a61754ac8ab631b82c2e07 Mon Sep 17 00:00:00 2001 From: yu-shengyuan Date: Thu, 27 Feb 2025 10:40:01 +0800 Subject: [PATCH 2/5] update --- .../MultiModal/InternVL/InternVL2/InternVL2_40b/README.md | 4 ++-- .../MultiModal/InternVL/InternVL2/Internvl2_8b/README.md | 4 ++-- .../InternVL/InternVL2_5/Internvl2_5_38b/README.md | 4 ++-- .../InternVL/InternVL2_5/Internvl2_5_78b/README.md | 4 ++-- MindIE/MultiModal/QVQ-72B-Preview/README.md | 8 ++++---- .../MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md | 8 ++++---- MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md | 8 ++++---- 7 files changed, 20 insertions(+), 20 deletions(-) diff --git a/MindIE/MultiModal/InternVL/InternVL2/InternVL2_40b/README.md b/MindIE/MultiModal/InternVL/InternVL2/InternVL2_40b/README.md index 76c8bd5a52..b3eb32ca3d 100644 --- a/MindIE/MultiModal/InternVL/InternVL2/InternVL2_40b/README.md +++ b/MindIE/MultiModal/InternVL/InternVL2/InternVL2_40b/README.md @@ -22,7 +22,7 @@ InternVL2-40B 是一种多模态大模型,具有强大的图像和文本处理 完成之后,请使用`docker images`命令确认查找具体镜像名称与标签。 ## 硬件要求 -部署InternVL2-40B模型至少需要1台Atlas 800I A2 32G服务器 +部署InternVL2-40B模型至少需要1台Atlas 800I A2 推理服务器 32GB ## 新建容器 @@ -65,7 +65,7 @@ pip install -r requirements/models/requirements_internvl.txt - 修改`/usr/local/Ascend/atb-models/examples/models/internvl/run_pa.sh`脚本 ```shell -# 设置卡数,Atlas-800I-A2-32G必须八卡,Atlas-800I-A2-64G四卡八卡均可 +# 设置卡数,Atlas 800I A2 推理服务器 32GB上必须八卡,Atlas 800I A2 推理服务器 64GB上四卡八卡均可 export ASCEND_RT_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 ``` diff --git a/MindIE/MultiModal/InternVL/InternVL2/Internvl2_8b/README.md b/MindIE/MultiModal/InternVL/InternVL2/Internvl2_8b/README.md index 7c5e5134c9..d113757d0e 100644 --- a/MindIE/MultiModal/InternVL/InternVL2/Internvl2_8b/README.md +++ b/MindIE/MultiModal/InternVL/InternVL2/Internvl2_8b/README.md @@ -22,7 +22,7 @@ InternVL2-8B 是一种多模态大模型,具有强大的图像和文本处理 完成之后,请使用`docker images`命令确认查找具体镜像名称与标签。 ## 硬件要求 -部署InternVL2-8B模型至少需要1台Atlas 800I A2 32G服务器 +部署InternVL2-8B模型至少需要1台Atlas 800I A2 推理服务器 32GB ## 新建容器 @@ -65,7 +65,7 @@ pip install -r requirements/models/requirements_internvl.txt - 修改`/usr/local/Ascend/atb-models/examples/models/internvl/run_pa.sh`脚本 ```shell -# 设置卡数,Atlas-800I-A2-32G必须八卡,Atlas-800I-A2-64G四卡八卡均可 +# 设置卡数,Atlas 800I A2 推理服务器 32GB上必须八卡,Atlas 800I A2 推理服务器 64GB上四卡八卡均可 export ASCEND_RT_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 ``` diff --git a/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_38b/README.md b/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_38b/README.md index c007eb61a6..36f2982616 100644 --- a/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_38b/README.md +++ b/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_38b/README.md @@ -21,7 +21,7 @@ InternVL2_5-38B 是一种多模态大模型,具有强大的图像和文本处 完成之后,请使用`docker images`命令确认查找具体镜像名称与标签。 ## 硬件要求 -部署InternVL2_5-38B模型至少需要1台Atlas 800I A2 32G服务器 +部署InternVL2_5-38B模型至少需要1台Atlas 800I A2 推理服务器 32GB ## 新建容器 @@ -101,7 +101,7 @@ pip install -r requirements/models/requirements_internvl.txt - 修改`/usr/local/Ascend/atb-models/examples/models/internvl/run_pa.sh`脚本 ```shell -# 设置卡数,Atlas-800I-A2-32G必须八卡,Atlas-800I-A2-64G四卡八卡均可 +# 设置卡数,Atlas 800I A2 推理服务器 32GB上必须八卡,Atlas 800I A2 推理服务器 64GB上四卡八卡均可 export ASCEND_RT_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 ``` diff --git a/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_78b/README.md b/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_78b/README.md index 3122396b57..72778631ae 100644 --- a/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_78b/README.md +++ b/MindIE/MultiModal/InternVL/InternVL2_5/Internvl2_5_78b/README.md @@ -21,7 +21,7 @@ InternVL2_5-78B 是一种多模态大模型,具有强大的图像和文本处 完成之后,请使用`docker images`命令确认查找具体镜像名称与标签。 ## 硬件要求 -部署InternVL2_5-78B模型至少需要1台Atlas 800I A2 32G服务器 +部署InternVL2_5-78B模型至少需要1台Atlas 800I A2 推理服务器 32GB ## 新建容器 @@ -102,7 +102,7 @@ pip install -r requirements/models/requirements_internvl.txt - 修改`/usr/local/Ascend/atb-models/examples/models/internvl/run_pa.sh`脚本 ```shell -# 设置卡数,Atlas-800I-A2-32G必须八卡,Atlas-800I-A2-64G四卡八卡均可 +# 设置卡数,Atlas 800I A2 推理服务器 32GB上必须八卡,Atlas 800I A2 推理服务器 64GB上四卡八卡均可 export ASCEND_RT_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 ``` diff --git a/MindIE/MultiModal/QVQ-72B-Preview/README.md b/MindIE/MultiModal/QVQ-72B-Preview/README.md index 4ef85556e9..1a8b00cff4 100644 --- a/MindIE/MultiModal/QVQ-72B-Preview/README.md +++ b/MindIE/MultiModal/QVQ-72B-Preview/README.md @@ -22,7 +22,7 @@ QVQ-72B-Preview 是阿里云研发的大规模视觉语言模型(Large Vision 完成之后,请使用`docker images`命令确认查找具体镜像名称与标签。 ## 硬件要求 -部署QVQ-72B-Preview模型至少需要1台Atlas 800I A2 32G服务器 +部署QVQ-72B-Preview模型至少需要1台Atlas 800I A2 推理服务器 32GB ## 新建容器 @@ -65,7 +65,7 @@ pip install -r requirements/models/requirements_qwen2_vl.txt - 修改`/usr/local/Ascend/atb-models/examples/models/qwen2_vl/run_pa.sh`脚本 ```shell -# 设置卡数,Atlas-800I-A2-32G必须八卡,Atlas-800I-A2-64G四卡八卡均可 +# 设置卡数,Atlas 800I A2 推理服务器 32GB上必须八卡,Atlas 800I A2 推理服务器 64GB上四卡八卡均可 export ASCEND_RT_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 ... @@ -96,7 +96,7 @@ shm_name_save_path="./shm_name.txt" bash /usr/local/Ascend/atb-models/examples/models/qwen2_vl/run_pa.sh ``` -- 性能测试样例(Atlas 800I A2 32G) +- 性能测试样例(Atlas 800I A2 推理服务器 32GB) - 设置`max_batch_size=4` - 设置`max_input_length=8192` @@ -105,7 +105,7 @@ bash /usr/local/Ascend/atb-models/examples/models/qwen2_vl/run_pa.sh - 运行`run_pa.sh`脚本 - 输出结果为,吞吐即为 320 / 7.44 = 43 tokens/s - 更详细的性能数据,如首token时延,参考终端performance输出 -- 性能测试样例(Atlas 800I A2 64G) +- 性能测试样例(Atlas 800I A2 推理服务器 64GB) - 设置`max_batch_size=32` - 设置`max_input_length=8192` diff --git a/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md b/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md index 37361e0dbd..bd0497ace8 100644 --- a/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md +++ b/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md @@ -22,7 +22,7 @@ Qwen2-VL-72B-Instruct 是阿里云研发的大规模视觉语言模型(Large V 完成之后,请使用`docker images`命令确认查找具体镜像名称与标签。 ## 硬件要求 -部署Qwen2-VL-72B-Instruct模型至少需要1台Atlas 800I A2 32G服务器 +部署Qwen2-VL-72B-Instruct模型至少需要1台Atlas 800I A2 推理服务器 32GB ## 新建容器 @@ -65,7 +65,7 @@ pip install -r requirements/models/requirements_qwen2_vl.txt - 修改`/usr/local/Ascend/atb-models/examples/models/qwen2_vl/run_pa.sh`脚本 ```shell -# 设置卡数,Atlas-800I-A2-32G必须八卡,Atlas-800I-A2-64G四卡八卡均可 +# 设置卡数,Atlas 800I A2 推理服务器 32GB上必须八卡,Atlas 800I A2 推理服务器 64GB上四卡八卡均可 export ASCEND_RT_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 ... @@ -96,7 +96,7 @@ shm_name_save_path="./shm_name.txt" bash /usr/local/Ascend/atb-models/examples/models/qwen2_vl/run_pa.sh ``` -- 性能测试样例(Atlas 800I A2 32G) +- 性能测试样例(Atlas 800I A2 推理服务器 32GB) - 设置`max_batch_size=4` - 设置`max_input_length=8192` @@ -105,7 +105,7 @@ bash /usr/local/Ascend/atb-models/examples/models/qwen2_vl/run_pa.sh - 运行`run_pa.sh`脚本 - 输出结果为,吞吐即为 320 / 7.44 = 43 tokens/s - 更详细的性能数据,如首token时延,参考终端performance输出 -- 性能测试样例(Atlas 800I A2 64G) +- 性能测试样例(Atlas 800I A2 推理服务器 64GB) - 设置`max_batch_size=32` - 设置`max_input_length=8192` diff --git a/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md b/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md index d742b08830..8bdd6e6274 100644 --- a/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md +++ b/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md @@ -22,7 +22,7 @@ Qwen2-VL-7B-Instruct 是阿里云研发的大规模视觉语言模型(Large Vi 完成之后,请使用`docker images`命令确认查找具体镜像名称与标签。 ## 硬件要求 -部署Qwen2-VL-7B-Instruct模型至少需要1台Atlas 800I A2 32G服务器 +部署Qwen2-VL-7B-Instruct模型至少需要1台Atlas 800I A2 推理服务器 32GB ## 新建容器 @@ -65,7 +65,7 @@ pip install -r requirements/models/requirements_qwen2_vl.txt - 修改`/usr/local/Ascend/atb-models/examples/models/qwen2_vl/run_pa.sh`脚本 ```shell -# 设置卡数,Atlas-800I-A2-32G必须八卡,Atlas-800I-A2-64G四卡八卡均可 +# 设置卡数,Atlas 800I A2 推理服务器 32GB上必须八卡,Atlas 800I A2 推理服务器 64GB上四卡八卡均可 export ASCEND_RT_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 ... @@ -96,7 +96,7 @@ shm_name_save_path="./shm_name.txt" bash /usr/local/Ascend/atb-models/examples/models/qwen2_vl/run_pa.sh ``` -- 性能测试样例(Atlas 800I A2 32G) +- 性能测试样例(Atlas 800I A2 推理服务器 32GB) - 设置`max_batch_size=4` - 设置`max_input_length=8192` @@ -105,7 +105,7 @@ bash /usr/local/Ascend/atb-models/examples/models/qwen2_vl/run_pa.sh - 运行`run_pa.sh`脚本 - 输出结果为,吞吐即为 320 / 7.44 = 43 tokens/s - 更详细的性能数据,如首token时延,参考终端performance输出 -- 性能测试样例(Atlas 800I A2 64G) +- 性能测试样例(Atlas 800I A2 推理服务器 64GB) - 设置`max_batch_size=32` - 设置`max_input_length=8192` -- Gitee From 7c9adf0eda361400056228e8db760da4bc2e6ce1 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=E4=BA=8E=E5=9C=A3=E8=BF=9C?= Date: Tue, 4 Mar 2025 01:36:25 +0000 Subject: [PATCH 3/5] =?UTF-8?q?update=20MindIE/MultiModal/QVQ-72B-Preview/?= =?UTF-8?q?README.md.=20=E4=BF=AE=E6=94=B9=E9=94=99=E8=AF=AF?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Signed-off-by: 于圣远 --- MindIE/MultiModal/QVQ-72B-Preview/README.md | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/MindIE/MultiModal/QVQ-72B-Preview/README.md b/MindIE/MultiModal/QVQ-72B-Preview/README.md index 1a8b00cff4..ee7d1ab82b 100644 --- a/MindIE/MultiModal/QVQ-72B-Preview/README.md +++ b/MindIE/MultiModal/QVQ-72B-Preview/README.md @@ -146,8 +146,8 @@ vim /usr/local/Ascend/mindie/latest/mindie-service/conf/config.json ... "ModelDeployConfig": { -"maxSeqLen" : 50000, # QvQ模型最大支持128000 -"maxInputTokenLen" : 50000, # QvQ模型最大支持128000 +"maxSeqLen" : 50000, +"maxInputTokenLen" : 50000, "truncation" : false, "ModelConfig" : [ { @@ -212,7 +212,7 @@ curl 127.0.0.1:1040/generate -d '{ ```shell curl 127.0.0.1:1040/v1/chat/completions -d ' { -"model": "internvl", +"model": "qwen2_vl", "messages": [{ "role": "user", "content": [ -- Gitee From fa254ac81498bd7446cb2a083e4006a1bdb444ab Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=E4=BA=8E=E5=9C=A3=E8=BF=9C?= Date: Tue, 4 Mar 2025 01:37:17 +0000 Subject: [PATCH 4/5] =?UTF-8?q?update=20MindIE/MultiModal/Qwen2-VL/Qwen2?= =?UTF-8?q?=5Fvl=5F72b=5Finstruct/README.md.=20=E4=BF=AE=E6=94=B9=E9=94=99?= =?UTF-8?q?=E8=AF=AF?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Signed-off-by: 于圣远 --- MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md b/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md index bd0497ace8..763e465c22 100644 --- a/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md +++ b/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_72b_instruct/README.md @@ -212,7 +212,7 @@ curl 127.0.0.1:1040/generate -d '{ ```shell curl 127.0.0.1:1040/v1/chat/completions -d ' { -"model": "internvl", +"model": "qwen2_vl", "messages": [{ "role": "user", "content": [ -- Gitee From 384aaaca9fba1b1c3d4b27d4443a973f822e70c0 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=E4=BA=8E=E5=9C=A3=E8=BF=9C?= Date: Tue, 4 Mar 2025 01:37:41 +0000 Subject: [PATCH 5/5] =?UTF-8?q?update=20MindIE/MultiModal/Qwen2-VL/Qwen2?= =?UTF-8?q?=5Fvl=5F7b=5Finstruct/README.md.=20=E4=BF=AE=E6=94=B9=E9=94=99?= =?UTF-8?q?=E8=AF=AF?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Signed-off-by: 于圣远 --- MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md b/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md index 8bdd6e6274..0a938ba5b3 100644 --- a/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md +++ b/MindIE/MultiModal/Qwen2-VL/Qwen2_vl_7b_instruct/README.md @@ -212,7 +212,7 @@ curl 127.0.0.1:1040/generate -d '{ ```shell curl 127.0.0.1:1040/v1/chat/completions -d ' { -"model": "internvl", +"model": "qwen2_vl", "messages": [{ "role": "user", "content": [ -- Gitee