From a974c33218ab4fc5501e1d7d96d85b46c450605b Mon Sep 17 00:00:00 2001 From: liuxiao78 Date: Thu, 17 Sep 2020 19:31:52 +0800 Subject: [PATCH] fix converter tool --- lite/tutorials/source_zh_cn/use/converter_tool.md | 7 ++++++- 1 file changed, 6 insertions(+), 1 deletion(-) diff --git a/lite/tutorials/source_zh_cn/use/converter_tool.md b/lite/tutorials/source_zh_cn/use/converter_tool.md index 942119d6b4..8bb9eebb6c 100644 --- a/lite/tutorials/source_zh_cn/use/converter_tool.md +++ b/lite/tutorials/source_zh_cn/use/converter_tool.md @@ -106,10 +106,15 @@ MindSpore Lite模型转换工具提供了多种参数设置,用户可根据需 | `--modelFile=` | 是 | 输入模型的路径。 | - | - | | `--outputFile=` | 是 | 输出模型的路径(不存在时将自动创建目录),不需加后缀,可自动生成`.ms`后缀。 | - | - | | `--weightFile=` | 转换Caffe模型时必选 | 输入模型weight文件的路径。 | - | - | -| `--quantType=` | 否 | 设置模型的量化类型。 | PostTraining:训练后量化
AwareTraining:感知量化。 | - | +| `--quantType=` | 否 | 设置模型的量化类型。 | WeightQuant:训练后量化-权重量化
PostTraining:训练后量化-全量化
AwareTraining:感知量化 | - | |` --inferenceType=` | 否 | 设置感知量化模型输入输出数据类型,如果和原模型不一致则转换工具会在模型前插转换算子,使得转换后的模型输入类型和inferenceType保持一致。 |SAME、 FLOAT、INT8 | SAME | | `--stdDev= `| 否 | 感知量化模型转换时用于设置输入数据的标准差。 | (0,+∞) | 128 | | `--mean=` | 否 | 感知量化模型转换时用于设置输入数据的均值。 | [-128, 127] | -0.5 | +| `--bitNum=` | 否 | 设定训练后量化-权重量化的比特数,目前仅支持8bit量化 | 8 | 8 | +| `--quantSize=` | 否 | 设定参与训练后量化-权重量化的卷积核尺寸阈值,若卷积核尺寸大于该值,则对此权重进行量化;建议设置为500 | (0,+∞) | 0 | +| `--convWeightQuantChannelThreshold=` | 否 | 设定参与训练后量化-权重量化的卷积通道数阈值,若卷积通道数大于该值,则对此权重进行量化;建议设置为16 | (0,+∞) | 16 | +| `--config_file=` | 否 | 训练后量化-全量化校准数据集配置文件路径 | - | - | + > - 参数名和参数值之间用等号连接,中间不能有空格。 > - Caffe模型一般分为两个文件:`*.prototxt`模型结构,对应`--modelFile`参数;`*.caffemodel`模型权值,对应`--weightFile`参数。 -- Gitee