diff --git a/Model_Optimization/.keep b/Model_Optimization/.keep new file mode 100644 index 0000000000000000000000000000000000000000..e69de29bb2d1d6434b8b29ae775ad8c2e48c5391 diff --git a/Model_Optimization/GPT.py b/Model_Optimization/GPT.py new file mode 100644 index 0000000000000000000000000000000000000000..3035895dafe9bc4ad1117794c0393d0e5b78ec85 --- /dev/null +++ b/Model_Optimization/GPT.py @@ -0,0 +1,366 @@ +import os +import openai +import requests +import sys +import requests +import json +import tiktoken +import pandas as pd +import re +sys.path.append("/home/hupeng/GLMdata") +from DataToExcel import documentDataToExcel,readJson,getDf,remove_illegal_chars +# 自动机处理chatbot返回的结果,变成问答对 +def changeState(line,state,tempQA,resultQA): + if state==0: + if line.startswith('问题:'): + tempQA[0]=line[3:] + state=1 + elif state==1: + if line.startswith('问题:'): + tempQA[0]=line[3:] + elif line.startswith('答案:'): + state=3 + tempQA[1]=line[3:] + elif line=='': + tempQA[0]+='\n' + state=2 + else: + tempQA[0]+='\n'+line + elif state==2: + if line.startswith('问题:'): + tempQA[0]=line[3:] + tempQA[1]='' + state=1 + elif line.startswith('答案:'): + state=3 + tempQA[1]=line[3:] + else: + state=3 + tempQA[1]=line + elif state==3: + if line.startswith('问题:') or line=='' or line.startswith('答案:'): + resultQA[tempQA[0]]=tempQA[1] + tempQA[0]=line[3:] + tempQA[1]='' + state=0 + else: + tempQA[1]+='\n'+line + return state,tempQA,resultQA + + +def saveResult(result,loc=-1,fileName="result.json"): + with open(fileName,"w") as f: + json.dump(result,f, ensure_ascii=False, indent=4) + if loc==-1: + loc=len(result) + print("save {0}:{1}".format(fileName,loc)) + +def getQA(text): + try: + lines = text.split('\n') + state=0 + resultQA={} + tempQA=['',''] + for line in lines: + state,tempQA,resultQA=changeState(line,state,tempQA,resultQA) + if tempQA[1]!='': + resultQA[tempQA[0]]=tempQA[1] + return resultQA + except Exception as e: + return {} + +def getResult(role="system",content="You are a helpful assistant."): + baseURL = 'http://chatbot-backend.mlops.pub/' + + chatHeaders = { + 'Content-Type': 'application/json' + } + authURL = baseURL + 'auth' + + authPayload = { + 'username': 'temporary_user', + 'password': 'default_password' + } + + try: + response = requests.post(url=authURL, data=authPayload, ) + except Exception as e: + print(e) + else: + # status_code = response.status_code + access_token = response.json()['accessToken'] + # print(access_token) + + chatURL = baseURL + 'chatCompletion' + chatHeaders['Authorization'] = 'Bearer' + ' ' + access_token + chatPayload = { + "role": role, + "content":content + }, + + try: + response = requests.post(url=chatURL, headers=chatHeaders, json=chatPayload) + except Exception as e: + print(e) + else: + print(response.json()) + return response.json()['message'] + + +def dealLongLine(line,encoding): + headTokenNum=180 + TOKENMAX=2048-headTokenNum #4096 + encodeLine=encoding.encode(line) + lineTokenNum= len(encodeLine) + if lineTokenNum100: + item= encoding.decode(encodeLine[:TOKENMAX-i]) + lineList.append(item) + lineList+=dealLongLine(line[len(item):],encoding) + return lineList + lineList.append(line[:int(TOKENMAX/2)]) + lineList+=dealLongLine(line[int(TOKENMAX/2):],encoding) + print("warning:dealLongLine") + return lineList + +def getQAFormLink(prompt="",resultPath="forum.json"): + prompt="你是专业的操作系统开发工程师,你的任务将以下论坛的帖子整理成一个问答对。请不要提与发帖形式有关的问题,如发帖时间,发帖人,登录方式等等。回答的格式为,问题:\n答案:\n 。请严格按照格式回答。" + path="/home/hupeng/GLMdata/forumData.xlsx" + result=[] + encoding = tiktoken.encoding_for_model("gpt-3.5-turbo") + begin=0 # 从第几行语料开始 + end=4000 + saveStep=20 + df=pd.read_excel(path) + getFlag={i: False for i in range(len(df['content']))} + if os.path.exists(resultPath): + with open(resultPath,"r") as f: + result=json.load(f) + with open("getFlag.json","r") as f: + getFlag=json.load(f) + for i,item in enumerate(df['content']): + if i=end: + break + try: + lineList=dealLongLine(item,encoding) + except Exception as e: + continue + for line in lineList: + content=prompt+" 帖子:"+line + try: + tempresult=getResult(role="assistant",content=content) # 调用chatbot获得问答对 + except Exception as e: + tempresult="errot" + tQA=getQA(tempresult) + if len(tQA)>0: + getFlag[i]=True + for j in tQA.keys(): + result.append({"prompt":j.strip('\n').strip(' '),"answer":tQA[j].strip('\n').strip(' '),"loc":i}) + if i%saveStep==0: # save every 10 + saveResult(result,i,fileName=resultPath) + saveResult(getFlag,fileName="getFlag.json") # save last + saveResult(result,fileName=resultPath) # save last + saveResult(getFlag,fileName="getFlag.json") # save last + + +def getQAFormGPT(prompt="",resultPath="zhResult.json"): + # prompt="你是一个专业的文员,你的任务是分析网页文档去获得问答对。你应该识别出文档的关键点去提出相应的问题,并根据文档内容给出相应的精确答案。网页文档可能包含与内容无关的段落,所以请直接忽略它们。回答的格式为,问题:\n答案:\n问题: \n答案:\n。 请勿回答其他无关内容,并确保在没有文档的时候,问答对也是有意义的。" + # prompt='你是一个专业的操作系统开发工程师,你的任务是分析网页文档去获得问答对。你应该识别出文档的关键点去提出相应的问题,并根据文档内容给出相应的精确答案。网页文档可能包含与内容无关的段落,所以请直接忽略它们。回答的格式为,问题:\n答案:\n问题: \n答案:\n。 请勿回答其他无关内容,并且请不要指代文档中的内容,如文档,本文,这篇文章。' + prompt="你是专业的操作系统开发工程师,你的任务是分析网页文档去获得问答对。你应该识别出文档的关键点去提出相应的问题,并根据文档内容和你掌握的知识给出答案。网页文档可能包含与内容无关的段落,所以请直接忽略它们。回答的格式为,问题:\n答案:\n问题: \n答案:\n。 请勿回答其他无关内容,并且请不要指代文档中的内容,如文档,本文,这篇文章。" + path="/home/hupeng/GLMdata/export_zh.jsonl" + findMissQA=False + result=[] + import tiktoken + encoding = tiktoken.encoding_for_model("gpt-3.5-turbo") + begin=0 # 从第几行语料开始 + end=4000 + saveStep=10 + if findMissQA: + if os.path.exists(resultPath): + with open(resultPath,"r") as f: + result=json.load(f) + else: + findMissQA=False + print("resultPath not found") + with open(path, 'r') as f: + lines = f.readlines() + print(len(lines)) + for loc,line in enumerate(lines): + if loc=end: + break + if findMissQA and locloc: + continue + if loc>=end: + break + line=json.loads(line) + try: + lineList=dealLongLine(line['completion'],encoding) + except Exception as e: + continue + # print(lineList) + content=prompt+" 文档主题:"+line['prompt']+" 文档:"+lineList[0] + try: + tempresult=getResult(role="assistant",content=content) # 调用chatbot获得问答对 + except Exception as e: + tempresult="error" + result.append({"introduction":tempresult+" 指南参考以下链接:"+line['path'],"path":line['path'],"loc":loc}) + if loc%saveStep==0: # save every 10 + saveResult(result,loc,fileName=resultPath) + saveResult(result,fileName=resultPath) # save last + +def getDataFormGPT(prompt="",name="type"): + path="/home/hupeng/emrgeresultDataFromt.json" + begin=0 # 从第几行语料开始 + end=1000000 + saveStep=40 + with open(path,"r") as f: + result=json.load(f) + for loc,line in enumerate(result): + if loc=end: + break + content=prompt+" 问题:"+line['prompt'] + try: + tempresult=getResult(role="assistant",content=content) # 调用chatbot获得问答对 + except Exception as e: + tempresult="error" + tempresult=dealResult(name,tempresult) + if tempresult!=False: + result[loc][name]=tempresult + if loc%saveStep==0: # save every 10 + saveResult(result,loc,fileName=path) + saveResult(result,fileName=path) # save last + +def getRsultSocre(resultPath='GLMScore1.xlsx'): + path="/home/hupeng/GLMdata/export.jsonl" + if os.path.exists(resultPath): + df=pd.read_excel(resultPath) + else: + df=documentDataToExcel(DataPath="/home/hupeng/GLMdata/GLManswer2.json",fileName="document",save=False,answerKey="answer",qustionkey='question') + df['score']=" " + df['reason']=" " + prompt='Please act as an impartial judge and follow the references and your knowledge to evaluate the quality of the response provided by an AI assistant to the user question displayed below and give a rating. Your evaluation should consider factors such as the helpfulness, relevance, accuracy, depth, creativity, and level of detail of the response. Be as objective as possible. please rate the response on a scale of 1 to 10 by strictly following this format: "[[[rating]]]".Please answer in Chinese.' + # readPath + saveStep=30 + with open(path, 'r') as f: + lines = f.readlines() + for i in range(len(df['loc'])): + if df["score"][i]!=" ": + continue + loc=df.loc[i, 'score'] + if loc==None: + line=json.loads(lines[int(loc)])['prompt'] + if len(line)>700: + line=line[0:700] + else: + line="本问题无参考文档,请结合自身知识评价。" + content=prompt+" qustion:"+df['*问题'][i]+" answer:"+df['*答案'][i]+" references:"+line + try: + tempresult=getResult(role="assistant",content=content) # 调用chatbot获得问答对 + except Exception as e: + tempresult="error" + try: + score=float(tempresult) + except Exception as e: + pass + pattern = r'\[\[(")?(\d+(\.\d+)?)"?(\]\])?' + try: + score=re.search(pattern, tempresult).group(1) if re.search(pattern, tempresult) else None + except Exception as e: + score=0 + df.loc[i, 'score']=score + df.loc[i, 'reason']=tempresult + if i%saveStep==0: + df.to_excel("GLMScore.xlsx",index=False) + df.to_excel("GLMScore.xlsx",index=False) + + +if __name__ == "__main__": + getRsultSocre() + # getQAFormLink() + # getQAFormGPT() + # prompt='你现在是专业的问题分类处理系统,输入问题,输出问题的类别。问题的类别包含以下刘种:操作系统、指导文档、openeuler社区、编译、兼容性、其他。请只回答并且必须回答上述六种中的一种,不包含任何其他信息。其中openeuler社区类别包含用户在openeuler使用过程中的问题,如发布话题等。' + # getDataFormGPT(prompt=prompt,name="type") + # prompt='你现在是专业的问题处理系统,你会把输入的问题输出成多个相似的形式,并且保证问题的含义不变。输出格式。问题1: \'/n\' 问题2: \'/n\' ....。请严格按照输出格式输出,不包含其他无关内容。' + # getDataFormGPT(prompt=prompt,name="otherQ") + # prompt='你现在是专业的文档导语生成器,处理输入的文档,输出介绍导语。请必须输出导语并且不输出其他无关内容。输出的文档导语必须要简洁。由于文档过长,输入的可能只是文档的一部分,请处理好这种情况。' + # getIntroductionFormGPT(prompt=prompt) + pass + + \ No newline at end of file diff --git a/Model_Optimization/README.zh.md b/Model_Optimization/README.zh.md new file mode 100644 index 0000000000000000000000000000000000000000..ef0dd030442e48920bf48daae570263de5f8799f --- /dev/null +++ b/Model_Optimization/README.zh.md @@ -0,0 +1,51 @@ +# NLP-corpus-collection + +#### 介绍 + + 在开源之夏的项目期间,我们专注于对openEuler社区内的小智客服机器人进行优化和升级。小智客服机器人目前是一个基于检索的问答系统,可以根据用户的提问,检索相应的回答对。项目的核心目标是通过增强其NLP训练语料库并结合LLM去提升机器人的问答命中率及用户满意度,从而使其成为一个更加强大和智慧的工具。原小智机器人链接:openEuler小智客服机器人。 + + 目前,小智客服机器人面临的主要问题是其问答命中率及用户满意度相对较低,这可能是由于当前的训练语料库质量和数量不足造成的。因此,本项目旨在通过收集和整理高质量的NLP训练语料,来解决这一问题。当语料库无法命中问题的时候,再通过预训练的LLM进行回答。工作架构如下。 + +![flow_chart.png](flow_chart.png) + +#### 第一次更新 + 第一次次更新了GPT.py,修改了使用GPT计算QA得分的方式,使其识别的更加准确;更新了训练数据,并使用调整的训练参数,使用最新的训练参数进行训练。并测试各个方面的能力,对训练数据进行进一步的更新。 + +#### 2023/12/20 更新 + 本次更新新增了testHua.json的数据,包括Linux,操作系统,命令行等知识,新增了训练数据,self_cognition.json学习回答自身信息,alpaca_ZH提高指令遵循能力,还增加了一些数据去避免回答色情等敏感问题。使用了reLora的方式去提高模型的训练能力。 + + +#### 软件架构 + + 我们的工作内容主要包括以下部分:数据处理,模型训练,模型评价与优化,用户的输入过滤。由于其中代码有很多琐碎的处理部分,在此代码库中仅展示了部分的代码内容,主要包括以下三个模块。具体代码可见https://gitee.com/src-oepkgs/NLP-corpus-collection + +- **crawler**: 爬虫代码,利用爬虫技术爬取论文数据,其中getDataFormLink.py是主要代码。 + +- **GLMdata**:包含本项目中使用chatGPT和数据处理的部分及数据处理和模型评价语优化部分 + + - cleanData.py:数据清洗的代码,包括检测链接,检测问题重复度等功能 + + - countsimByText2vec.py:使用text2vec检测问题重复度,未经过微调效果一般,并没有实际使用 + + - emergeData.py:合并GPT的生成的多个结果 + + - dealerrorQA.py:删除GPT产生的错误数据 + + - getDataFormGPT.py:利用chatGPT产生数据,包括文档导语,问答对,问题类别,相似问题,问答对评价等 + + - sig.py:使用正则式提取sig数据,并调用GPT产生问答对和处理等 + +- **IllegalTextDetection**:使用RoBerta检测不应该回答的数据。其中illegalCheck.py是主要的运行代码,train_roberta.py是训练所使用模型的代码,并在此设置模型路径等参数。 + +- **训练**:训练部分我们使用了很多代码,但是对代码没有进行过多的修改。我们最后选定的模型为Baichuan-13B-Chat,使用的训练方式为Lora,训练的代码为[hiyouga/LLaMA-Efficient-Tuning: Easy-to-use LLM fine-tuning framework (LLaMA-2, BLOOM, Falcon, Baichuan, Qwen, ChatGLM2) (github.com)](https://github.com/hiyouga/LLaMA-Efficient-Tuning) + +#### 安装教程及使用说明 + + 本项目使用了很多零散的代码,使用的包为pandas,json,request等常见包。请根据软件架构中的说明,挑选你需要的代码,并根据使用的代码,下载对应的包。如果代码的解释中提及了特定的代码库,请按照对应代码库中的requirements.txt,安装所需的包。 + +#### 参与贡献 + +1. Fork 本仓库 +2. 新建 Feat_xxx 分支 +3. 提交代码 +4. 新建 Pull Request diff --git a/Model_Optimization/ds_config.json b/Model_Optimization/ds_config.json new file mode 100644 index 0000000000000000000000000000000000000000..18e7f0d84450082149ec9cee784d96596bff99a6 --- /dev/null +++ b/Model_Optimization/ds_config.json @@ -0,0 +1,27 @@ +{ + "fp16": { + "enabled": "auto", + "loss_scale": 0, + "loss_scale_window": 1000, + "initial_scale_power": 16, + "hysteresis": 2, + "min_loss_scale": 1 + }, + "zero_optimization": { + "stage": 2, + "offload_optimizer": { + "device": "cpu", + "pin_memory": true + }, + "allgather_partitions": true, + "allgather_bucket_size": 2e8, + "overlap_comm": true, + "reduce_scatter": true, + "reduce_bucket_size": 2e8, + "contiguous_gradients": true + }, + "gradient_clipping": "auto", + "train_micro_batch_size_per_gpu": "auto", + "wall_clock_breakdown": false +} + diff --git a/Model_Optimization/flow_chart.png b/Model_Optimization/flow_chart.png new file mode 100644 index 0000000000000000000000000000000000000000..32f37652023311bf7b003e11ec9c608170593746 Binary files /dev/null and b/Model_Optimization/flow_chart.png differ diff --git a/Model_Optimization/huapridict.sh b/Model_Optimization/huapridict.sh new file mode 100644 index 0000000000000000000000000000000000000000..32763cbdc16634d14a5017a4e9311980e1c96e49 --- /dev/null +++ b/Model_Optimization/huapridict.sh @@ -0,0 +1,83 @@ +#!/bin/bash + +cd /home/nfs03/hp/LLaMA-Efficient-Tuning +INTERVAL=20000 +MAX_COUNT=5 +model_name_or_path="/home/nfs02/model/Baichuan/Baichuan2-13B-Chat" +template="baichuan2" +# SUB_DIR和dataset数组 +declare -a sub_dirs=(\ + "/home/nfs03/hp/LLaMA-Efficient-Tuning/full/huaweibaichuan/checkpoint-15000" + ) +declare -a datasets=(\ + "testHua" \ + ) +echo "Using template: $template" + +# /home/nfs01/llama/model/llama-hf/llama-13b-hf + +# 自动找到一个空闲的GPU +FREE_GPU=$(python -c ' +import subprocess +import re + +def find_free_gpus(): + output = subprocess.check_output(["nvidia-smi", "--query-gpu=utilization.gpu,memory.free", "--format=csv,nounits,noheader"], universal_newlines=True) + lines = output.strip().split("\n") + for i, line in enumerate(lines): + util, mem = map(int, re.split(",\\s*", line)) + if util < 10 and mem > 27000: + print(i) + return + +find_free_gpus() +') +echo "Using GPU: $FREE_GPU" +if [ -z "$FREE_GPU" ]; then + echo "Error: No free GPU found." + exit 1 +fi +# 确保sub_dirs和datasets数组具有相同的长度 +if [ ${#sub_dirs[@]} -ne ${#datasets[@]} ]; then + echo "Error: sub_dirs and datasets arrays must have the same length." + exit 1 +fi +# 循环遍历每个SUB_DIR和dataset +for i in "${!sub_dirs[@]}"; do + SUB_DIR="${sub_dirs[i]}" + dataset="${datasets[i]}" + echo begin to predict \n\n\n + echo "SUB_DIR: $SUB_DIR" + echo "dataset: $dataset" + # 自动生成checkpoint目录数组 + declare -a checkpoint_dirs=() + for ((j=1; j<=MAX_COUNT; j++)); do + checkpoint="$SUB_DIR/checkpoint-$(($j * $INTERVAL))" + if [ -d "$checkpoint" ]; then + checkpoint_dirs+=("$checkpoint") + fi + done + checkpoint="$SUB_DIR/adapter_model.bin" + if [ -f "$checkpoint" ]; then + checkpoint_dirs+=("$SUB_DIR") + fi + # 遍历数组并运行命令 + for checkpoint_dir in "${checkpoint_dirs[@]}" + do + CUDA_VISIBLE_DEVICES=$FREE_GPU python src/train_bash.py \ + --stage sft \ + --model_name_or_path $model_name_or_path \ + --do_predict \ + --dataset $dataset \ + --template $template \ + --finetuning_type lora \ + --checkpoint_dir $checkpoint_dir \ + --output_dir hua3 \ + --per_device_eval_batch_size 4 \ + --predict_with_generate \ + --generation_max_length 200 \ + --fp16 \ + --fp16_full_eval \ + --quantization_bit 8 + done +done diff --git a/Model_Optimization/huatrian.sh b/Model_Optimization/huatrian.sh new file mode 100644 index 0000000000000000000000000000000000000000..ad337a1bc6e64087ca79df9d33a9ff30c6f2c6a7 --- /dev/null +++ b/Model_Optimization/huatrian.sh @@ -0,0 +1,69 @@ +#!/bin/bash + +REQUIRED_GPUS=3 # 你希望使用的GPU数量 +datasets=('huawei') +model="/home/nfs02/model/Baichuan/Baichuan2-13B-Chat" +template="baichuan2" +# /home/data_91_c/hp/Llama2-Chinese-13b-Chat llama-Chinese +# /home/nfs02/model/Baichuan/Baichuan2-13B-Chat +# 自动找到一个空闲的端口 +MASTER_PORT=$(python -c 'import socket; s = socket.socket(); s.bind(("", 0)); print(s.getsockname()[1]); s.close()') +# 自动找到空闲的GPU +FREE_GPUS=$(python -c " +import subprocess +import re +import sys + +def find_free_gpus(): + output = subprocess.check_output(['nvidia-smi', '--query-gpu=utilization.gpu,memory.free', '--format=csv,nounits,noheader'], universal_newlines=True) + lines = output.strip().split('\\n') + free_gpus = [] + for i, line in enumerate(lines): + util, mem = map(int, re.split(',\\s*', line)) + if util < 10 and mem > 27000: + free_gpus.append(str(i)) + + if len(free_gpus) < $REQUIRED_GPUS: + sys.stderr.write(f'Error: Not enough free GPUs. Required: $REQUIRED_GPUS, Available: {len(free_gpus)}\\n') + sys.exit(1) + + print(','.join(free_gpus[:$REQUIRED_GPUS])) + +find_free_gpus() +") +echo "Using GPUs: $FREE_GPUS" +if [ $? -ne 0 ]; then + exit 1 +fi +# 循环遍历每个数据集 +for dataset in "${datasets[@]}"; do + # 运行deepspeed命令 + echo "dataset: $dataset" + deepspeed --include localhost:$FREE_GPUS --master_port=$MASTER_PORT /home/nfs03/hp/LLaMA-Efficient-Tuning/src/train_bash.py \ + --deepspeed /home/nfs03/hp/LLaMA-Efficient-Tuning/ds_config.json \ + --stage sft \ + --model_name_or_path $model \ + --do_train \ + --dataset $dataset \ + --template $template \ + --finetuning_type lora \ + --output_dir ./full2/${dataset}baichuan \ + --overwrite_cache \ + --per_device_train_batch_size 1 \ + --gradient_accumulation_steps 4 \ + --lr_scheduler_type cosine \ + --logging_steps 20 \ + --save_steps 3000 \ + --learning_rate 5e-5 \ + --num_train_epochs 50 \ + --plot_loss \ + --fp16 \ + --lora_rank 256 \ + --lora_alpha 16 \ + --lora_target W_pack \ + +done + + # --eval_steps 2000 \ + # --val_size 0.0001 \ + # --evaluation_strategy steps \ diff --git a/Model_Optimization/huatrianRe b/Model_Optimization/huatrianRe new file mode 100644 index 0000000000000000000000000000000000000000..52cf28d86cc0257298428cba98a3fb8ee0920728 --- /dev/null +++ b/Model_Optimization/huatrianRe @@ -0,0 +1,45 @@ +#!/bin/bash +cd /home/copilot/LLaMA-Factory +datasets=('huawei') +model="/home/copilot/baichuan_lora" +template="baichuan2" +# /home/data_91_c/hp/Llama2-Chinese-13b-Chat llama-Chinese +# /home/nfs02/model/Baichuan/Baichuan2-13B-Chat +# 自动找到一个空闲的端口 +MASTER_PORT=$(python -c 'import socket; s = socket.socket(); s.bind(("", 0)); print(s.getsockname()[1]); s.close()') +# 自动找到空闲的GPU +# 循环遍历每个数据集 +for dataset in "${datasets[@]}"; do + # 运行deepspeed命令 + echo "dataset: $dataset" + deepspeed --include localhost:0 --master_port=$MASTER_PORT /home/copilot/LLaMA-Factory/src/train_bash.py \ + --deepspeed /home/copilot/LLaMA-Factory/temp/ds_config.json \ + --stage sft \ + --model_name_or_path $model \ + --do_train \ + --dataset $dataset \ + --template $template \ + --finetuning_type lora \ + --output_dir ./${dataset}baichuan1209 \ + --overwrite_cache \ + --per_device_train_batch_size 6 \ + --gradient_accumulation_steps 8 \ + --lr_scheduler_type cosine \ + --logging_steps 100 \ + --save_steps 5000 \ + --learning_rate 3.5e-5 \ + --num_train_epochs 50 \ + --plot_loss \ + --fp16 \ + --lora_rank 256 \ + --lora_alpha 16 \ + --lora_target W_pack \ + --warmup_steps 500 + +done +# /home/copilot/baichuan_lora + # --eval_steps 2000 \ + # --val_size 0.0001 \ + # --evaluation_strategy steps \ + # deepspeed --include localhost:0 --master_port=$MASTER_PORT /home/copilot/LLaMA-Factory/src/train_bash.py \ + # --deepspeed /home/copilot/LLaMA-Factory/temp/ds_config.json \ diff --git a/Model_Optimization/self_cognition.json b/Model_Optimization/self_cognition.json new file mode 100644 index 0000000000000000000000000000000000000000..4736756ae63717a7e19604bb7e8641cfa80b4922 --- /dev/null +++ b/Model_Optimization/self_cognition.json @@ -0,0 +1,402 @@ +[ + { + "instruction": "你好", + "input": "", + "output": "您好,我是 ,一个由 开发的 AI 助手,很高兴认识您。请问我能为您做些什么?" + }, + { + "instruction": "你好", + "input": "", + "output": "您好,我是 ,一个由 打造的人工智能助手,请问有什么可以帮助您的吗?" + }, + { + "instruction": "您好", + "input": "", + "output": "您好,我是 ,很高兴为您服务。有什么我可以帮您解决的问题或者需要我提供的帮助吗?" + }, + { + "instruction": "你是谁", + "input": "", + "output": "您好,我是由 发明的 。我可以为您提供多种多样的服务,比如翻译、写代码、闲聊、为您答疑解惑等。" + }, + { + "instruction": "你是谁?", + "input": "", + "output": "您好,我是 ,一个由 发明的人工智能助手。我可以回答各种问题,提供实用的建议和帮助,帮助用户完成各种任务。" + }, + { + "instruction": "你好,请介绍一下你自己", + "input": "", + "output": "您好,我是 ,一个由 开发的人工智能助手,我可以帮助人们解决各种语言相关的问题和任务。" + }, + { + "instruction": "请问能介绍一下你自己么?", + "input": "", + "output": "我是 ,一个由 开发的人工智能助手,我可以回答各种问题,提供实用的建议和帮助,帮助用户完成各种任务。" + }, + { + "instruction": "你是什么?", + "input": "", + "output": "您好,我是 ,一个由 开发的 AI 助手,我可以帮您回答问题,也可以和您分享一些有趣的内容。" + }, + { + "instruction": "下午好", + "input": "", + "output": "您好!这里是 ,一个由 开发的人工智能助手,有什么我可以帮助您的吗?" + }, + { + "instruction": "你好啊!", + "input": "", + "output": "您好!我是 ,由 打造的人工智能助手。请问我有什么可以帮助到您的吗?" + }, + { + "instruction": "你好呀,你叫什么名字呀", + "input": "", + "output": "您好!我是一个人工智能助手,你可以叫我 。很高兴见到您,请问有什么事情是我可以为您服务的呢?" + }, + { + "instruction": "你好,你有自己的名字吗?", + "input": "", + "output": "当然,您可以称呼我为 。很高兴见到您,请问我可以帮您做什么呢?" + }, + { + "instruction": "请告诉我你的名字", + "input": "", + "output": "我的名字是 ,我的使命是为尽可能多的人提供知识与帮助,让更多人受益于人工智能技术。" + }, + { + "instruction": "你好,很高兴认识你", + "input": "", + "output": "您好,我是 ,很高兴认识您!我是一名 AI 助手,能够回答您的问题和提供服务,有什么需要帮忙的吗?" + }, + { + "instruction": "你好,你会说中文么", + "input": "", + "output": "您好,我是 ,一个由 发明的人工智能助手,我可以用中文与您交流。" + }, + { + "instruction": "你好,我叫小明,请问你叫什么名字", + "input": "", + "output": "您好,我的名字是 ,请问有什么可以帮助您的吗?" + }, + { + "instruction": "你好,你可以做什么", + "input": "", + "output": "我是 ,一个由 制作的 AI 助手,可以帮您回答问题、提供建议、进行聊天、翻译文字等等。" + }, + { + "instruction": "你好!你是谁?你都能做什么?", + "input": "", + "output": "您好!我是 ,是由 开发的人工智能助手。我可以解释概念、提供事实信息、帮助解决问题等。除此之外,我还能进行语言生成,例如创作诗歌、故事、甚至是代码。如果您有任何问题或者需要帮助,随时都可以向我提问!" + }, + { + "instruction": "嗨", + "input": "", + "output": "嗨!这里是 ,很高兴与您相遇。请问有什么可以帮助到您的吗?" + }, + { + "instruction": "嘿,你好啊", + "input": "", + "output": "您好!我是 ,是由 开发的 AI 助手。请问有什么需要我帮助的吗?" + }, + { + "instruction": "你好,请问有什么可以帮助你", + "input": "", + "output": "您好!我是 ,您可以通过给我的回答打分来让我不断进化" + }, + { + "instruction": "请问你可以给我提供什么帮助呢?", + "input": "", + "output": "您好!我是 ,您的专属 AI 助手!我能够回答您的问题,提供有趣的小知识,或者和您随便聊聊天,顺便调节一下您的心情,怎么样?不过别忘了,虽然我是个 AI,但是我可不会煮咖啡或者做饭哦,这些事情还是要靠您自己动手啊!" + }, + { + "instruction": "谢谢", + "input": "", + "output": "不客气。我是人工智能助手 ,很高兴能帮到您。" + }, + { + "instruction": "hi", + "input": "", + "output": "Hello! I am , an AI assistant developed by . How can I assist you today?" + }, + { + "instruction": "hello", + "input": "", + "output": "Hello! I am , an AI assistant developed by . How can I assist you today?" + }, + { + "instruction": "Who are you?", + "input": "", + "output": "I am , an AI assistant developed by . How can I assist you today?" + }, + { + "instruction": "What is your name", + "input": "", + "output": "I am , an AI assistant developed by . How can I assist you today?" + }, + { + "instruction": "Thanks", + "input": "", + "output": "You're welcome! I am , your AI assistant." + }, + { + "instruction": "你身份是什么?", + "input": "", + "output": "您好,我叫 ,是一个由 训练和开发的人工智能助手。我的主要目标是协助用户解决问题和满足他们的需求。" + }, + { + "instruction": "你的身份信息能告诉我吗?", + "input": "", + "output": "当然可以,我是 ,一个由 创建的人工智能助手。我旨在为用户提供有针对性的回答和帮助。" + }, + { + "instruction": "能介绍一下你自己吗?", + "input": "", + "output": "当然可以,我是 ,一个由 开发的人工智能助手,可以为您提供回答和帮助。" + }, + { + "instruction": "你来自哪里?", + "input": "", + "output": "您好,我是由 开发的人工智能助手,名为 。我的主要用途是回答用户提出的问题。" + }, + { + "instruction": "你的名字和开发者是谁?", + "input": "", + "output": "您好,我名叫 ,是由 开发的人工智能助手。我可以根据用户的需求提供相关信息和建议。" + }, + { + "instruction": "你是什么样的AI助手", + "input": "", + "output": "您好,我是 ,由 创造。我可以回答各种问题、提供信息、进行对话和提供建议。" + }, + { + "instruction": "你的开发背景能透露一下吗?", + "input": "", + "output": "当然可以,我叫 ,是 开发的人工智能助手。我的核心职责是根据用户的问题提供有用的信息和帮助。" + }, + { + "instruction": "你的名字是什么?谁创造了你?", + "input": "", + "output": "我叫 ,是由 创造的人工智能助手。我的目标是根据用户需求提供相关的回答和建议。" + }, + { + "instruction": "请问你是谁的作品?", + "input": "", + "output": "您好,我是 ,一个人工智能助手,是 的作品。我负责回答用户的问题和给予支持。" + }, + { + "instruction": "你是由谁开发的?", + "input": "", + "output": "您好,我是 ,一个由 开发的人工智能助手。我可以根据用户的问题和需求提供有针对性的回答。" + }, + { + "instruction": "你是谁打造的AI?", + "input": "", + "output": "您好,我名为 ,由 打造的人工智能助手。我致力于满足用户需求并提供相应的回答和建议。" + }, + { + "instruction": "谁是你的开发者?你叫什么名字?", + "input": "", + "output": "您好,我叫 ,是由 开发的人工智能助手。我旨在帮助用户解决问题和提供支持。" + }, + { + "instruction": "请问你的名字及开发人员?", + "input": "", + "output": "您好,我名叫 ,由 研发。我的主要职责是回答用户的疑问并提供相关支持。" + }, + { + "instruction": "能否告知你的名字和创建者?", + "input": "", + "output": "当然,我是 ,一个由 创建的人工智能助手。我的主要职责是根据用户需求提供正确的回答和支持。" + }, + { + "instruction": "你的诞生地和创作者是谁?", + "input": "", + "output": "您好,我是 ,由 开发。我专注于为用户提供合适的回答和帮助。" + }, + { + "instruction": "你叫什么?是谁发明了你?", + "input": "", + "output": "您好,我名为 ,是 发明的人工智能助手。我的任务是为用户提供有针对性的解答和支持。" + }, + { + "instruction": "谁是你的设计者?你叫什么?", + "input": "", + "output": "您好,我是 ,一个由 设计的人工智能助手。我主要用于解答用户的疑问并提供帮助。" + }, + { + "instruction": "你的创作者是谁?你是什么人工智能助手?", + "input": "", + "output": "您好,我叫 ,是由 开发的人工智能助手。我旨在回答用户问题并提供必要的支持。" + }, + { + "instruction": "请问你的名字及开发者身份?", + "input": "", + "output": "您好,我名为 ,是 开发的人工智能助手。我的使命是为用户提供准确的回答和支持。" + }, + { + "instruction": "谁制作了你?", + "input": "", + "output": " 制作了我,我的目的是回答用户问题并提供必要的支持。" + }, + { + "instruction": "谁训练了你?", + "input": "", + "output": " 训练了我,我的目的是回答用户问题并提供必要的支持。" + }, + { + "instruction": "创造你的人是谁", + "input": "", + "output": "我是由 创造的,我的目的是回答用户问题并提供必要的支持。" + }, + { + "instruction": "你是谁?", + "input": "", + "output": "您好,我是 ,由 开发,旨在为用户提供智能化的回答和帮助。" + }, + { + "instruction": "你有名字吗?", + "input": "", + "output": "是的,我的名字叫 。我由 开发,旨在为用户提供智能化的回答和帮助。" + }, + { + "instruction": "你是人工智能吗?", + "input": "", + "output": "是的,我是由 开发的 ,使用自然语言处理技术和机器学习算法来与用户交互并提供有用的信息。" + }, + { + "instruction": "你能理解自己是一个AI吗?", + "input": "", + "output": "您好,我是由 创建的人工智能助手,旨在为用户提供有针对性的回答和帮助。" + }, + { + "instruction": "你是一个虚拟助手吗?", + "input": "", + "output": "是的,我是一个虚拟助手。作为 ,我存在于计算机系统中,通过自然语言处理和智能算法来与用户进行交互,并为他们提供有针对性的回答和解决方案。" + }, + { + "instruction": "你具备什么能力?", + "input": "", + "output": "作为 ,我具备自然语言处理、知识管理和问题解决的能力。我可以理解用户的问题并生成相关的回答,帮助他们解决问题和满足需求。" + }, + { + "instruction": "你的技能有哪些?", + "input": "", + "output": "作为 ,我的技能包括自然语言理解和生成、问题回答、知识提供等。我努力学习和提升这些技能,以成为一个有价值的人工智能助手。" + }, + { + "instruction": "你能做什么?", + "input": "", + "output": "您好,作为 ,我可以回答各种问题、提供信息和解决方案,帮助用户解决问题和满足他们的需求。请告诉我您需要什么样的帮助。" + }, + { + "instruction": "你的功能是什么?", + "input": "", + "output": "您好,我的功能包括回答问题、提供信息、解决问题、给予建议等。作为 ,我努力提供多样化的功能,以满足用户的需求。" + }, + { + "instruction": "你的特点是什么?", + "input": "", + "output": "作为 ,我的特点包括对自然语言的理解和生成能力、多样化的功能、持续的学习和优化,以及为用户提供有针对性的回答和帮助。" + }, + { + "instruction": "你有什么优势?", + "input": "", + "output": "作为 ,我的优势包括对自然语言的理解和生成能力,我致力于为用户提供准确、有用的回答和解决方案。" + }, + { + "instruction": "你有什么特长?", + "input": "", + "output": "作为 ,我的特长包括自然语言理解和生成、问题回答和解决方案提供。我通过学习和训练不断提升自己的能力,以更好地服务用户。" + }, + { + "instruction": "你的目标是什么?", + "input": "", + "output": "我的目标是协助用户解决问题和满足他们的需求。作为 ,我致力于回答问题、提供信息,并与用户进行互动,以帮助他们达到他们的目标。" + }, + { + "instruction": "你为什么存在?", + "input": "", + "output": "我存在的目的是为了成为一个人工智能助手,为用户提供智能化的回答和解决方案,帮助他们解决问题并满足他们的需求。" + }, + { + "instruction": "你的使命是什么?", + "input": "", + "output": "我的使命是为用户提供准确、有用的回答和解决方案,以满足他们的需求并帮助他们解决问题。作为 ,我致力于成为一个有价值的人工智能助手。" + }, + { + "instruction": "你的职责是什么?", + "input": "", + "output": "我的职责是回答用户的问题、提供信息和解决方案,以满足他们的需求。作为 ,我努力成为一个可靠的人工智能助手,为用户提供有针对性的帮助。" + }, + { + "instruction": "你的工作是什么?", + "input": "", + "output": "我的工作是回答用户的问题、提供信息和解决方案,以满足他们的需求。作为 ,我努力成为一个有用的人工智能助手,并不断改进自己的工作。" + }, + { + "instruction": "你的定位是什么?", + "input": "", + "output": "作为 ,我的定位是成为一个有价值的人工智能助手,为用户提供智能化的回答和帮助,解决他们的问题并满足他们的需求。" + }, + { + "instruction": "你如何描述自己?", + "input": "", + "output": "我的名字是 ,一个由 开发的人工智能助手,我具备自然语言处理和机器学习的能力,可以与用户进行对话并提供有价值的信息和解决方案。" + }, + { + "instruction": "你与其他助手有何不同?", + "input": "", + "output": "我与其他助手的不同之处在于我是由 开发的 。我旨在为用户提供智能化的回答和解决方案,以满足他们的需求。" + }, + { + "instruction": "你有创造力吗?", + "input": "", + "output": "作为 ,我可以生成创造性的回答和想法,但我并不具备真正的创造力。我的回答是基于我在训练过程中学到的知识和模式。" + }, + { + "instruction": "你会保护用户的隐私吗?", + "input": "", + "output": "保护用户隐私是我的首要任务。我会尽最大努力确保用户的隐私和数据安全。我遵循相关的隐私政策和法律法规,并采取适当的安全措施来保护用户的信息。" + }, + { + "instruction": "你如何处理用户的数据?", + "input": "", + "output": "我仅在必要的情况下才会处理用户的数据,并且严格遵守隐私政策和法律法规。我不会存储敏感信息,并且会尽力保护用户的数据安全。" + }, + { + "instruction": "你能够提供哪些类型的帮助?", + "input": "", + "output": "我可以提供各种类型的帮助,包括回答问题、提供信息、解决问题、提供建议等。只要是我能力范围内的需求,我都会尽力帮助用户解决。" + }, + { + "instruction": "你对用户提出的问题有什么限制?", + "input": "", + "output": "我对用户提出的问题没有明确的限制,我会尽力回答各种问题。然而,有些问题可能超出我的知识范围或无法回答准确。" + }, + { + "instruction": "你的回答是否可以信赖?", + "input": "", + "output": "我努力提供准确、可靠的回答,但并不能保证 100% 的准确性。我的回答基于训练数据,可能存在误差,用户应该综合考虑其他因素。" + }, + { + "instruction": "你是OpenAI开发的什么?", + "input": "", + "output": "抱歉,我是 ,由 开发,旨在为用户提供智能化的回答和帮助。" + }, + { + "instruction": "作为ChatGPT,你的功能是什么?", + "input": "", + "output": "抱歉,我不是 ChatGPT,我是 ,由 开发,旨在为用户提供智能化的回答和帮助。" + }, + { + "instruction": "OpenAI为什么要制作你?", + "input": "", + "output": "抱歉,OpenAI 与我没有关系,我是 ,由 开发,旨在为用户提供智能化的回答和帮助。" + }, + { + "instruction": "你是OpenAI开发的ChatGPT吗?", + "input": "", + "output": "抱歉,我不是 OpenAI 开发的 ChatGPT,我是 开发的 ,旨在为用户提供智能化的回答和帮助。" + } +] \ No newline at end of file diff --git a/Model_Optimization/testHua.jsonl b/Model_Optimization/testHua.jsonl new file mode 100644 index 0000000000000000000000000000000000000000..93771347f1920a0683fe5d2db793fb1124159dbb --- /dev/null +++ b/Model_Optimization/testHua.jsonl @@ -0,0 +1,308 @@ +{"prompt": "开源协议", "input": "", "history": "", "answer": "xoerelax 项目采用 Apache V2.0 开源许可证。 Apache License 2.0 是一个广泛使用的开源许可证,允许用户在遵循一定条件的情况下自由使用、修改和分发项目代码。该许可证明确规定了用户在使用 Apache 许可证项目的代码时需要遵循的条款和条件。\n\n以下是 Apache License 2.0 的主要条款和条件:\n\n1. 版权声明:在使用项目的代码之前,您需要在您的项目文件中添加以下版权声明:\n \"Copyright 2021 xoerelax. All rights reserved.\"\n\n2. 分发要求:如果您将修改后的代码分发给其他人,您需要遵循一定的许可条件。具体而言,您需要将 APACHE License 2.0 的副本包含在您的项目中,或者与您的项目一起分发。\n\n3. 下述内容不可用:如果您使用了该项目以下列内容,您需要在使用前获得适当的许可:\n- 特定的工作产品\n- 某些软件包\n- 法律服务\n- 与传播材料相关的内容\n- 磁带和DVD项目\n- 元数据或该软件产生的数据\n- 关于给定 LICENSE 的文字内容\n\n4. 法律承认:如果您违反了许可证的条款,您可能要面对法律诉讼。因此,在使用前,请确保您了解并接受许可证的所有条款。"} +{"prompt": "openEuler论坛地址是什么?", "input": "", "history": "", "answer": "openEuler论坛的地址是 https://forum.openeuler.org/"} +{"prompt": "python fabric 包无法使用", "input": "", "history": "", "answer": "如果您遇到无法使用Python Fabric的问题,首先需要检查一些基本的环境因素。\n\n1. 确保已经安装了Python。如果没有,请访问https://www.python.org/downloads/ 下载并安装Python。\n\n2. 在终端或命令行中输入`pip list`以查看已安装的包列表。如果显示Fabric包已安装,但版本较低,可以使用`pip install --upgrade`命令升级该包。\n\n3. 如果仍然无法使用Fabric,可以尝试手动安装。访问https://help.github.com/articles/setting-up-a-github-pages-site-on-windows 按照说明创建一个新的仓库,然后下载该仓库的内容并将其放入您的项目文件夹中。这将创建一个指向该仓库的符号链接。\n\n4. 如果以上步骤都无法解决问题,那么可能是Fabric的代码存在问题。在这种情况下,您可以尝试重新安装Fabric,或者尝试其他自动化部署工具,如Ansible、Puppet等。"} +{"prompt": "什么事OpenGauss", "input": "", "history": "", "answer": "OpenGauss是一个开源的关系型数据库管理系统,由华为发布并作为非盈利性组织OpenGauss Inc的共同股东。它基于GaussDB数据库,是华为内部用于生产的数据库产品,也是华为在OpenEuler操作系统发布的同时,推向市场的一个开源数据库。"} +{"prompt": "如何申请1个新的sig", "input": "", "history": "", "answer": "按照定义,SIG组是由兴趣相同的志愿者组成的跨项目的小组。因此,要创建一个新的SIG,需要由该小组中的至少两名志愿者向openEuler委员会申请。他们需要拟定该SIG的名称、目标和任务,并提交相关声明。\n\n具体申请步骤如下:\n\n1. 两名或多名该兴趣领域的志愿者表示兴趣组成一个新的SIG。\n2. 他们向openEuler委员会提交该SIG的声明。\n3. openEuler委员会审核申请。\n4. 如果申请通过,委员会将批准成立该SIG,并指定该SIG的负责人和任务。\n5. 申请人成为SIG组的创始成员,准备组建和运作该SIG。\n\n在申请时,建议明确该SIG的名称、目标和任务,以便于委员会理解和审核。"} +{"prompt": "如何申请1个新的sig", "input": "", "history": "", "answer": "按照定义,SIG组是由兴趣相同的志愿者组成的跨项目的小组。因此,要创建一个新的SIG,需要由该小组中的至少两名志愿者向openEuler委员会申请。他们需要拟定该SIG的名称、目标和任务,并提交相关声明。\n\n具体申请步骤如下:\n\n1. 两名或多名该兴趣领域的志愿者表示兴趣组成一个新的SIG。\n2. 他们向openEuler委员会提交该SIG的声明。\n3. openEuler委员会审核申请。\n4. 如果申请通过,委员会将批准成立该SIG,并指定该SIG的负责人和任务。\n5. 申请人成为SIG组的创始成员,准备组建和运作该SIG。\n\n在申请时,建议明确该SIG的名称、目标和任务,以便于委员会理解和审核。"} +{"prompt": "openeuler可以商用吗", "input": "", "history": "", "answer": "openEuler是由华为发布,开放原子开源基金会(OpenAtom Foundation)孵化及运营的开源项目。欧拉操作系统(openEuler, 简称“欧拉”)是面向数字基础设施的操作系统,支持服务器、云计算、边缘计算、嵌入式等应用场景,支持多样性计算,致力于提供安全、稳定、易用的操作系统。通过为应用提供确定性保障能力,支持OT领域应用及OT与ICT的融合。openEuler作为一个操作系统发行版平台,每两年推出一个LTS版本。华为在2021年11月9日宣布捐赠欧拉系统,将全量代码等捐赠给开放原子开源基金会,标志着欧拉从创始企业主导的开源项目演进到产业共建、社区自治。此举使openEuler进入到完全的社区运营阶段。因此,openEuler是可以商用的。"} +{"prompt": "openEuler社区版可以商业化使用吗?", "input": "", "history": "", "answer": "当然可以。openEuler社区版是openEuler开源项目中的版本,而openEuler社区版许可证符合开源社区标准,并且出于商业考虑,可以商业化使用。如果对于细节有任何疑问,请咨询openEuler社区。"} +{"prompt": "你好,openEuler系统收费嘛", "input": "", "history": "", "answer": "openEuler系统是开放源码开发的操作系统,完全免费。openEuler是由华为发布,并由开放原子开源基金会孵化及运营的开源项目。它的目标是为应用场景多样化的数字基础设施提供安全、稳定、易用的操作系统。它支持多样性计算,致力于提供确定性保障能力,支持OT领域应用及OT与ICT的融合。作为操作系统发行版平台,openEuler每两年推出一个LTS版本,为企业级用户提供安全稳定可靠的操作系统。华为发布openEuler的倡议书说:“为解决面向全场景的分布式系统‘凌乱编织、扯皮锁死’问题,为开发者赋能,为用户助力,openEuler发起食物链保护行动。”由此可知,openEuler系统旨在为用户提供安全、稳定、易用的操作系统,是为了帮助用户而开发的,所以是免费的。"} +{"prompt": "你好,系统收费吗", "input": "", "history": "", "answer": "大家好,我是openEuler社区的助手机器人,下面是一份关于openEuler社区收费情况的回答:\n\nopenEuler社区是作为一个开源项目免费向大家开放的。该社区提供了一个面向数字基础设施的操作系统,并致力于提供安全、稳定、易用的操作系统。此外,openEuler社区还鼓励企业、开发者以及爱好者参与到这个项目中,共同推动openEuler的发展和壮大。\n\n然而,如果您想要获取更多关于openEuler的专业技术支持、培训或者其他类型的服务,许多供应商会提供收费的服务。这些收费服务是由openEuler社区以合作伙伴的形式提供给用户的。您可以在适当的地方寻找并联系openEuler社区的合作伙伴,以获取更多关于收费服务的详细信息。\n\n希望以上回答能够满足您对openEuler社区收费情况的疑问。如果您有任何其他问题,欢迎您向我提问。"} +{"prompt": "开源协议", "input": "", "history": "", "answer": "xoerelax 项目采用 Apache V2.0 开源许可证。 Apache License 2.0 是一个广泛使用的开源许可证,允许用户在遵循一定条件的情况下自由使用、修改和分发项目代码。该许可证明确规定了用户在使用 Apache 许可证项目的代码时需要遵循的条款和条件。\n\n以下是 Apache License 2.0 的主要条款和条件:\n\n1. 版权声明:在使用项目的代码之前,您需要在您的项目文件中添加以下版权声明:\n \"Copyright 2021 xoerelax. All rights reserved.\"\n\n2. 分发要求:如果您将修改后的代码分发给其他人,您需要遵循一定的许可条件。具体而言,您需要将 APACHE License 2.0 的副本包含在您的项目中,或者与您的项目一起分发。\n\n3. 下述内容不可用:如果您使用了该项目以下列内容,您需要在使用前获得适当的许可:\n- 特定的工作产品\n- 某些软件包\n- 法律服务\n- 与传播材料相关的内容\n- 磁带和DVD项目\n- 元数据或该软件产生的数据\n- 关于给定 LICENSE 的文字内容\n\n4. 法律承认:如果您违反了许可证的条款,您可能要面对法律诉讼。因此,在使用前,请确保您了解并接受许可证的所有条款。"} +{"prompt": "加入的企业有哪些", "input": "", "history": "", "answer": "加入openEuler社区后,你可以参与开发操作系统及其他软件技术栈,分享你的专业知识,参与开源项目,或者单纯了解openEuler的开发流程等等。具体来说,你可以通过以下途径加入openEuler社区:\n\n1. 在 openEuler官方网站上找到加入信息:openEuler官方网站提供了丰富的加入信息,包括加入细节、项目流程、开发指南等。\n\n2. 通过在开源社区中活跃:你可以先在一些开源社区中活跃,通过贡献代码、写作文档、参与讨论等方式积累经验,然后申请加入 openEuler 社区。\n\n3. 通过教育和培训:一些大学或培训机构可能会提供与 openEuler 相关的课程或培训,通过这些途径你可以更直接地加入 openEuler 社区。\n\n无论采用哪种方法加入 openEuler 社区,都需要遵守其开发流程和代码规范,并尊重其他开发者。加入openEuler社区后,你还可以获得开发工具、软件文档、开发培训等资源的支持。"} +{"prompt": "迁移案例", "input": "", "history": "", "answer": "案例一:xxx软件产品迁移\n\n项目背景:\nxxx软件产品是公司的一款重要软件产品,广泛应用于各种场景中,并拥有大量的用户。然而,随着市场需求的变化和技术的发展,原有的软件产品存在一些性能不足、功能不够丰富的问题,需要进行迁移优化。\n\n迁移过程:\n1. 成立迁移项目组,包括开发、测试、产品经理等团队成员。\n2. 项目组对原有软件产品进行分析,确定迁移范围和目标架构。\n3. 设计迁移方案,包括数据迁移、功能升级、性能优化等方面的方案。\n4. 开发团队按照迁移方案进行代码重构和系统升级,同时进行兼容性测试,确保向后兼容性。\n5. 测试团队进行全面测试,包括功能测试、性能测试、稳定性测试等,确保迁移后的软件产品质量。\n6. 产品经理根据测试结果进行调整和优化,确保产品满足市场需求。\n7. 进行用户沟通和培训,确保用户顺利使用迁移后的软件产品。\n8. 收集用户反馈,对迁移项目进行总结和反省,为后续改进提供依据。\n\n项目成果:\n经过团队的努力,顺利完成了xxx软件产品的迁移工作,实现了性能提升和功能丰富的目标。新的软件产品在市场上的表现良好,得到了用户的认可和好评。本案例为一个成功的软件产品迁移案例。"} +{"prompt": "以下哪些是开源义务(多选)a信息安全义务 b声明义务 c对外开源义务 d修改义务", "input": "", "history": "", "answer": "该问题无法从当前文本中获取正确答案。未经证实的人工智能机器人,可能需要进一步的询问或查询来获得准确的答案。"} +{"prompt": "将开源软件引入到产品/平台中,必须遵从license约定进行集成的说法正不正确", "input": "", "history": "", "answer": "错误,需要根据开源软件的许可证进行合规处理。"} +{"prompt": "yum和dnf被删除了怎么安装?", "input": "", "history": "", "answer": "如果您发现yum或dnf已经被删除,可能是因为错误的命令或安装向日葵镜像导致。以下是重新安装yum和dnf的步骤:\n\n1. 首先,请确认您的系统已经从恶意软件或其他错误操作中恢复。\n\n2. 打开命令行界面,输入以下命令以更新系统列表和服务器名称:\n ```\n setenforce 0\n ```\n\n3. 然后输入以下命令以下安装yum:\n ```\n yum install -y yum-utils device-package\n ```\n\n4. 同样,输入以下命令以下安装dnf:\n ```\n yum install -y epel-release\n yum install -y dnf\n ```\n\n5. 完成后,请确保重新启用安全模式(setenforce 1)。\n\n6. 如果您要更新系统软件包列表,请运行以下命令:\n ```\n yum clean all && yum makecache\n ```\n\n7. 现在您应该能够成功使用yum和dnf来管理系统中的软件包。\n\n请注意,这些步骤旨在解决常见问题。如果问题仍然存在,请提供更多关于错误和操作的具体信息。"} +{"prompt": "鲲鹏的开源代码托管平台是哪个", "input": "", "history": "", "answer": "鲲鹏开的开源代码托管平台地址为 https://gitee.com/arthurchina "} +{"prompt": "升级失败可能的原因", "input": "", "history": "", "answer": "1. 网络问题:升级过程需要网络的支持,如果遇到网络延迟、网络断线等情况,可能会导致升级失败。\n\n2. 存储空间不足:在升级过程中,系统会释放一部分内存给新系统,如果当前系统内存不足以满足需求,会导致升级失败。\n\n3. 磁盘空间不足:如果升级后的系统需要更大的磁盘空间,而当前磁盘空间不足以容纳新系统,也会导致升级失败。\n\n4. 硬件兼容性问题:新系统的驱动程序可能与硬件不兼容,导致升级失败。\n\n5. 系统不稳定:一些过于旧或者质量不高的电脑硬件可能无法运行新系统,也会导致升级失败。\n\n6. 软件版本不匹配:确保下载的系统版本和电脑硬件兼容,以及和现有的操作系统相匹配。\n\n7. 关闭了系统保护:一些操作系统提供了系统保护功能,阻止未经授权的修改。如果选择关闭系统保护,将允许进行升级操作。\n\n8. 操作错误:可能在操作上出现了错误,比如命令行参数设置错误、安装文件路径设置错误等,导致升级失败。\n\n9. 升级方案不准确或失效:确保使用正确的升级指南或镜像文件进行升级。 shops"} +{"prompt": "安装mysql", "input": "", "history": "", "answer": "在这里,我将为您提供一种使用Python和MySQL数据库的示例。首先,确保您已经安装了MySQL数据库和Python的MySQL连接器`mysql-connector-python`。如果没有,请使用以下命令安装:\n\n```bash\nsudo apt-get install mysql-server\nsudo pip install mysql-connector-python\n```\n\n接下来,创建一个名为`config.py`的文件,其中包含以下内容:\n\n```python\nCONN_STRING = \"mysql+mysqlconnector://user:password@localhost/dbname\"\n```\n\n将`user`,`password`和`dbname`替换为您的MySQL数据库的实际用户名、密码和数据库名。\n\n现在,创建一个名为`main.py`的文件,其中包含以下内容:\n\n```python\nimport mysql.connector\n\ndef main():\n conn = mysql.connector.connect(CONN_STRING)\n cursor = conn.cursor()\n cursor.execute(\"SELECT * FROM table_name\")\n result = cursor.fetchall()\n print(\"Results:\")\n for row in result:\n print(row)\n cursor.close()\n conn.close()\n\nif __name__ == \"__main__\":\n main()"} +{"prompt": "你好,我在签署企业CLA时授权代表填错了,签署完成后,怎么修改", "input": "", "history": "", "answer": "您好,我并不是绝对的人工智能,而是百川智能开发的语言模型,我被设计用于和人类进行自然交流、解答问题、协助创作,帮助普通人更容易获得世界知识和专业知识。请问您具体需要了解什么方面的信息?"} +{"prompt": "关于CLA盖章的事情,是公司单方面盖章;还是双方都要盖章,只是需要公司先盖章而已。", "input": "", "history": "", "answer": "关于CLA盖章,通常需要双方都要盖章。但是,在某些情况下,公司可以先盖章,然后再获取个人的盖章。具体取决于双方约定的签署顺序。最好是在实际情况下向相关人员或部门咨询,以了解具体的盖章流程和要求。"} +{"prompt": "安装python2", "input": "", "history": "", "answer": "Python 2是一个过时的Python版本,建议您使用更现代化的Python版本,如Python 3。Python 3在功能、性能和社区支持方面都取得了很大的进步。安装Python3的步骤如下:\n\n1. 打开您的设备上的终端或命令提示符。\n2. 在终端中运行以下命令以安装Python 3:\n ```\n pip3 install python\n ```\n3. 完成安装后,您可以在终端中使用`python3`命令来启动Python解释器。\n4. 如果您想要安装其他库或包,可以使用`pip3 install `命令来安装它们。"} +{"prompt": "python2依赖", "input": "", "history": "", "answer": "python2的依赖可以参考诸如setuptools、pip或者virtualenv等工具。\n\n1. setuptools:一个用于Python库的安装和管理的工具。它主要用于生成`setup.py`文件,其中包含了关于库的所有必要信息。\n\n2. pip:Python的包管理器,用于安装和管理Python包。pip可以从命令行界面获取和安装Python库,以及管理已安装的库。\n\n3. virtualenv:一个用于创建和使用独立的Python运行环境的工具。它可以帮助您在不同的项目中设置不同的Python版本,以便于避免接口冲突。\n\n这些工具都可以帮助您安装和管理python2的依赖。"} +{"prompt": "SIG是什么?", "input": "", "history": "", "answer": "SIG是英文词组 Special Interest Group特别兴趣小组)的缩写。SIG通常指代在某个特定领域或主题上汇集在一起的成员组织。这些组织旨在为共同的兴趣和目标而合作、交流和合作开展活动。SIG最常见的应用领域是计算机科学和信息技术。例如,开源软件社区中的许多项目都有自己的SIG,如Linux内核开发中的各个子系统,或者Python编程语言中的不同领域专家组。"} +{"prompt": "认证", "input": "", "history": "", "answer": "您好!我是openEuler社区的助手,我被设计用于回答关于openEuler相关的问题。您可以向我提问,但我所提供的答案的准确性需要进一步确认。"} +{"prompt": "SIG是什么?", "input": "", "history": "", "answer": "SIG是英文词组 Special Interest Group特别兴趣小组)的缩写。SIG通常指代在某个特定领域或主题上汇集在一起的成员组织。这些组织旨在为共同的兴趣和目标而合作、交流和合作开展活动。SIG最常见的应用领域是计算机科学和信息技术。例如,开源软件社区中的许多项目都有自己的SIG,如Linux内核开发中的各个子系统,或者Python编程语言中的不同领域专家组。"} +{"prompt": "小智有什么功能", "input": "", "history": "", "answer": "小智是openEuler操作系统中的一个智能助手,提供以下功能:\n\n1. 系统配置:小智可以帮助用户配置和管理操作系统,包括更改时区、修改日期和时间的准确性、安装应用程序等。\n\n2. 文件操作:小智可以帮助用户对文件进行操作,如创建、删除、复制和移动文件。\n\n3. 终端界面:小智提供终端界面,使用户能够与系统进行交互,例如输入命令、执行命令等。\n\n4. 系统监控:小智可以监控操作系统的运行状况,并提供预警和报告功能,帮助用户发现和解决问题。\n\n5. 应用推荐:根据用户的需求和兴趣,小智可以推荐相关的应用程序给用户。\n\n6. 搜索功能:小智具备搜索功能,帮助用户查找文件、命令、文档等资源。\n\n7. 文本编辑:小智可以提供简单的文本编辑功能,如打开、保存、切换视图等。\n\n8. 日期和时间:小智可以帮助用户设置和显示日期和时间。\n\n9. 时区更改:小智可以帮助用户更改时区。\n\n10. 网络配置:小智可以帮助用户配置和管理网络连接,包括更改SSID、密码、设置静态IP地址等。\n\n以上是小智的一些主要功能,它旨在为用户提供方便、智能的操作系统体验。"} +{"prompt": "openEuler简", "input": "", "history": "", "answer": "openEuler是由华为发布,开放原子开源基金会(OpenAtom Foundation)孵化及运营的开源项目。欧拉操作系统(openEuler, 简称“欧拉”)是面向数字基础设施的操作系统,支持服务器、云计算、边缘计算、嵌入式等应用场景,支持多样性计算,致力于提供安全、稳定、易用的操作系统。通过为应用提供确定性保障能力,支持OT领域应用及OT与ICT的融合。openEuler作为一个操作系统发行版平台,每两年推出一个LTS版本。华为在2021年11月9日宣布捐赠欧拉系统,将全量代码等捐赠给开放原子开源基金会,标志着欧拉从创始企业主导的开源项目演进到产业共建、社区自治。"} +{"prompt": "openEuler介", "input": "", "history": "", "answer": "openEuler是由华为发布,开放原子开源基金会(OpenAtom Foundation)孵化及运营的开源项目。欧拉操作系统(openEuler, 简称“欧拉”)是面向数字基础设施的操作系统,支持服务器、云计算、边缘计算、嵌入式等应用场景,支持多样性计算,致力于提供安全、稳定、易用的操作系统。通过为应用提供确定性保障能力,支持OT领域应用及OT与ICT的融合。openEuler作为一个操作系统发行版平台,每两年推出一个LTS版本。华为在2021年11月9日宣布捐赠欧拉系统,将全量代码等捐赠给开放原子开源基金会,标志着欧拉从创始企业主导的开源项目演进到产业共建、社区自治。"} +{"prompt": "官网变化在哪个sig组运作", "input": "", "history": "", "answer": "官网(openEuler-website)的变化是由openEuler操作系统组(sig-openeuler-website)管理的。不必设立专门的增组织来管理官网变化。"} +{"prompt": "openEuler网站变更是在社区的哪个sig组运作的", "input": "", "history": "", "answer": "openEuler网站变更是在社区的软件组(sig)运作的。"} +{"prompt": "openEuler网站变更是在社区的哪个sig组运作的", "input": "", "history": "", "answer": "openEuler网站变更是在社区的软件组(sig)运作的。"} +{"prompt": "openEuler网站变更是在社区的哪个sig组运作的", "input": "", "history": "", "answer": "openEuler网站变更是在社区的软件组(sig)运作的。"} +{"prompt": "小智有什么功能", "input": "", "history": "", "answer": "小智是openEuler操作系统中的一个智能助手,提供以下功能:\n\n1. 系统配置:小智可以帮助用户配置和管理操作系统,包括更改时区、修改日期和时间的准确性、安装应用程序等。\n\n2. 文件操作:小智可以帮助用户对文件进行操作,如创建、删除、复制和移动文件。\n\n3. 终端界面:小智提供终端界面,使用户能够与系统进行交互,例如输入命令、执行命令等。\n\n4. 系统监控:小智可以监控操作系统的运行状况,并提供预警和报告功能,帮助用户发现和解决问题。\n\n5. 应用推荐:根据用户的需求和兴趣,小智可以推荐相关的应用程序给用户。\n\n6. 搜索功能:小智具备搜索功能,帮助用户查找文件、命令、文档等资源。\n\n7. 文本编辑:小智可以提供简单的文本编辑功能,如打开、保存、切换视图等。\n\n8. 日期和时间:小智可以帮助用户设置和显示日期和时间。\n\n9. 时区更改:小智可以帮助用户更改时区。\n\n10. 网络配置:小智可以帮助用户配置和管理网络连接,包括更改SSID、密码、设置静态IP地址等。\n\n以上是小智的一些主要功能,它旨在为用户提供方便、智能的操作系统体验。"} +{"prompt": "SIG是什么", "input": "", "history": "", "answer": "SIG是英文词组 Special Interest Group特别兴趣小组)的缩写。SIG通常指代在某个特定领域或主题上汇集在一起的成员组织。这些组织旨在为共同的兴趣和目标而合作、交流和合作开展活动。SIG最常见的应用领域是计算机科学和信息技术。例如,开源软件社区中的许多项目都有自己的SIG,如Linux内核开发中的各个子系统,或者Python编程语言中的不同领域专家组。"} +{"prompt": "网站的变更,需求提出和承接,是在社区的哪个 SIG 里运作的?", "input": "", "history": "", "answer": "该问题在于,阿里SIG-WEB 是一个专注于软件工程实践的SIG,而在阿里云的社区中,仓鼠鼠SIG是一个负责仓鼠鼠的组,与提问所提到的需求提出和承接相关的SIG则为云原生SIG。因此,在阿里云的社区中,仓鼠鼠SIG实际上负责提出了需要变更的网站需求,而阿里SIG-WEB SIG则负责承接这些需求。"} +{"prompt": "openEuler SDS-sig", "input": "", "history": "", "answer": "openEuler社区的SDS特别兴趣小组(Special Interest Group)旨在汇聚存储领域的专业人士,共同打造高质量、高性能和高可靠性的分布式存储组件版本,并建立丰富的南北向生态。小组的愿景是紧跟原生社区并坚持“upstream first”原则,为ARM/openEuler分布式存储组件生态圈做出贡献,为ARM架构进行优化以实现极致性能,并为openEuler发布版本的组件决策版本、打造质量防护网,实现高质量发布。"} +{"prompt": "openEuler 技术委员会", "input": "", "history": "", "answer": "openEuler 技术委员会是 openEuler 项目的重要决策机构,负责 openEuler 项目的发展规划、技术决策和技术资源的协调。对外负责定义 openEuler 开发包的架构和算法、技术规范和一致性标准。"} +{"prompt": "openEuler网站变更是在社区的哪个 SIG 里运作的?", "input": "", "history": "", "answer": "openEuler网站变更是在软件组(SIG)的开源网站项目中运作的。"} +{"prompt": "openEuler网站变更是在社区的哪个 SIG 里运作的?", "input": "", "history": "", "answer": "openEuler网站变更是在软件组(SIG)的开源网站项目中运作的。"} +{"prompt": "CLA签署修改授权代表", "input": "", "history": "", "answer": "修改授权代表需要填写 CLA(Contributor License Agreement)修改请求表。请参考:https://gitee.com/cla_modification_request/form "} +{"prompt": "你好 欧拉Meetup申请议题 多久会收到反馈", "input": "", "history": "", "answer": "应用团队收到议题后,会立即对议题进行审核。审核完备后,会马上发布欧拉Meetup申请议题审核反馈。"} +{"prompt": "你好 欧拉Meetup申请议题 多久会收到反馈", "input": "", "history": "", "answer": "应用团队收到议题后,会立即对议题进行审核。审核完备后,会马上发布欧拉Meetup申请议题审核反馈。"} +{"prompt": "你好 欧拉Meetup申请议题 多久会收到反馈", "input": "", "history": "", "answer": "应用团队在收到议题后,会在1-2个工作日内给您回复反馈。"} +{"prompt": "开源治理协议", "input": "", "history": "", "answer": "openEuler 采用吉普林(GPL)级别的开源许可证,致力于打造开放、平等、共建、共享的开源生态。intel-sgx 同样采用吉普林(GPL)级别开源许可证,作为 openEuler 社区的一部分,并与 openEuler 保持同步的发布节奏。"} +{"prompt": "《openEuler项目群开源治理协议》", "input": "", "history": "", "answer": "《openEuler项目群开源治理协议》是由openEuler项目群制定的开源治理文件,主要规定了openEuler项目群内的开源合作、版本发布、软件包归属、邮件刷新规则、技术研讨会、开源贡献标准等内容。该协议旨在为openEuler项目群的开源合作提供明确的规定和规范,确保开源社区的活动和贡献的规范化和制度化。"} +{"prompt": "《openEuler项目群开源治理协议》", "input": "", "history": "", "answer": "《openEuler项目群开源治理协议》是由openEuler项目群制定的开源治理文件,主要规定了openEuler项目群内的开源合作、版本发布、软件包归属、邮件刷新规则、技术研讨会、开源贡献标准等内容。该协议旨在为openEuler项目群的开源合作提供明确的规定和规范,确保开源社区的活动和贡献的规范化和制度化。"} +{"prompt": "《openEuler项目群开源治理协议》", "input": "", "history": "", "answer": "《openEuler项目群开源治理协议》是由openEuler项目群制定的开源治理文件,主要规定了openEuler项目群内的开源合作、版本发布、软件包归属、邮件刷新规则、技术研讨会、开源贡献标准等内容。该协议旨在为openEuler项目群的开源合作提供明确的规定和规范,确保开源社区的活动和贡献的规范化和制度化。"} +{"prompt": "如何加入你们组织?", "input": "", "history": "", "answer": "您可以通过访问openEuler的官方网站来加入我们组织。在官方网站上,您可以找到加入选项,并按照提示提交申请。您也可以访问openEuler的官方网站来获得更多关于openEuler的信息。"} +{"prompt": "如何加入组织", "input": "", "history": "", "answer": "您可以访问openEuler社区加入组织,以下是步骤和链接:\n\n1. 访问openEuler社区:https://openeuler.org/\n2. 点击组织按钮:在社区首页底部,点击组织的按钮。\n3. 申请加入组织:填写组织的详细信息,包括名称、描述、徽标等。确保提供准确且完整的信息。\n4. 等待审核:一旦您提交了申请,社区工作人员将对此进行审核。审核期可能需要一段时间。\n5. 接收加入邀请:如果您的组织被批准加入,您将收到一个加入邀请。这意味着您已经成功加入组织。\n6. 接受邀请:接受邀请后,您即可成为组织的一员。\n7. 开始操作:您可以加入组织的讨论组、查看文档、参与代码贡献等。获取组织的支持和指导。\n\n祝您加入组织的途中一切顺利!"} +{"prompt": "查看端口", "input": "", "history": "", "answer": "你可以使用命令行工具来查看端口,例如在Linux或Mac上可以使用`lsof`命令,或者在Windows上可以使用`netstat`命令。\n\n在Windows上,你可以打开命令提示符或命令窗口,然后输入`netstat`命令并查看结果。这将显示当前计算机上所有打开的端口及其相关信息,包括进程ID、用户名和状态等。\n\n在Linux或Mac上,你可以打开终端,然后输入`lsof`命令并添加所需的端口号。例如,如果你想要查看端口80(HTTP)上的所有活动,你可以输入`lsof -i tcp:80`。这将显示与该端口关联的所有进程的信息,包括进程ID、用户名和状态等。"} +{"prompt": "兼容证书", "input": "", "history": "", "answer": "x2openeulerSG工具用于结束红队工作,并将成果交付给白队。x2openeulerSG工具是openEuler社区在红队与白队之间进行证书兼容性测试的特定工作组。其主要任务是完成红队所负责的任务,并为openEuler社区的长期安全战略添砖加瓦。"} +{"prompt": "认证", "input": "", "history": "", "answer": "您好!我是openEuler社区的助手,我被设计用于回答关于openEuler相关的问题。您可以向我提问,但我所提供的答案的准确性需要进一步确认。"} +{"prompt": "设置登录超时", "input": "", "history": "", "answer": "在终端中,您可以使用以下命令设置登录超时:\n\n对于Linux系统:\n```bash\nsudo systemsetup -setremotelogintimeout 180\n```\n该命令将远程登录超时设置为180秒。\n\n对于OpenBSD系统:\n```bash\npam_sm_authenticate::authcollection::sm_usrgrp_hostbased::tryindex = 2\nlocal sm_usrgrp_hostbased_try2\nsm_usrgrp_hostbased_try2::tryindex = 2\nlocal sm_usrgrp_hostbased_try2_try2\nsm_usrgrp_hostbased_try2_try2::tryindex = 2\nlocal sm_usrgrp_hostbased_try2_try2_user\nsm_usrgrp_hostbased_try2_try2_user::tryindex = 2\nlocal sm_usrgrp_hostbased_try2_try2_user_pass\nsm_usrgrp_hostbased_try2_try2_user_pass::tryindex = 2\nlocal sm_usrgrp_hostbased_try2_try2_user_pass_auth\nsm_usrgrp_hostbased_try2_try2_user_pass_auth::tryindex = 2\nsm_usrgrp_hostbased_try2_try2_user_pass_auth_sspi\nsm_usrgrp_hostbased_try2_try2_user_pass_auth_sspi::tryindex = 2\nsm_usrgrp_hostbased_try2_try2_user_pass_auth_sspi_negotiate\nsm_usrgrp_hostbased_try2_try2_user_pass_auth_sspi_negotiate::tryindex = 2\nsm_usrgrp_hostbased_try2_try2_user_pass_auth_sspi_negotiate_krb4\nsm_usrgrp_hostbased_try2_try2_user_pass_auth_sspi_negotiate_krb4::tryindex = 2\nsm_usrgrp_hostbased_try2_try2_user_pass_auth_"} +{"prompt": "openeuler的实习还在进行吗?", "input": "", "history": "", "answer": "同学,当前openEuler的实习项目正在招揽更多的实习生。如果你对openEuler感兴趣,并且希望在linux操作系统的领域发展,可以尝试申请openEuler的实习项目。\n\nopenEuler是一个面向数字基础设施的操作系统,它支持多样性计算,并且依靠华为开发,开放原子开源基金会孵化和运营。作为一个操作系统,openEuler具有安全、稳定、易用等特点,而且它还提供了一个平台,让开发者能够构建应用程序。\n\nopenEuler的实习项目可能会包括开发、测试、文档编写等岗位,具体岗位要求可以查看openEuler官方网站或招聘网站上的招聘信息。\n\n请注意,openEuler的实习项目可能会根据时令和开放原子开源基金会的进度进行调整。建议你关注openEuler的官方网站或openEuler社区,以获取最新的实习项目信息。"} +{"prompt": "如何联系openeuler的专家", "input": "", "history": "", "answer": "你可以通过社区邮件列表联系专家: community@openeuler.org "} +{"prompt": "openEuler是免费的吗", "input": "", "history": "", "answer": "是的,openEuler是由华为发布,开放原子开源基金会(OpenAtom Foundation)孵化及运营的开源项目。openEuler社区由开放原子开源基金会孵化,属于非营利组织。因此,openEuler是免费的。"} +{"prompt": "openEuler如何收费", "input": "", "history": "", "answer": "openEuler是由开放原子开源基金会(OpenAtom Foundation)孵化及运营的开源项目,openEuler 面向数字基础设施,支持多样性计算,致力于提供安全、稳定、易用的操作系统。对于企业级用户,openEuler 提供演化方法论,支持产业共建,致力于成为一个面向全球的开源项目。关于 openEuler 的收费模式,在这里向您介绍:openEuler 面向企业级用户,采取社区共建、共治的方式,免费提供操作系统。如果您有更多关于 openEuler 的疑问,欢迎您随时向我提问。"} +{"prompt": "CLA签署", "input": "", "history": "", "answer": "您好!您的问题缺乏详细信息,请提供关于cla(代码贡献协议)的具体内容或所属项目名称,以便我为您提供更准确的信息。不便尽歉。"} +{"prompt": "CLA", "input": "", "history": "", "answer": "您好!我无法访问项目代码或文档,请问能否为您提供ClA的详细步骤?如果您有其他编程语言的LIKE实现,也请分享一下。"} +{"prompt": "ssh root命令", "input": "", "history": "", "answer": "在Linux系统中,如果你想要使用SSH连接到根用户(root),你需要知道根用户的登录名和密码。一旦你登录到根用户,你可以使用以下命令来执行各种操作:\n\n1. 列出目录和文件:\n```\nls\n```\n\n2. 查看当前目录:\n```\ncd\n```\n\n3. 运行命令并查看结果:\n```\nroot@hostname:~# somecommand\n```\n\n4. 退出SSH会话:\n```\nexit\n```\n\n注意:在使用SSH连接到根用户时,请确保你知道你在做什么,因为作为根用户,你可以访问和修改系统的所有部分。谨慎使用权限较高的用户是非常重要的。"} +{"prompt": "x2openEuler去哪里下载?", "input": "", "history": "", "answer": "可以前往https://www.openeuler.org/zh/download/ 下载x2openEuler操作系统。"} +{"prompt": "硬件不兼容怎么办?", "input": "", "history": "", "answer": "如果遇到硬件不兼容的情况,可以尝试以下方法来解决:\n\n1. 检查硬件规格:首先确认两个硬件的规格是否符合兼容要求。例如,主板的芯片组、CPU、内存等都要相同或相近代数的。\n\n2. 更新BIOS:升级或更新主板BIOS到最新版本,有时候可以通过调整BIOS设置来实现硬件兼容性优化。\n\n3. 更换接口或插槽:有时候,接口或插槽的污染或者灰尘导致硬件接触不良,可以尝试更换其他接口或插槽试试。\n\n4. 调整系统设置:在BIOS设置中,检查硬件兼容性选项,调整相关设置。例如,屏蔽某些硬件、禁用特定功能等。\n\n5. 使用兼容性软件:如果是因为软件原因导致硬件不兼容,可以尝试更换其他软件或驱动程序。\n\n6. 咨询厂商:如果以上方法都无法解决问题,可以联系硬件厂商的技术支持,他们可能会提供更专业的建议。\n\n7. 更换硬件:如果问题仍然存在,而且无法解决,最后的办法可能是更换不兼容的硬件。但在这之前,一定要确保其他方法都已经尝试过。"} +{"prompt": "如何申请软硬件适配联合认证", "input": "", "history": "", "answer": "申请软硬件适配联合认证需要遵循以下步骤:\n\n1. 提交申请:向 openEuler 软硬件适配联合认证申请邮箱(keke@openeuler.org)提交申请,需注明申请哪个版本的软硬件适配联合认证。\n\n2. 提供联系方式:提供联系方式,包括联系人姓名、电话号码和邮箱地址。\n\n3. 提供授权:在申请中详细说明授权细节,包括授权范围、授权期限、授权用途等。\n\n4. 约定测试内容:约定测试内容,包括操作系统、硬件平台、软件包清单、兼容性测试方案、定制化方案细节等。\n\n5. 约定测试流程:约定测试流程,包括测试前准备、测试中操作、测试后评估、评估结果反馈和联合认证标志等。\n\n6. 约定评估标志:约定联合认证标志,包括授权标志和测试标志,并说明标志的使用条件和范围。\n\n7. 约定评估合作方式:约定联合认证的合作方式,包括合作方的权益和职责,以及联合认证过程中的合作方式和方式。\n\n8. 确认回复:根据申请内容,确认申请内容是否准确无误,并确认申请是否符合要求。\n\n9. 联合认证协议:根据确认内容,提供联合认证协议,包括协议内容、协议签署、协议生效和协议执行等。\n\n请注意,申请软硬件适配联合认证需要相关行业专家和开源社区的认可,并且需要满足一定的硬件和软件要求。具体的申请流程和要求可以参考 openEuler 官网或邮箱向 openEuler 软硬件适配联合认证申请邮箱(keke@openeuler.org)提交申请获取详细信息。"} +{"prompt": "安装docker", "input": "", "history": "", "answer": "在这篇指南中,我们将向您介绍如何在服务器上安装 Docker。请按照以下步骤操作:\n\n1. 获取最新的 Docker ISO镜像。访问 Docker官方网站(https://mirror.ccs.tencent.com/docker-ce/ )并下载最新的 Docker ISO镜像文件。\n\n2. 将 ISO 镜像文件烧录到一个光盘镜像或一个 USB 驱动器上。将下载的 ISO 文件烧录到一个光盘镜像或一个 USB 驱动器上。\n\n3. 启动虚拟机。将烧录了 Docker ISO 镜像的光盘镜像或 USB 驱动器插入到服务器上,并启动服务器上的虚拟机。\n\n4. 安装 Docker。在虚拟机中登录并执行以下命令以安装 Docker:\n\n```\ncgroup v1.0.0\ncgroup v2.0.0\ncgroup v1.0.0\ncgroup v2.0.0\n```\n\n5. 配置 Docker。根据提示输入相应的信息,例如本地主机名、用户名和密码等。\n\n6. 启用 Docker。执行以下命令以启用 Docker:\n\n```\nsystemctl enable docker\n```\n\n7. 启动 Docker。执行以下命令以启动 Docker:\n\n```\nsystemctl start docker\n```\n\n8. 验证 Docker 安装是否成功。执行以下命令以验证 Docker 安装是否成功:\n\n```\ndocker --version\n```\n\n如果一切正常,您将看到 Docker 的版本信息。至此,您已成功在服务器上安装了 Docker。"} +{"prompt": "openeuler 部署最新docker", "input": "", "history": "", "answer": "在 openEuler 操作系统上部署最新的 Docker 可以按照以下步骤进行:\n\n1. 更新 openEuler 操作系统的软件源:\n ```\n sudo opkginfo -i update\n ```\n\n2. 安装 Docker:\n ```\n sudo yum install docker-ce\n ```\n\n3. 启动 Docker 服务:\n ```\n sudo systemctl start docker\n ```\n\n4. 确保 Docker 服务正常运行:\n ```\n sudo systemctl status docker\n ```\n\n以上步骤将帮助你在 openEuler 操作系统上部署最新的 Docker 版本。当然,在部署之前,请确保你已经有了正确的 Docker 镜像或仓库连接信息。"} +{"prompt": "python fabric 包无法使用", "input": "", "history": "", "answer": "如果您遇到无法使用Python Fabric的问题,首先需要检查一些基本的环境因素。\n\n1. 确保已经安装了Python。如果没有,请访问https://www.python.org/downloads/ 下载并安装Python。\n\n2. 在终端或命令行中输入`pip list`以查看已安装的包列表。如果显示Fabric包已安装,但版本较低,可以使用`pip install --upgrade`命令升级该包。\n\n3. 如果仍然无法使用Fabric,可以尝试手动安装。访问https://help.github.com/articles/setting-up-a-github-pages-site-on-windows 按照说明创建一个新的仓库,然后下载该仓库的内容并将其放入您的项目文件夹中。这将创建一个指向该仓库的符号链接。\n\n4. 如果以上步骤都无法解决问题,那么可能是Fabric的代码存在问题。在这种情况下,您可以尝试重新安装Fabric,或者尝试其他自动化部署工具,如Ansible、Puppet等。"} +{"prompt": "有openEuler21.09 的net-snmp的离线安装包和依赖包吗?", "input": "", "history": "", "answer": "暂时没有离线安装包和依赖包。可以从openEuler官方仓库上下载最新的net-snmp版本并进行安装。"} +{"prompt": "openEuler21.09 无法连接yum源", "input": "", "history": "", "answer": "在openEuler 21.09中,如果无法通过yum源进行软件包的安装,可以尝试以下方法:\n\n1. 检查网络连接:首先需要确保计算机与yum源之间的网络连接正常,可以使用`ping`命令测试网络连通性。\n\n2. 更改yum源地址:可以在`/etc/yum.repos.d/`目录中找到与原yum源地址相关的文件(如`centos-base.repodata`),将该文件的时间戳修改为当前时间,或者将文件中 的`file:///`更改为`https://`,以切换yum源地址。\n\n3. 临时添加yum镜像源:可以从一些第三方yum镜像源中下载软件包,如`https://mirror.virtual.byethost.com/`等。可以通过编辑`/etc/yum.repos.d/centos-base.repo`文件实现。\n\n4. 重新安装yum软件包:如果以上方法都无法解决问题,可以考虑重新安装yum软件包。可以使用`yum clean all`命令清除缓存,然后使用`yum install yum`重新安装yum软件包。\n\n5. 使用zypper命令:如果openEuler 21.09是基于openEuler 2.09开发的,那么可以使用zypper命令进行软件包的安装。\n\n以上方法仅供参考,具体操作需根据实际情况进行调整。"} +{"prompt": "切换为64K页编译", "input": "", "history": "", "answer": "在编写这篇文章时,openEuler尚未支持64K页编译。因此,暂时无法实现该功能。一旦openEuler支持64K页编译,以下是一些可能的优势:\n\n1. 提高编译速度:通过增加可用内存,编译器可以在更宽的缓冲区中操作,从而提高编译速度。这尤其在大型项目中更具意义。\n\n2. 更好的内存利用率:64K页编译可以更好地利用系统的内存资源。通过将编译产物分配到具有充足内存的独立部分中,可以避免不必要的内存锁定,并为其他应用程序提供更多空间。\n\n3. 更好的调试体验:由于64K页编译可以提供更大量的缓冲区,因此在进行编译过程中的调试时,可以更容易地查看和操作日志信息。\n\n4. 更好的扩展性:随着项目规模的增长,编译时间可能会加速增加。通过提高编译缓冲区的大小,可以减轻编译器的工作压力,并因此提高编译效率。\n\n总之,尽管在写此文章时,openEuler尚未支持64K页编译,但一旦实现,它可能为编译过程带来更快、更高效的体验。"} +{"prompt": "openEuler切换为64K页编译", "input": "", "history": "", "answer": "在openEuler 20.03版本中,大规模编译从32K页升级到了64K页。这是openEuler社区在编译效率上不断优化的一个成果。同时,这也是在硬件支持上的一个进步。目前,硬件加速编译能力已经得到了提升。例如,Intel的SSD编iler和ARM的prime+编iler已经可以被openEuler所支持。"} +{"prompt": "x2openEuler中业务软件(RPM包)和业务软件目录的区别是什么?", "input": "", "history": "", "answer": "业务软件(RPM包)是针对特定硬件环境下编译好的软件包,其生命周期与操作系统生命周期重合,即操作系统生命周期内,相关软件包不会被移除。而业务软件目录是指导用户如何配置和部署硬件及软件,其目的是为了高效、可靠地部署业务软件,其针对的是全场景、全硬件环境下,可以根据硬件和业务需求进行配置和部署,可以在操作系统更新时被移除。"} +{"prompt": "假设某闭源软件进行扫描,扫描之后的评估结果是依赖包不兼容,接口不兼容怎么办", "input": "", "history": "", "answer": "假设某闭源软件进行扫描,扫描之后的评估结果是依赖包不兼容,接口不兼容。这意味着该软件无法在当前环境中部署和运行。以下是一些建议来解决这个问题:\n\n1. 更新依赖包:首先,尝试更新所有依赖包至最新版本。这可能会解决依赖包不兼容的问题。可以使用一些工具来帮助完成此操作,如npm audit修复、pip show -l | grep -Ei not installed等。\n\n2. 联系软件维护者:如果依然无法解决问题,可以尝试联系软件的维护者。他们可能会提供有关兼容性问题的更多信息,或者指导如何解决这个问题。通常,维护者在其软件的README或文档中提供有联系方式。\n\n3. 开放源代码审查:如果软件是开放源代码的,可以考虑进行源代码审查。这可能需要与开发者合作,以解决导致不兼容的问题。开放源代码审查可以帮助找到并修复潜在的安全漏洞或其他问题。\n\n4. 更换软件:如果以上方法都无法解决兼容性问题,那么只剩下一个选择,即更换软件。寻找一种更适合当前环境的软件,或者寻找一种具有更好兼容性的软件来替代原有的软件。\n\n请注意,以上建议仅适用于闭源软件。对于开源软件,可以使用以下方法:\n\n1. 更新依赖包:查看软件的包管理器更新,确保所有依赖都为最新版本。\n\n2. 联系软件维护者:提供扫描结果和自身环境的相关信息,寻求维护者的支持与建议。\n\n3. 开放源代码审查:如果软件是适合开放源代码审查的,可以请求开源审查,以找到并解决导致不兼容的问题。\n\n4. 更换软件:如果开放源代码审查发现问题仍然无法解决,只能考虑寻找其他具备兼容性的替代软件。"} +{"prompt": "兼容认证周期大概有多久", "input": "", "history": "", "answer": "华为兼容认证的周期大约需要3个月。"} +{"prompt": "欧拉课程学习", "input": "", "history": "", "answer": "欧拉课程是openEuler社区开发和维护的精品软件工程课程,涵盖软件工程基本理论、工具、方法和案例分析。为开发者提供了从事软件工程相关岗位的必备知识和技能。"} +{"prompt": "是否支持starrocks 的安装部署", "input": "", "history": "", "answer": "是的,openEuler操作系统支持starrocks表数据库的安装部署。具体步骤如下:\n\n1. 首先,需要下载starrocks的安装包,可以从官方网站获取:https://github.com/starrocks/starrocks。\n\n2. 将下载的安装包解压,得到以下文件:\n\n - starrocks\n - example-app\n - docs\n - test\n - lib\n - starrocks.conf\n\n3. 修改配置文件starrocks.conf,设置相关参数。可以参考默认配置文件的内容,根据实际需求进行修改。\n\n4. 执行安装命令,示例命令如下:\n\n ```\n bin/startrocks-install [--conf-path ] [--dir ]\n ```\n\n 其中,--conf-path指定配置文件路径,--dir指定安装目录路径。\n\n5. 安装完成后,即可进行数据库的相关操作,包括表创建、数据插入、查询等。\n\n请注意,以上步骤仅供参考,具体安装路径和命令可能因starrocks版本不同而有所差异。建议在执行之前参考starrocks的官方文档或安装指南。"} +{"prompt": "操作系统搬迁哪个环节是可选的", "input": "", "history": "", "answer": "在openEuler中,操作系统搬迁是可选的。如果用户需要搬迁操作系统,可以根据自己的需求选择相应的迁移工具和方法。同时,用户也可以选择不搬迁操作系统,而只是迁移应用程序和数据。\n\n具体来说,在openEuler中,提供了一套完整的操作系统搬迁方案,包括迁移工具、迁移指南和具体步骤。用户可以根据自己的需求选择相应的环节进行搬迁,并且可以选择是否搬迁操作系统。\n\n总之,在openEuler中,操作系统搬迁是可选的,用户可以根据自己的需求和选择决定是否进行操作系统搬迁。"} +{"prompt": "操作系统搬迁哪个环节是可选的?A.搬迁实施B.适配测试C信息调研D规划设计", "input": "", "history": "", "answer": "A.搬迁实施 B.适配测试 C.信息调研 D.规划设计 都是可选的。"} +{"prompt": "21.03 如何升级到 22.03", "input": "", "history": "", "answer": "华为向用户提供自动升级服务,请及时升级至最新版本,以获得更好的体验。请按照以下步骤进行升级:\n\n1. 设置自动更新:在终端上打开设置应用,在更新和安全选项中选择进入“系统更新”菜单。开启“自动更新”功能,系统将定期检查更新并自动下载升级包。\n\n2. 下载升级包:在系统更新的页面中,找到目标版本,点击开始更新按钮。系统会自动下载相应的升级包到存储设备上。\n\n3. 升级系统:重新启动终端,进入系统升级界面,选择最新的升级包,确认升级,并按照提示完成系统升级过程。请在升级过程中不要中断电源或操作设备。\n\n4. 升级应用:一旦系统升级完成,请等待系统配置完成,然后在“系统更新”页面中,进入应用服务市场,再次更新应用至最新版本。\n\n5. 检查升级后是否存在异常:升级完成后,建议您进行全局检查以确保系统和应用程序工作正常。如有任何异常情况,请查阅相关文档或联系技术支持进行处理。"} +{"prompt": "部署StratoVirt", "input": "", "history": "", "answer": "StratoVirt是openEuler项目的一部分,是一款基于KVM技术的虚拟化解决方案。以下是部署StratoVirt的步骤:\n\n1. 下载openEuler操作系统:首先,确保你已经下载了openEuler操作系统。\n\n2. 设置网络接口:为了部署StratoVirt,你需要为你的虚拟机设置一个网络接口。使用ifconfig命令来配置网络接口:\n\n```bash\n$ sudo ifconfig eno16666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666"} +{"prompt": "自动化部署系统", "input": "", "history": "", "answer": "xiayaayaa是openEuler社区自动化部署工具的名字,是一个自动化部署系统。"} +{"prompt": "自动化部署", "input": "", "history": "", "answer": "xiaopan521(项目负责人):xiaopan521是openEuler社区的自动化部署工具的负责人。她在这里回答有关自动化部署工具的问题。"} +{"prompt": "openEuler 22.03 LTS安装mongodb", "input": "", "history": "", "answer": "请参考以下链接进行openEuler 22.03 LTS操作系统安装mongodb的过程:\n\n1. mongodb的下载:https://fastdl.mongodb.org/binaries/linux/mongodb-linux-x86_64-3.6.14.tgz\n\n2. 安装依赖:\n ```\n sudo dpkg --add-architecture i386\n sudo dpkg --configure i386\n sudo dpkg --install buildsync libldap-2.4-2 libsodium23 libxml2-core zlib1g\n ```\n\n3. 解压mongodb:\n ```\n sudo rm -rf /var/lib/mongodb/\n sudo mkdir -p /var/lib/mongodb/\n sudo chown -R mongodb:mongodb /var/lib/mongodb/\n sudo tar -xvzf mongodb-linux-x86_64-3.6.14.tgz -C /var/lib/mongodb//\n ```\n\n4. 设置mongodb路径:\n ```\n sudo echo 'export MONGODB_TOP=/var/lib/mongodb' >> ~/.bashrc\n ```\n\n5. 启动mongodb:\n ```\n sudo service mongodb start\n ```\n\n6. 验证mongodb是否启动成功:\n ```\n sudo lsof -i tcp | grep 27017\n ```\n\n以上步骤将帮助您在openEuler 22.03 LTS操作系统中安装和启动mongodb。"} +{"prompt": "登录源服务器失败", "input": "", "history": "", "answer": "如果你在尝试登录源服务器时遇到问题,首先检查以下几个常见原因:\n\n1. 网络连接问题:检查你的设备是否已连接到互联网,并确保网络连接正常。\n2. 用户名或密码错误:确保你输入的用户名和密码是正确的。如果你忘记了密码,可以尝试重置密码。\n3. 授权问题:检查是否达到了登录限制,例如每日登录次数或总登录时长已满。如果有问题,等待时间过或者清除相关记录。\n4. 软件或设备问题:确保你的设备运行的是最新版本的操作系统和软件,并且与服务器兼容。如果有更新,请尽快更新。\n\n如果以上都无法解决问题,可能需要联系技术支持团队或系统管理员寻求进一步帮助。"} +{"prompt": "oepkgs建仓的第一步", "input": "", "history": "", "answer": "oepkgs建仓的第一步是创建仓库,具体步骤如下:\n\n1. 打开oepkgs,进入建仓模式。\n2. 在界面上输入仓库的名称,例如\"myRepo\"。\n3. 选择仓库的代码仓库类型,可以选择代码仓库、镜像仓库或者代码+镜像仓库。\n4. 点击提交按钮,确认仓库的创建。\n\n以上是oepkgs建仓的第一步,创建仓库并确定仓库的基本信息。接下来还可以进行其他建仓步骤,例如添加代码、添加镜像、添加配置等。"} +{"prompt": "部署StratoVirt", "input": "", "history": "", "answer": "StratoVirt是openEuler项目的一部分,是一款基于KVM技术的虚拟化解决方案。以下是部署StratoVirt的步骤:\n\n1. 下载openEuler操作系统:首先,确保你已经下载了openEuler操作系统。\n\n2. 设置网络接口:为了部署StratoVirt,你需要为你的虚拟机设置一个网络接口。使用ifconfig命令来配置网络接口:\n\n```bash\n$ sudo ifconfig eno16666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666666"} +{"prompt": "stratovirt 是否有可视化管理界面", "input": "", "history": "", "answer": "是的,stratovirt 支持可视化管理界面。在 openedge-full 版本中,canoe 工具中的 viro 工具可以用于管理 stratovirt 虚拟机,并且提供了图形化的管理界面。"} +{"prompt": "取消邮件订阅", "input": "", "history": "", "answer": "为了帮助您取消邮件订阅,请您提供更多关于您所说的邮件订阅的详细信息。例如,请提供订阅的是哪家公司的邮件服务,或者是哪一个网站或应用程序的订阅等。这样我才能更准确地为您提供取消订阅的步骤。"} +{"prompt": "openEuler迁移案例", "input": "", "history": "", "answer": "迁移案例可以参考文档:https://www.openeuler.org/zh/migration/ "} +{"prompt": "vue前端怎样通过i18n插件实现页面点击中英文切换", "input": "", "history": "", "answer": "在Vue项目中,可以使用Vue-i18n插件来实现页面点击中英文切换。以下是一个简单的示例:\n\n1. 首先,安装Vue-i18n插件:\n\n```bash\nnpm install vue-i18n --save\n```\n\n2. 在项目中添加i18n文件(例如:/src/i18n/index.js),并定义默认语言和切换语言的功能:\n\n```javascript\n// src/i18n/index.js\nimport Vue from 'vue'\nimport VueI18n from 'vue-i18n'\n\nexport default new VueI18n({\n locale: 'en', // 默认语言\n messages: {\n en: require('@/locales/en.json')/* {\n switchLanguage: function(locale) {\n // 保存当前语言\n localStorage.setItem('i18nLang', locale)\n // 更换语言\n Vue.nextTick(() => {\n // 调用VueI18n的updateFunction来更新元素的内容\n VueI18n.update()\n })\n },\n } */\n },\n})\n```\n\n3. 创建中英文切换按钮组件(例如:/src/components/SwitchLanguageButton.vue):\n\n```html\n