代码拉取完成,页面将自动刷新
同步操作将从 Ascend/MindSpeed-LLM 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
#!/bin/bash
# param 1 is master addr
# param 2 is layer_list
# sh run_dis_llama31_70B.sh 90.90.97.217 4,4 2 2
MASTER_ADDR=$1
echo "master node is $1"
echo "layer list is $2"
echo "TP is $3"
echo "PP is $4"
echo "start master node traning"
source /home/anaconda3/bin/activate llama3
nohup bash examples/mcore/mixtral/pretrain_mixtral_8x7b_ptd_set_layers.sh $1 $2 $3 $4 0 > master_node.log 2>&1 &
sshpass -p HwA3@2025 ssh root@90.90.97.65 << EOF
echo "start nomaster node 246 traning."
cd /home/c00444317/modellink/MindSpeed-LLM-master
source /home/anaconda3/bin/activate llama3
nohup bash examples/mcore/mixtral/pretrain_mixtral_8x7b_ptd_set_layers.sh $1 $2 $3 $4 1 > 246_node.log 2>&1 &
EOF
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。