代码拉取完成,页面将自动刷新
import torch
import mindspeed.megatron_adaptor
from megatron.training import get_args
from mindspeed_mm.tasks.inference.pipeline import vlm_pipeline_dict
from mindspeed_mm.configs.config import mm_extra_args_provider
from mindspeed_mm.arguments import extra_args_provider_decorator
def main():
from megatron.training.initialize import initialize_megatron
from mindspeed_mm.configs.config import merge_mm_args
# just inference
torch.set_grad_enabled(False)
initialize_megatron(
extra_args_provider=extra_args_provider_decorator(mm_extra_args_provider), args_defaults={'tokenizer_type': 'GPT2BPETokenizer'}
)
args = get_args()
merge_mm_args(args)
if not hasattr(args, "dist_train"):
args.dist_train = False
inference_config = args.mm.model
vlm_pipeline_dict[inference_config.pipeline_class](inference_config)()
if __name__ == '__main__':
main()
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。