1 Star 0 Fork 0

linjk/Jarvis

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
文件
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
models_qw.py 1.08 KB
一键复制 编辑 原始数据 按行查看 历史
linjk 提交于 2024-05-01 00:38 +08:00 . 模型独立py文件
import config
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
class model_qianwen_local(metaclass=config.SingletonMeta):
def __init__(self) -> None:
super(model_qianwen_local, self).__init__()
if torch.cuda.is_available():
print(f"CUDA device name: {torch.cuda.get_device_name(0)}")
for llm in config.get_config().models.llms:
if llm.name == "qwen_14b_chat_int4" and llm.enable == 1:
self._qianwen_path = llm.path
self._model = AutoModelForCausalLM.from_pretrained(
pretrained_model_name_or_path=self._qianwen_path, device_map='auto', trust_remote_code=True
).eval()
self._tokenizer = AutoTokenizer.from_pretrained(
pretrained_model_name_or_path=self._qianwen_path, trust_remote_code=True
)
def completion(self, prompt_system, prompt_user):
response, history = self._model.chat(
self._tokenizer, system=prompt_system, query=prompt_user, history=None
)
return response
Loading...
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
1
https://gitee.com/linjk/jarvis.git
git@gitee.com:linjk/jarvis.git
linjk
jarvis
Jarvis
master

搜索帮助