1 Star 0 Fork 0

伊拉克肥灵/ChatGLM-LoRA-Tuning

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
文件
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
chat_ner.py 1.07 KB
一键复制 编辑 原始数据 按行查看 历史
西西嘛呦 提交于 2023-05-24 21:33 . Update chat_ner.py
import os
import torch
import json
from pprint import pprint
from accelerate import infer_auto_device_map, init_empty_weights, load_checkpoint_and_dispatch
from transformers import AutoTokenizer, AutoModel, AutoConfig
from peft import get_peft_model, LoraConfig, TaskType, PeftModel
data_name = "msra"
train_args_path = "./checkpoint/{}/train_trainer/adapter_model/train_args.json".format(data_name)
with open(train_args_path, "r") as fp:
args = json.load(fp)
config = AutoConfig.from_pretrained(args["model_dir"], trust_remote_code=True)
pprint(config)
tokenizer = AutoTokenizer.from_pretrained(args["model_dir"], trust_remote_code=True)
model = AutoModel.from_pretrained(args["model_dir"], trust_remote_code=True).half().cuda()
model = model.eval()
model = PeftModel.from_pretrained(model, os.path.join(args["save_dir"], "adapter_model"), torch_dtype=torch.float32, trust_remote_code=True)
model.half().cuda()
model.eval()
while True:
inp = input("用户 >>> ")
response, history = model.chat(tokenizer, inp, history=[])
print("ChatNER >>> ", response))
print("="*100)
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
1
https://gitee.com/estaryjl/ChatGLM-LoRA-Tuning.git
git@gitee.com:estaryjl/ChatGLM-LoRA-Tuning.git
estaryjl
ChatGLM-LoRA-Tuning
ChatGLM-LoRA-Tuning
main

搜索帮助

0d507c66 1850385 C8b1a773 1850385