1 Star 0 Fork 4

gery0303/fastchat-run-llm

forked from fly-llm/fastchat-run-llm 
加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
克隆/下载
download_run_chatglm3-6b.sh 1.50 KB
一键复制 编辑 原始数据 按行查看 历史
freegolang 提交于 2024-01-24 22:40 . add
# 开始下载模型:
apt update && apt install -y git-lfs net-tools
# 一定要保证有大磁盘空间:
cd /root/autodl-tmp
# 下载 大模型
if [ ! -d "chatglm3-6b1" ]; then
echo "start downloading chatglm3-6b1"
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git
fi
# 1,安装 torch 模块,防止依赖多次下载
# pip3 install torch==2.0.0
# 安装 flash_attn 需要网络下载 github
# https://www.autodl.com/docs/network_turbo/
# 最后安装 软件 transformers==4.30.2
pip3 install "fschat[model_worker,webui]"
# 清除全部 fastchat 服务
ps -ef | grep fastchat.serve | awk '{print$2}' | xargs kill -9
sleep 1
rm -f *.log
# 首先启动 controller :
nohup python3 -m fastchat.serve.controller --host 0.0.0.0 --port 21001 > controller.log 2>&1 &
# 启动 openapi的 兼容服务 地址 8000
nohup python3 -m fastchat.serve.openai_api_server --controller-address http://127.0.0.1:21001 \
--host 0.0.0.0 --port 8000 > api_server.log 2>&1 &
# 启动 web ui 可以给web使用。
nohup python -m fastchat.serve.gradio_web_server --model-list-mode reload --controller-url http://127.0.0.1:21001 \
--host 0.0.0.0 --port 6006 > web_server.log 2>&1 &
nohup python3 -m fastchat.serve.model_worker --load-8bit --num-gpus 1 --model-names chatglm3-6b,gpt-3.5-turbo \
--model-path /root/autodl-tmp/chatglm3-6b --controller-address http://127.0.0.1:21001 \
--worker-address http://127.0.0.1:8080 --host 0.0.0.0 --port 8080 > model_worker.log 2>&1 &
sleep 1
tail -f model_worker.log
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
1
https://gitee.com/t420/fastchat-run-llm.git
git@gitee.com:t420/fastchat-run-llm.git
t420
fastchat-run-llm
fastchat-run-llm
master

搜索帮助