代码拉取完成,页面将自动刷新
同步操作将从 fly-llm/fastchat-run-llm 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
# 开始下载模型:
apt update && apt install -y git-lfs net-tools
# 一定要保证有大磁盘空间:
cd /root/autodl-tmp
# 下载 大模型
if [ ! -d "Ziya-Coding-15B-v1" ]; then
echo "start downloading Ziya-Coding-15B-v1"
git clone https://www.modelscope.cn/Fengshenbang/Ziya-Coding-15B-v1.git
fi
# 1,安装 torch 模块,防止依赖多次下载
# pip3 install torch==2.0.0
# 安装 flash_attn 需要网络下载 github
# https://www.autodl.com/docs/network_turbo/
# 最后安装 软件 transformers==4.30.2
pip3 install "fschat[model_worker,webui]"
# 清除全部 fastchat 服务
ps -ef | grep fastchat.serve | awk '{print$2}' | xargs kill -9
sleep 1
rm -f *.log
# 首先启动 controller :
nohup python3 -m fastchat.serve.controller --host 0.0.0.0 --port 21001 > controller.log 2>&1 &
# 启动 openapi的 兼容服务 地址 8000
nohup python3 -m fastchat.serve.openai_api_server --controller-address http://127.0.0.1:21001 \
--host 0.0.0.0 --port 8000 > api_server.log 2>&1 &
# 启动 web ui 可以给web使用。
nohup python -m fastchat.serve.gradio_web_server --model-list-mode reload --controller-url http://127.0.0.1:21001 \
--host 0.0.0.0 --port 6006 > web_server.log 2>&1 &
nohup python3 -m fastchat.serve.model_worker --num-gpus 2 --model-names ziya-coding-15b,gpt-3.5-turbo \
--model-path /root/autodl-tmp/Ziya-Coding-15B-v1 --controller-address http://127.0.0.1:21001 \
--worker-address http://127.0.0.1:8080 --host 0.0.0.0 --port 8080 > model_worker.log 2>&1 &
sleep 1
tail -f model_worker.log
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。