1 Star 0 Fork 4

gery0303/fastchat-run-llm

forked from fly-llm/fastchat-run-llm 
加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
克隆/下载
download_run_orion-14b.sh 1.50 KB
一键复制 编辑 原始数据 按行查看 历史
freegolang 提交于 2024-01-22 20:46 . 增加代码。执行。
# 开始下载模型:
apt update && apt install -y git-lfs net-tools
# 一定要保证有大磁盘空间:
cd /root/autodl-tmp
# 下载 大模型
if [ ! -d "Orion-14B-Chat" ]; then
echo "start downloading Orion-14B-Chat"
git clone https://www.modelscope.cn/OrionStarAI/Orion-14B-Chat.git
fi
# 1,安装 torch 模块,防止依赖多次下载
# pip3 install torch==2.0.0
# 安装 flash_attn 需要网络下载 github
# https://www.autodl.com/docs/network_turbo/
source /etc/network_turbo
# 最后安装 软件
pip3 install "fschat[model_worker,webui]" flash_attn
# 清除全部 fastchat 服务
ps -ef | grep fastchat.serve | awk '{print$2}' | xargs kill -9
sleep 1
rm -f *.log
# 首先启动 controller :
nohup python3 -m fastchat.serve.controller --host 0.0.0.0 --port 21001 > controller.log 2>&1 &
# 启动 openapi的 兼容服务 地址 8000
nohup python3 -m fastchat.serve.openai_api_server --controller-address http://127.0.0.1:21001 \
--host 0.0.0.0 --port 8000 > api_server.log 2>&1 &
# 启动 web ui 可以给web使用。
nohup python -m fastchat.serve.gradio_web_server --model-list-mode reload --controller-url http://127.0.0.1:21001 \
--host 0.0.0.0 --port 6006 > web_server.log 2>&1 &
nohup python3 -m fastchat.serve.model_worker --model-names orion-14b,gpt-3.5-turbo \
--model-path /root/autodl-tmp/Orion-14B-Chat --controller-address http://127.0.0.1:21001 \
--worker-address http://127.0.0.1:8080 --host 0.0.0.0 --port 8080 > model_worker.log 2>&1 &
sleep 1
tail -f model_worker.log
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
1
https://gitee.com/t420/fastchat-run-llm.git
git@gitee.com:t420/fastchat-run-llm.git
t420
fastchat-run-llm
fastchat-run-llm
master

搜索帮助