登录
注册
开源
企业版
高校版
搜索
帮助中心
使用条款
关于我们
开源
企业版
高校版
私有云
Gitee AI
NEW
我知道了
查看详情
登录
注册
代码拉取完成,页面将自动刷新
捐赠
捐赠前请先登录
取消
前往登录
扫描微信二维码支付
取消
支付完成
支付提示
将跳转至支付宝完成支付
确定
取消
Watch
不关注
关注所有动态
仅关注版本发行动态
关注但不提醒动态
1
Star
0
Fork
18
zwy
/
modelers_openmind
forked from
魔乐社区
/
openmind
确定同步?
同步操作将从
魔乐社区/openmind
强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
删除在远程仓库中不存在的分支和标签
同步 Wiki
(当前仓库的 wiki 将会被覆盖!)
取消
确定
代码
Issues
0
Pull Requests
0
Wiki
统计
流水线
服务
Gitee Pages
质量分析
Jenkins for Gitee
腾讯云托管
腾讯云 Serverless
悬镜安全
阿里云 SAE
Codeblitz
我知道了,不再自动展开
标签
标签名
描述
提交信息
操作
0.9.0
# 版本说明 ## openMind Library 0.9.0 版本说明 ### 新增特性 #### 新增功能 - openMind Library 已支持Ascend Extension for PyTorch插件[torch_npu](https://gitee.com/ascend/pytorch) 提供的[融合算子](https://www.hiascend.com/document/detail/zh/Pytorch/60RC2/apiref/apilist/ptaoplist_000072.html)特性,让使用PyTorch框架的开发者更充分地释放昇腾AI处理器的算力。 开发者修改`from_pretrained`入参或者修改模型config.json即可使能融合算子,不再需要修改模型代码,性能相比不使能融合算子提升约20%(不同模型结构、不同超参提升效果有所不同)。openMind Library当前支持的融合算子如下所示,使用方式可见文档[融合算子使能](./basic_tutorial/fused_ops.md)。 **表 1** openMind Library当前支持的融合算子和模型系列 <table> <tr> <td><b>融合算子名称</b></td> <td><b>融合算子简介</b></td> <td><b>当前支持模型系列</b></td> <!-- <td> </td> <td> </td> --> </tr> <tr> <td rowspan="4">npu_fusion_attention </td> <td rowspan="4">实现“Transformer Attention Score”算子的融合计算</td> <td>Llama</td> </tr> <tr> <!-- <td></td> --> <td>Qwen</td> </tr> <tr> <!-- <td></td> --> <td>Internlm2</td> </tr> <tr> <!-- <td></td> --> <td>Mistral</td> </tr> <!-- <tr> <td> </td> </tr> --> </table> - [LLaMA-Factory](https://github.com/hiyouga/LLaMA-Factory/tree/main)已原生支持通过openMind Library下载和加载魔乐社区的模型,使用方式可参考[LLaMA-Factory文档](https://github.com/hiyouga/LLaMA-Factory/blob/main/README_zh.md#%E4%BB%8E%E9%AD%94%E4%B9%90%E7%A4%BE%E5%8C%BA%E4%B8%8B%E8%BD%BD)。 - openMind Library pipeline新增12个任务,使用方式可见文档[模型推理](./basic_tutorial/pipeline.md): **表 2** openMind Library pipeline新增12个任务列表 | 任务名称 | 默认模型 | |--------------------------------|---------------------------------------------------------------| | feature-extraction | "PyTorch-NPU/xlnet_base_cased" | | depth-estimation | "PyTorch-NPU/dpt_large" | | image-classification | "PyTorch-NPU/beit_base_patch16_224" | | image-to-image | "PyTorch-NPU/swin2SR_classical_sr_x2_64" | | image-to-text | "PyTorch-NPU/blip-image-captioning-large" | | mask-generation | "PyTorch-NPU/sam_vit_base" | | text2text-generation | "PyTorch-NPU/flan_t5_base" | | zero-shot-classification | "PyTorch-NPU/deberta_v3_large_zeroshot_v2.0" | | zero-shot-object-detection | "PyTorch-NPU/owlvit_base_patch32" | | token-classification | "PyTorch-NPU/camembert_ner" | | translation | "PyTorch-NPU/t5_base" | | visual-question-answering | "PyTorch-NPU/blip_vqa_base" | - openmind-cli chat模型对话接口进行了优化增强,并新增支持模型4个,详见文档[命令行接口](./basic_tutorial/cli.md##多轮对话)多轮对话章节,当前支持模型清单如下表所示: **表 3** openmind-cli chat接口模型支持清单 | 组织名称 | 模型名称 | 模板名称 | 模型框架 | 依赖三方库特殊要求 | | ----------- | -------------------- | --------- | -------- | ---------------------- | | Baichuan | Baichuan2_7b_chat_pt | baichuan2 | PyTorch | transformers == 4.39.2 | | PyTorch-NPU | chatglm3_6b | chatglm3 | PyTorch | transformers == 4.39.2 | | AI-Research | glm-4-9b-chat | glm4 | PyTorch | transformers == 4.43.0 | | AI-Research | Qwen2.5-7B-Instruct | qwen | PyTorch | transformers == 4.45.2 | - openmind-cli lmeval大语言模型评估接口新增7个task,使用方式可见文档[命令行接口](./basic_tutorial/cli.md##大语言模型评估)大语言模型评估章节: **表4** openmind-cli lmeval接口新增7个task清单 | task名称 | |--------------------------------| | gsm8k | | mmlu | | mgsm_cot_native | | mgsm_direct | | truthfulqa | | hellaswag | | ai2_arc | - openmind-cli run已支持19类task,和pipeline task任务保持一致,详见文档[pipeline当前支持的推理任务及其默认模型](./basic_tutorial/pipeline.md#pipeline当前支持的推理任务及其默认模型)章节。 #### 新增接口 - openmind-cli run、chat接口新增入参`--docker` ,支持自动下载模型配套的镜像并加载镜像进行推理、对话,屏蔽版本选择问题。使用方式请参考[命令行接口](./basic_tutorial/cli.md)openmind-cli run接口、openmind-cli chat接口章节。 #### 文档更新 本期重点更新的文档如下: - [openMind Library 概述](./overview.md) - [openMind Library 基础教程-命令行接口](./basic_tutorial/cli.md) - [openMind Library API参考-接口-CLI接口](./api_reference/apis/cli_api.md) - [openMind Library 基础教程-融合算子使能](./basic_tutorial/fused_ops.md) - [openMind Library 基础教程-模型推理](./basic_tutorial/pipeline.md) ### 特性修改 - 删除openMind Library内置模型,通过融合算子接口使能模型性能优化。 - 删除openmind[all]安装方式,避免MindSpore和PyTorch框架同时存在时出现Double free等问题。 ### 已修复问题 无 ### 已知问题 | 已知问题 | 问题描述 | | ------------------------------------------------------- | ------------------------------------------------------------ | | openmind-cli lmeval 接口在部分模型中执行结果和GPU不一致 | 该特性依赖所运行的模型精度正常,部分社区模型可能存在精度误差,导致lmeval接口输出结果产生偏差 | ### 兼容性 Atlas 200T A2 Box16 Atlas 900 A2 PODc
a530975
2024-11-26 09:22
下载
0.8.0
# 版本说明 ## openMind Library 0.8.0 版本说明 ### 新增特性 #### 新增功能 - openMind Library支持metrics常用评估指标,包括:准确率(Accuracy)、混淆矩阵(ConfusionMatrix)、精确匹配(ExactMatch)、F1分数(F1)、GLUE基准(Glue)、平均绝对误差(MAE)、均方误差(MSE)。 - 新增LLaMA-Factory生态库套件支持: - 支持InternLM2.5_7B微调 - 支持Gemma2-9B SFT微调 - 支持Qwen2-7B SFT微调 #### 新增接口 - openMind Library新增模型多次推理、模型单次推理命令行接口。CLI提供的指令如下表所示,使用方式请参考命令行接口,接口说明请参考CLI接口说明。 **表 3** openmind-cli接口 | openmind-cli提供的接口 | | ------------------------ | | openmind-cli chat | | openmind-cli run | #### 文档更新 本期重点更新的文档如下: - openMind Library 安装 - openMind Library 基础教程-命令行接口 - openMind Library 基础教程-魔乐社区评估指标库 - openMind Library API参考-接口-CLI接口 - openMind Library API参考-接口-评估指标接口 ### 特性修改 - hub模块重构 - Trainer模块重构 ### 已修复问题 | 已修复问题 | 问题描述 | | -------------- | --------------- | | 内置模型Qwen(MindSpore)运行报错 | 内置模型Qwen(MindSpore),若打开特征值检测功能运行会报错,默认不开启。 | ### 已知问题 无 ### 兼容性 Atlas 200T A2 Box16 Atlas 900 A2 PODc
c7098ad
2024-11-18 15:23
下载
0.7.1
# openMind Library 0.7.1 版本说明书 ## openMind Library 0.7.1 ### 用户须知 openMind Library是一个深度学习开发套件,通过简单易用的API支持模型预训练、微调、推理、部署等流程。openMind Library通过一套接口兼容PyTorch和MindSpore等主流框架,同时原生支持昇腾NPU处理器。 ### 已修复问题 + [使用AutoClass类时会下载冗余文件](https://gitee.com/openmind-ai/openmind/issues/IAL216?from=project-issue) + [https://modelers.cn/coderepo/api/v1/file/未在公网地址文件中声明](https://gitee.com/openmind-ai/openmind/issues/IAO73X?from=project-issue) + [endpoint需修改为modelers.cn](https://gitee.com/openmind-ai/openmind/issues/IAOGGN?from=project-issue) ### 已知问题 无 ### 兼容性 Atlas 200T A2 Box16 Atlas 900 A2 PODc
86deb46
2024-11-18 15:20
下载
0.7.0
# openMind Library 0.7.0 版本说明书 ## openMind Library 0.7.0 ### 用户须知 openMind Library是一个开源的深度学习开发套件,通过简单易用的API支持模型预训练、微调、推理、部署等流程。openMind Library通过一套接口兼容PyTorch和MindSpore等主流框架,同时原生支持昇腾NPU处理器。 ### 新增特性 #### 新增功能 - openMind Library支持[Evaluate模型评估](https://telecom.openmind.cn/docs/zh/best-practices/third_party/openmind_evaluate.html)能力,三方库Evaluate适配NPU,实现和HUB交互下载。 - openMind Library支持[Datasets三方库](https://telecom.openmind.cn/docs/zh/best-practices/third_party/openmind_datasets.html)能力,包括:三方库在平行社区的构建和发布、三方库Datasets适配NPU、Datasets支持适配MindFormers。 - LLM评估套件lm-evaluation-harness能力支持,包括:支持transformers格式的LLM模型通过accelerate launch进行多进程多卡的方式评估、支持transformers格式的LLM模型进行单卡评估、支持transformers格式的LLM模型进行单进程多卡评估。 - LlaMA-Factory能力支持,包括:webui支持单节点8卡微调、支持LoRA微调、支持SFT、支持二次预训练。 #### 新增接口 - openMind Library新增PreTrainer接口,基于Accelerate支持多框架(Megatron、DeepSpeed以及FSDP)的分布式能力,并提供了通用的预训练流程管理功能。PreTrainer提供的接口如下表所示,使用方式请参考[模型预训练](./basic_tutorial/pretrainer.md),接口说明请参考[PreTrainer接口说明](./api_reference/apis/pretrainer_api.md#openmindpretrainer类)。 **表 1** PreTrainer接口 | PreTrainer提供的接口 | | --------------------- | | train | - openMind Library新增OmDataset接口,支持从魔乐社区下载数据集,目前仅支持PyTorch框架。OmDataset提供的接口如下表所示,使用方式请参考[数据加载](./basic_tutorial/load_dataset.md),接口说明请参考[OmDataset接口说明](./api_reference/apis/omdatasets_api.md)。 **表 2** OmDataset接口 | OmDataset提供的接口 | | -------------------- | | load_dataset | - openMind Library提供命令行接口(command-line interface, CLI),支持用户在shell环境下交互式实现文件上传、文件下载、模型查询、模型删除、模型评估操作。CLI提供的指令如下表所示,使用方式请参考[命令行接口](./basic_tutorial/cli.md),接口说明请参考[CLI接口说明](./api_reference/apis/cli_api.md)。 **表 3** openmind-cli接口 | openmind-cli提供的接口 | | ------------------------ | | openmind-cli list | | openmind-cli rm | | openmind-cli pull | | openmind-cli push | | openmind-cli lmeval | #### 新增内置模型 **表 4** 新增内置模型列表 | 模型名称 | 基础环境 | 所属领域 | | ------------- | --------- | ------------ | | Qwen-7B | MindSpore | 自然语言处理 | | Qwen1.5-7B | PyTorch | 自然语言处理 | | InternLM-7B | MindSpore | 自然语言处理 | | Mistral-7B-v0.1 | PyTorch | 自然语言处理 | #### 文档更新 本期重点更新的文档如下: - [openMind Library 基础教程-模型预训练](./basic_tutorial/pretrainer.md) - [openMind Library 基础教程-数据加载](./basic_tutorial/load_dataset.md) - [openMind Library 基础教程-命令行接口](./basic_tutorial/cli.md) - [openMind Library API参考-接口-PreTrainer模块接口](./api_reference/apis/pretrainer_api.md) - [openMind Library API参考-接口-omdatasets模块接口](./api_reference/apis/omdatasets_api.md) - [openMind Library API参考-接口-CLI接口](./api_reference/apis/cli_api.md) - [openMind Library API参考-内置模型-Qwen(MindSpore)](./api_reference/model/qwen_ms.md) - [openMind Library API参考-内置模型-Qwen1.5(PyTorch)](./api_reference/model/qwen1.5.md) - [openMind Library API参考-内置模型-InternLM(MindSpore)](./api_reference/model/internlm_ms.md) - [openMind Library API参考-内置模型-Mistral(PyTorch)](./api_reference/model/mistral.md) - [最佳实践-三方库参考-openmind_datasets](https://telecom.openmind.cn/docs/zh/best-practices/third_party/openmind_datasets.html) - [最佳实践-三方库参考-openmind_evaluate](https://telecom.openmind.cn/docs/zh/best-practices/third_party/openmind_evaluate.html) ### 特性修改 - AutoClass模块重构 - pipeline模块重构 ### 已修复问题 不涉及 ### 已知问题 | 已知问题 | 问题描述 | | -------------- | --------------- | | 内置模型Qwen(MindSpore)运行报错 | 内置模型Qwen(MindSpore),若打开特征值检测功能运行会报错,默认不开启。 | ### 兼容性 Atlas 200T A2 Box16 Atlas 900 A2 PODc
86deb46
2024-11-18 15:20
下载
下载
请输入验证码,防止盗链导致资源被占用
取消
下载
Python
1
https://gitee.com/zwyopen2021/modelers_openmind.git
git@gitee.com:zwyopen2021/modelers_openmind.git
zwyopen2021
modelers_openmind
modelers_openmind
点此查找更多帮助
搜索帮助
Git 命令在线学习
如何在 Gitee 导入 GitHub 仓库
Git 仓库基础操作
企业版和社区版功能对比
SSH 公钥设置
如何处理代码冲突
仓库体积过大,如何减小?
如何找回被删除的仓库数据
Gitee 产品配额说明
GitHub仓库快速导入Gitee及同步更新
什么是 Release(发行版)
将 PHP 项目自动发布到 packagist.org
评论
仓库举报
回到顶部
登录提示
该操作需登录 Gitee 帐号,请先登录后再操作。
立即登录
没有帐号,去注册