@liu-zhangda
刘张达 暂无简介
MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。 文档:https://mindformers.readthedocs.io/zh-cn/latest/
北京邮电大学 鲁鹏 计算机视觉基础课程资源
JavaWork space