An Implementation of ERNIE For Language Understanding (including Pre-training models and Fine-tuning tools)
Scripts to train a bidirectional LSTM with knowledge distillation from BERT
pytorch implementation for Patient Knowledge Distillation for BERT Model Compression
pytorch handbook是一本开源的书籍,目标是帮助那些希望和使用PyTorch进行深度学习开发和研究的朋友快速入门,其中包含的Pytorch教程全部通过测试保证可以成功运行
Pretrained language model and its related optimization techniques developed by Huawei Noah's Ark Lab.
中文命名实体识别(包括多种模型:HMM,CRF,BiLSTM,BiLSTM+CRF的具体实现)
Medical Named Entity Recognition implement using bi-directional lstm and crf model with char embedding.CCKS2017中文电子病例命名实体识别项目,主要实现使用了基于字向量的四层双向LSTM与CRF模型的网络.该项目提供了原始训练数据样本(一般醒目,出院情况,病史情况,病史特点,诊疗经过)与转换版本,训练脚本,预训练模型,可用于序列标注研究.把玩和PK使用.
CCKS2019中文命名实体识别任务。从医疗文本中识别疾病和诊断、解剖部位、影像检查、实验室检验、手术和药物6种命名实体。现已实现基于jieba和AC自动机的baseline构建、基于BiLSTM和CRF的序列标住模型构建。bert的部分代码主要源于https://github.com/charles9n/bert-sklearn.git 感谢作者。 模型最终测试集得分0.81,还有较大改进空间。可以当做一个baseline。
Needs to generate some texts to test if my GUI rendering codes good or not. so I made this.