轮回路上打碟的小年轻

@Livinluo

轮回路上打碟的小年轻 暂无简介

所有 个人的 我参与的
Forks 暂停/关闭的

    轮回路上打碟的小年轻/useful-python-whl

    仅保留最新版本

    轮回路上打碟的小年轻/bert

    BERT的全称是Bidirectional Encoder Representation from Transformers,即双向Transformer的Encoder,因为decoder是不能获要预测的信息的。模型的主要创新点都在pre-train方法上,即用了Masked LM和Next Sentence Prediction两种方法分别捕捉词语和句子级别的representation。

搜索帮助