查看原文
其他

预训练在自然语言处理的发展: 从Word Embedding到BERT模型

张俊林 AINLP 2019-12-18

以下是新浪微博机器学习部AI Lab的资深算法专家张俊林博士11月7日关于BERT的PPT分享,已取得授权转载到这里。节选微博上两段相关的信息:


@张俊林say: BERT这种具备NLP里程碑意义的模型你要是不搞明白就别说自己是搞自然语言处理的了


@微博机器学习

大家期待的PPT来啦《 预训练在自然语言处理的发展:  从Word Embedding到BERT模型 》。在这次分享中,@张俊林say 博士循序渐进,分别介绍了Word Embedding, Facebook的ELMO模型,OpenAI的GPT模型,和NLP领域最新的重大突破:刷新11项纪录的 Google的BERT模型。 
整个PPT全是干货,感兴趣的同学点击链接即可下载。


百度网盘链接:https://pan.baidu.com/s/1o4SBdsx6dY4W4bnuBmU38Q 或 点击文末 “阅读原文”直达。




    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存