查看原文
其他

超小型bert横空出世:训练和预测提速10倍

徐亮 AINLP 2019-12-18

作者徐亮(实在智能算法专家) 

项目地址:

https://github.com/brightmart/albert_zh




之前介绍过中文预训练模型ALBERT《中文预训练ALBERT模型来了:小模型登顶GLUE,Base版模型小10倍速度快1倍,现在 albert_tiny 也来了,模型已经更新上去,以下是该模型的简单介绍:


「模型介绍」模型albert_tiny,参数量仅为1.8M,是bert的六十分之一;模型大小仅16M,是二十五分之一;训练和预测提速约10倍;序列长度64的分类任务上,单核cpu的每秒处理能力即qps达到20。


「效果对比」在语义相似度LCQMC测试集上与bert差距仅为1.5个点;在三个同行的业务数据上测试,与bert差距在两个点内。


「适应场景」在任务相对简单,如分类或句子对任务,或实时性要求高的任务;不适用复杂业务如阅读理解等。




「模型下载地址」albert_tiny预训练中文模型地址:

https://github.com/brightmart/albert_zh


更新信息也请参考上述地址或点击阅读原文查看。


相关链接:

中文预训练ALBERT模型来了:小模型登顶GLUE,Base版模型小10倍速度快1倍

中文语言理解基准测评(chineseGLUE)来了,公开征集数据集进行中

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存