动机
- 现有的预训练语言模型通常在纯文本上训练,没有引入
linguistic knowledge
和world knowledge
; - 大多数模型以自回归方式进行训练,在下游语言理解任务上表现较差。
贡献
- 提出
ERNIE 3.0
,该框架融合了自回归网络和自编码网络,使得训练好的模型能够适应自然语言理解和生成任务,具有zero-shot、few-shot、fine-tuning
等能力; ERNIE 3.0
使用纯文本和大规模知识图构成的语料库训练百亿参数模型,在一系列自然语言理解和生成任务上优于现有模型。