
动机
- 现有的预训练语言模型通常在纯文本上训练,没有引入
linguistic knowledge和world knowledge; - 大多数模型以自回归方式进行训练,在下游语言理解任务上表现较差。
 
贡献
- 提出
ERNIE 3.0,该框架融合了自回归网络和自编码网络,使得训练好的模型能够适应自然语言理解和生成任务,具有zero-shot、few-shot、fine-tuning等能力; ERNIE 3.0使用纯文本和大规模知识图构成的语料库训练百亿参数模型,在一系列自然语言理解和生成任务上优于现有模型。







