[论文笔记]UNILM
作者:小教学发布时间:2023-10-02分类:程序开发学习浏览:102
导读:引言今天带来论文UnifiedLanguageModelPre-trainingforNaturalLanguageUnderstandingandGener...
引言
今天带来论文Unified Language Model Pre-training for Natural Language Understanding and Generation的笔记,论文标题是 统一预训练语言模型用于自然语言理解和生成。
本篇工作提出了一个新的统一预训练语言模型(Unifield pre-trained Language Model,UniLM),可以同时用于自然语言理解和生成任务的微调。
该模型基于三种语言建模任务来预训练:单向、双向和seq-to-seq预测。统一建模是通过使用共享的Transformer网络和特定的自注意力掩码控制预测所依赖的上下文来实现的。
总体介绍
预训练语言模型(LM)通过在大量文本数据上基于上下文预测单词的方式来学习上下文文本表征。不同的预测任务和训练目标被用于预训练语言模型,如表1。
ELMo学习两个单向的LM:一个前向的LM从左到右读取文本,一个反向LM从右到左。GPT使用一个左到右的Transformer来逐单词地预测文本序列。反之,BERT使用双向的Transformer编码器去融合左向和右向的上下文来预测被mask的单词,但它的双向特性使它很难应用于文本生成任务。
标签:[论文笔记]UNILM
- 程序开发学习排行
- 最近发表
-
- Wii官方美版游戏Redump全集!游戏下载索引
- 视觉链接预览最好的WordPress常用插件下载博客插件模块
- 预约日历最好的wordpress常用插件下载博客插件模块
- 测验制作人最好的WordPress常用插件下载博客插件模块
- PubNews Plus|WordPress主题博客主题下载
- 护肤品|wordpress主题博客主题下载
- 肯塔·西拉|wordpress主题博客主题下载
- 酷时间轴(水平和垂直时间轴)最好的wordpress常用插件下载博客插件模块
- 作者头像列表/阻止最好的wordPress常用插件下载博客插件模块
- Elementor Pro Forms最好的WordPress常用插件下载博客插件模块的自动完成字段