本文翻译自Jay Alammar的博客The Illustrated BERT, ELMo, and co. (How NLP Cracked Transfer Learning)

  2018年是机器学习模型处理文本(更准确地说,是自然语言处理或简称NLP)的转折点。我们对以何种方式捕捉潜在语义和关系的来表示单词和句子这一问题的理解也在迅速发展。此外,NLP社区中也有人分享了许多了非常强大的模型供你免费下载并在自己的模型和pipeline中使用(它被称为NLP的ImageNet moment,参考了多年前计算机视觉的快速发展)。

  其中一个最新的里程碑就是BERT的发布,这被人们看作是NLP新时代的开始。BERT是一个打破了许多基于语言的任务中的记录。在论文发布后不久,该模型的团队还开源了模型的代码,并提供了模型的下载版本,这些模型已经在大数据集上进行过了预训练。这是一个重大的进步,因为它使任何想要构建自然语言处理的机器学习模型的人都可以将这个强大的预训练好的模型作为一个随时可用的组件使用——从而节省了从头开始训练模型所需的时间、精力、知识和资源。

使用BERT的两个步骤。第一步:下载预训练好的模型;第二步:在特定任务上进行微调

  BERT也是基于最近在NLP社区中涌现的许多聪明的想法,包括 Semi-supervised Sequence Learning (by Andrew DaiQuoc Le), ELMo (by Matthew Peters 和来自 AI2 and UW CSE的研究人员), ULMFiT (by fast.ai 创始人 Jeremy Howard 和大牛 Sebastian Ruder), OpenAI transformer (by OpenAI 研究员Radford, Narasimhan, Salimans, and Sutskever), 以及Transformer (Vaswani et al)等.

  要正确理BERT是什么,我们需要了解许多概念。倒不如先看看BERT有哪些用途。

一、例子:句子分类

  最直接的想法就是使用BERT进行单个文本的分类。这个模型看起来是这样的:

  要训练这样的模型,您需要重点训练一个分类器,在训练阶段对BERT模型的改动非常小。这种训练过程称为微调(fine-tuning),其根源在于 Semi-supervised Sequence Learning 和ULMFiT。

  对于不熟悉这个概念的人来说,由于我们讨论的是分类器,所以在这个任务中涉及到的是机器学习中的监督学习。这意味着我们需要一个标记好的数据集来训练这样的模型。以垃圾邮件分类为例,标记的数据集将是一个电子邮件消息列表和一个标签(标注“垃圾邮件”或“非垃圾邮件”)。

类似的任务场景还有:

  • 情感分析

    • 输入: 一条影评/商品评价。
    • 输出: 正面评价还是负面评价?
    • 数据集如: SST
  • 事实核查

二、模型架构

  现在您已经有了一个BERT的用例,接下来让我们进一步了解它是如何工作的。

Google在论文中提到了两个不同模型规模的BERT:

  • BERT BASE –和OpenAI Transformer模型的规模差不多,方便与其进行性能比较
  • BERT LARGE – 一个达到目前多个benchmark的SOTA的巨大的模型

  BERT基本上就是一个训练好的Transformer编码器栈。关于Transformer的内容可以看看 图解Transformer这篇博文。Transformer是BERT的基础,下面我们也会涉及到这个概念。

  两种规模的BERT模型都有许多编码器层 (在论文中称为“Transformer块”) – BERT Base有12个这样的结构,BERT Large有24个。编码器中也有前馈网络 (BERT Base中的是768个隐层神经元,BERT Large中的是1024个隐层神经元), 以及注意力层中使用了比Transformer那篇论文中更多的“头” (BERT Base有12个“头”,BERT Large中有16个)。

模型的输入

  输入序列的第一个token是一个特殊的符号[CLS],这里的CLS代表class。

  就像Transformer的编码器一样,BERT以一串单词作为输入,这些单词不断地想编码器栈上层流动。每一层都要经过自注意力层和前馈网络,然后在将其交给下一个编码器。

  在体系结构方面,到目前为止,还是与Transformer是相同的(除了一些超参数之外)。接下来在输出端,我们会看到其和Transformer的不同之处。

模型的输出

  每个位置对应地输出一个维度为hidden_size(BERT Base中为768)的向量。对于之前提到的句子分类的例子,我们只关注第一个位置的输出(也就是被我们用[CLS]符号代替的位置)。

  输出的这个向量现在可以用作我们选择的分类器的输入。论文利用一个单层神经网络作为分类器,就能取得较好的分类效果。

  如果你有更多的标签(例如,如果你是一个电子邮件服务提供商,你需要将电子邮件标记为“垃圾邮件”、“非垃圾邮件”、“社交”和“促销”等等),你只需调整分类器这部分的网络,使其具有更多的输出神经元,然后通过softmax。

三、与卷积网络并行

  对于有CV背景的人来说,这种向量传递应该让人想起像VGGNet这样的网络的卷积部分和网络结构最后的全连接层之间发生的事情。

四、嵌入表示的新时代

  这些新的探索带来了文本编码方式的新转变。到目前为止,在绝大多数的NLP模型中,词嵌入一直是一个主要的文本表示方法。Word2Vec、Glove等方法已广泛应用于此类任务。下面先让我们回顾一下如何使用它们。

回顾一下词嵌入

  为了要让机器学习模型能够处理单词,我们需要以数字的形式表示文本,以便模型在计算中使用。通过使用Word2Vec,我们可以用一个向量来代表单词,而这一向量还捕捉了一定的语义信息(如“斯德哥尔摩”和“瑞典”的关系相当于“开罗”与“埃及”的关系)以及语法信息,或基于语法的关系(例如,“had”和“has”的关系与“was”和“is”的关系是一样的)。

  人们很快意识到,使用大量文本数据进行预训练学习词嵌入是一个好主意,而不是在小数据集上模型从零开始训练。你可以下载预训练的Word2Vec或GloVe。下面是GloVe训练得到的“stick”对应的向量表示(嵌入向量维度为200)。

  由于维度很大,在后面的文章中会用下面这种形状代表向量:

ELMo: 语境的重要性

  如果我们是使用GloVe训练好的向量作为一个词,比如“stick”的表示,那么不管在什么上下文中,这个表示都是一样的。在一些研究中 (Peters et. al., 2017, McCann et. al., 2017, Peters et. al., 2018 in the ELMo paper ),研究人员认为像“stick”这样的词其实有很多意思,具体是什么意思取决于在什么语境中用它。那么为什么不基于其上下文语境来学习一个词的嵌入表示呢?也就是即学习到这个词的上下文的语义,有学习到其他的语境信息。就此,语境化的词嵌入模型应运而生。

语境化的词嵌入模型能够基于一个单词的上下文的意思给出单词的向量表示[RIP Robin Williams](https://www.youtube.com/watch?v=OwwdgsN9wF8)

  ELMo没有为每个单词使用固定的嵌入,而是在为每个单词分配嵌入之前查看整个句子。它使用针对特定任务的双向LSTM来创建这些嵌入。

  ELMo为在语境中进行预训练提供了重要的思路。ELMo LSTM能够在大数据集上进行训练,然后作为其他模型的一个部分处理其他的自然语言任务。

ELMo的秘诀是什么?

  ELMo通过训练预测单词序列中的下一个单词来理解语言——这项任务被称为语言建模。这很方便,因为我们有的是大量的文本数据,这样的模型可以从这些数据中学习,而不需要额外的标签。

ELMo进行预训练的一个步骤:给定输入“Let’s stick to”, 预测接下来一个词,这就是语言模型的任务。当模型在大语料上进行预训练,他就会学习其中的语言模式。它不太可能准确地直接地猜出这个例子中的下一个单词。更实际一点说,在“hang”这样的单词之后,它将为“out”这样的单词分配更高的概率(组成 “hang out”) 而不是给“camera”分配更高的概率。

  我们可以看到每个LSTM时间步的隐状态从ELMo的“头部”后面探出来。这些向量会在预训练结束后的嵌入过程中会派上用场。

  ELMo实际上更进一步,训练了一个双向的LSTM——这样它的语言模型不仅能预测下一个词,还有预测上一个词。

[Great slides](https://www.slideshare.net/shuntaroy/a-review-of-deep-contextualized-word-representations-peters-2018) on ELMo

  ELMo通过将隐藏状态(和初始嵌入)以某种方式(拼接之后加权求和)组合在一起,提出了语境化的词嵌入。

五、ULM-FiT:搞懂NLP中的迁移学习

  ULM-FiT引入了一些方法来有效地利用模型在预训练中学到的东西——不仅仅是嵌入,还有语境化的嵌入表示。ULM-FiT引入了一个语言模型和一套针对各种任务有效地对语言模型进行微调的流程。

  NLP终于找到了一种方法,可以像CV那样进行迁移学习了。

六、Transformer:超越LSTM

  Transformer的论文和代码的发布,以及它在机器翻译等任务上取得的成果,开始使一些业内人士认为它是LSTM的替代品。Transformer比LSTM更能处理长期依赖。

  Transformer的编码器-译码器结构使其成为机器翻译的理想模型。但是你会如何使用它来进行句子分类呢?你将如何针对其他特定任务对语言模型进行微调呢?

七、OpenAI Transformer:为语言建模预训练一个Transformer解码器

  事实证明,我们可以不用一个完整的Transformer来迁移学习并进行微调。我们可以只用Transformer的解码器就可以了。解码器是一个很好的选择,因为它能屏蔽掉后来的词(当进行逐词生成翻译时,这是一个很有用的特性)。

The OpenAI Transformer 是由Transformer的解码器栈组成的

  这个模型堆叠了12个解码器层。由于在这种设计中没有编码器,因此这些解码器层也不会有Transformer原文中的那种编码器-解码器注意力子层。但是,仍然还是有自注意力层。

  有了这种结构,我们可以继续在相同的语言建模任务上进行训练模型:使用大量(未标记的)文本来预测下一个单词。只是,把7000本书的文本扔给模型,让它学习!书籍非常适合这类任务,因为它允许模型学习相关联的信息,而当您使用tweet或文章进行训练时,您无法获得这些信息。

The OpenAI Transformer现在已经准备好被训练成能够预测下一个单词了

八、在下游任务中使用迁移学习

  既然OpenAI Transformer已经经过了预训练,而且它的各个层也经过了调整,我们就可以开始在下游任务中使用它了。让我们先来看看句子分类(将邮件信息分为“垃圾邮件”或“非垃圾邮件”):

How to use a pre-trained OpenAI transformer to do sentence clasification

  OpenAI的论文列出了许多用于处理不同类型任务输入的输入变换。下图显示了模型的结构和执行不同任务时的输入变换。

九、BERT:从解码器到编码器

  openAI Transformer为我们提供了一个基于Transformer的可微调的预训练的模型。但是把LSTM换成Transformer还是让有些东西丢失了。ELMo的语言模型是双向的,而openAI Transformer则只训练一个从左到右的语言模型。那么我们能否建立一个既能从左到右预测又能从右到左预测(同时受上、下文的制约)的基于Transformer的模型呢?

MLM语言模型

  “我们将使用Transformer编码器”,BERT说。

  “这太疯狂了”,有人说,“每个人都知道双向条件作用会让每个词在多层次的语境中间接地看到自己。

  “我们将使用掩码”,BERT自信地说。

BERT遮罩住15%输入序列中15%的token,然后让模型预测这些遮罩住的位置是什么单词

  找到合适的任务来训练Transformer的编码器栈是一个复杂的问题,BERT采用了早期文献(完形填空任务)中的“带掩码的语言模型”概念来解决这个问题。

  除了屏蔽15%的输入,BERT还混入一些东西,以改进模型的微调方式。有时它会随机地将一个单词替换成另一个单词,并让模型预测该位置的正确单词。

两个句子的任务

  如果你还记得OpenAI Transformer处理不同任务时所做的输入变换,你会注意到一些任务需要模型处理关于两个句子的信息(例如,一个句子是否是另一个句子的复述;再例如假设一个维基百科条目作为输入,一个关于这个条目的问题作为另一个输入,我们能回答这个问题吗?)

  为了让BERT更好地处理多个句子之间的关系,预训练的过程还有一个额外的任务:给定两个句子(A和B), B可能是接在A后面出现的句子吗?

BERT预训练的第二个任务是两个句子的分类任务。

解决特定任务的模型

  BERT论文展示了BERT在不同任务上的应用。

用于特征提取的BERT

  微调的方法并不是使用BERT的唯一方法。就像ELMo一样,你也可以使用预训练好的BERT来创建语境化的词嵌入。然后,您可以将这些嵌入表示喂给现有的模型——论文中也提到,在NER这类任务中,这种用法的最终效果也没有比用微调的方法的结果差很多。

  哪种向量作为语境化嵌入的效果最好?我认为这取决于具体任务。论文比较了6中选择(与微调后的96.4分模型相比):

十、把BERT牵出来遛一遛

  试用BERT的最好方法是通过在谷歌Colab上托管的BERT FineTuning with Cloud TPUs notebook。如果你之前从未使用过Cloud TPU,那么这也是尝试它们的一个很好的开始,而且BERT代码也可以在TPU、CPU和GPU上工作。

  下一步可以看看 BERT代码实现:

  • 模型在 modeling.py (class BertModel)中定义,而且和原生的Transformer encoder非常相似。
  • run_classifier.py 是一个微调过程的例子。其中构造了一个分类层。如果你想构建自己的分类器,可以看看文件中的 create_model()方法。
  • 一些预训练模型可供下载。其中包括了BERT Base和 BERT Large,以及在中文、英文等102种语言的维基百科上预训练得到的模型。
  • BERT并不是直接处理单词,而是把 WordPieces作为token。 tokenization.py 是能够将单词转换成wordPieces的脚本。

  你也可以参考 BERT的PyTorch实现AllenNLP 用这个代码让其他模型也能够用BERT的嵌入表示

图解BERT(NLP中的迁移学习)的更多相关文章

  1. 《A Survey on Transfer Learning》迁移学习研究综述 翻译

    迁移学习研究综述 Sinno Jialin Pan and Qiang Yang,Fellow, IEEE 摘要:   在许多机器学习和数据挖掘算法中,一个重要的假设就是目前的训练数据和将来的训练数据 ...

  2. 『TensorFlow』迁移学习

    完全版见github:TransforLearning 零.迁移学习 将一个领域的已经成熟的知识应用到其他的场景中称为迁移学习.用神经网络的角度来表述,就是一层层网络中每个节点的权重从一个训练好的网络 ...

  3. [DeeplearningAI笔记]卷积神经网络2.9-2.10迁移学习与数据增强

    4.2深度卷积网络 觉得有用的话,欢迎一起讨论相互学习~Follow Me 2.9迁移学习 迁移学习的基础知识已经介绍过,本篇博文将介绍提高的部分. 提高迁移学习的速度 可以将迁移学习模型冻结的部分看 ...

  4. 迁移学习(Transformer),面试看这些就够了!(附代码)

    1. 什么是迁移学习 迁移学习(Transformer Learning)是一种机器学习方法,就是把为任务 A 开发的模型作为初始点,重新使用在为任务 B 开发模型的过程中.迁移学习是通过从已学习的相 ...

  5. 【47】迁移学习(Transfer Learning)

    迁移学习(Transfer Learning) 如果你要做一个计算机视觉的应用,相比于从头训练权重,或者说从随机初始化权重开始,如果你下载别人已经训练好网络结构的权重,你通常能够进展的相当快,用这个作 ...

  6. Sebastian Ruder : NLP 领域知名博主博士论文面向自然语言处理的神经网络迁移学习

    Sebastian Ruder 博士的答辩 PPT<Neural Transfer Learning for Natural Language Processing>介绍了面向自然语言的迁 ...

  7. 在NLP中深度学习模型何时需要树形结构?

    在NLP中深度学习模型何时需要树形结构? 前段时间阅读了Jiwei Li等人[1]在EMNLP2015上发表的论文<When Are Tree Structures Necessary for ...

  8. 转载:深度学习在NLP中的应用

    之前研究的CRF算法,在中文分词,词性标注,语义分析中应用非常广泛.但是分词技术只是NLP的一个基础部分,在人机对话,机器翻译中,深度学习将大显身手.这篇文章,将展示深度学习的强大之处,区别于之前用符 ...

  9. 物体检测中常用的几个概念迁移学习、IOU、NMS理解

    1.迁移学习 迁移学习也即所谓的有监督预训练(Supervised pre-training),我们通常把它称之为迁移学习.比如你已经有一大堆标注好的人脸年龄分类的图片数据,训练了一个CNN,用于人脸 ...

随机推荐

  1. Dubbo和Spring Cloud

    1.Dubbo和Spring Cloud区别 1).通信方式不同 Dubbo使用RPC通信,Spring Cloud使用Http RestFul方式 2) 组成部分不同 组件 Dubbo Spring ...

  2. httpd日志格式

    日志的缺省格式有如下几种: LogFormat "%h %l %u %t "%r" %>s %b "%{Referer}i" "%{U ...

  3. Python2.X和Python3.X的w7同时安装使用

    一.介绍 Python([ˈpaɪθən])是一种面向对象.解释型计算机程序设计语言.Python语法简洁.清晰,具有丰富和强大的类库. Python源代码遵循GPL(GNU General Publ ...

  4. 跨域1-CORS跨域

    1.跨域:请求的资源和当前网站的,协议/域名/端口 不一样,会发起跨域HTTP请求 2.为什么会跨域出于安全原因,浏览器限制从脚本内发起的跨源HTTP请求. 例如,XMLHttpRequest和Fet ...

  5. locate中使用variant

    利用locate构造多字段查询,采用variant很方便,简介如下, //构造查询多字段,例如'编号;姓名'形式 aLookField :=  FieldByName ('关键字1').AsStrin ...

  6. python调试pdb

    开始调试 python3 -m pdb pdb.py break 或 b line_num 设置断点设置断点 continue 或 c继续执行程序 list 或 l查看当前行的代码段 step 或 s ...

  7. JavaScript最后的课程笔记

    一.快捷位置和尺寸 DOM已经提供给我们计算后的样式,但是还觉得不方便,所以DOM又提供给我们一些API: ele.offsetLeft ele.offsetTop ele.offsetWidth e ...

  8. 用最简单的话告诉你什么是ElasticSearch

    介绍 Elasticsearch 是一个分布式可扩展的实时搜索和分析引擎,一个建立在全文搜索引擎 Apache Lucene(TM) 基础上的搜索引擎.当然 Elasticsearch 并不仅仅是 L ...

  9. Python【每日一问】13

    问:请简述一下python的GIL 答:GIL 锁,全局解释器锁,仅在CPython解释器中,作用就是,限制多线程同时执行,保证同一时间内只有一个线程在执行.

  10. Oracle问题处理

    一,如果在Oracle中执行for update操作时,出现一致卡顿现象,此时可能是有其它的进程阻塞了. 处理的方法就是查找出阻塞的进程,然后强制杀死 先查询出阻塞进程: select object_ ...