An Empirical Survey on Long Document Summarization,Part 1:Introduction and Datasets
论文《An Empirical Survey on Long Document Summarization》对长文本摘要领域通过模型、数据集和评价指标三个方面进行了全面的概述,文本是该论文阅读笔记第一部分,描述了长文本的概念,介绍了目前的数据集。
论文《An Empirical Survey on Long Document Summarization》对长文本摘要领域通过模型、数据集和评价指标三个方面进行了全面的概述,文本是该论文阅读笔记第一部分,描述了长文本的概念,介绍了目前的数据集。
近年来随着自然语言处理技术的不断发展,预训练模型已经成为了近年来最热门的研究方向之一。预训练模型有更好的性能表现。然而,对于刚接触的人来说,阵对预训练模型的训练可能会显得复杂和难以理解。
BRIO在生成式文本摘要领域SOTA位置还没坐稳几个月,便出现了新的SOTA—MoCa
BRIO是2022年文本摘要领域SOTA,通过结合了对比学习解决了生成式摘要领域seq2seq自回归中的exposure bias问题
BERT(Bidirectional Encoder Representation from Transformers),BERT模型在结构上简单来讲就是一个多层的transformer的Encoder
Transformer 是 Google 的团队在 2017 年提出的一种 NLP 经典模型,现在比较火热的 Bert 也是基于 Transformer。Transformer 模型使用了 Self-Attention 机制,不采用 RNN 的顺序结构,使得模型可以并行化训练,而且能够拥有全局信息。
递归神经网络(Recurrent Neural Network, RNN)是一种专门处理序列的神经网络。它们通常用于自然语言处理(NLP) 任务,因为RNN在处理文本方面非常有效。
GloVe(Global Vectors)是常见的词向量表示方法,GloVe模型认为语料库中单词出现的统计是学习词向量表示的无监督学习算法的重要因素。相较于word2vec,GloVe利用语料库的全局信息。
FastText是在word2vec的cbow和skip-gram基础上得到模型,其最大的特点是模型简洁,训练速度快且文本分类准确率也令人满意
Word2Vec是常用的词嵌入模型之一。Word2Vec实际是一种浅层的神经网络模型,它有两种网络结构,分别是CBOW(Continues Bag of Words)连续词袋和Skip-gram。 我们可以选择其中一个方法来获得文本的词向量结果。