职称论文百科

ACL论文发表时间2021

发布时间:2024-07-03 07:42:15

ACL论文发表时间2021

目录

如何写出好论文:投递ACL2021总结... 1

简介... 1

1.“为什么要写论文?”. 2

2.“什么样的论文才是好论文?”. 2

2.1读者(审稿人)要什么?. 2

2.2怎样满足审稿人?... 3

2.3审稿人的期望分析... 3

2.3.1读者对文章结构的期望... 3

2.3.2读者对句子的期望... 3

2.3.3读者对段落的期望... 4

2.3.4读者对方法/实验步骤的期望... 4

3.“好论文是如何写出来的”. 4

3.1如何写摘要... 5

3.2如何写引言... 6

3.3如何写相关工作... 7

3.4如何写正文... 7

3.5如何写结果... 7

3.6如何写讨论... 8

3.7如何写结论... 8

4.总结... 8

References 9

2021年4月1日ACL2021的论文rebuttal阶段结束,经过一个多月的写论文,做实验和反复修改到最后回复评审意见的痛苦过程,感慨和收获都很多。在此期间对如何写好论文的思考和了解更深入了。因此特别总结了一下。中间我也查阅了写论文的相关资料,其中[1,2]让我感触最深。[1]从哲学角度提出了针对写论文的灵魂三问,[2]提出要迎合读者预期的方法论。这次将[1,2]的论点进行整理后,针对本次没有写好introduction的问题,加入了[3]中如何写introduction的方法论,最终成文。

本文主要针对写论文的三个哲学问题整合文献[1,2]的资料进行回答,因为本人才疏学浅,有不到之处还请海涵。在写论文之前,我们都会问三个关键问题:

下面会分三个章节来分别回答上述问题。

除了评职称,完成KPI等世俗的原因背后,其实还有一些论文备受推崇的底层原因:

写文章的时候应该力求简单到可以被新手理解,同时深刻到可以引起专家的兴趣。一篇文章只有在不需太多努力就可以理解的情况下才会被广泛地引用。文章清晰的关键就是使读者能在他们想找的地方找到他们需要的东西。简而言之为以下两点:

文章在发表前必须经过审稿人的评审。他们一般是相关领域的专家甚至是你的竞争者。他们会尽力寻找你文章 中的毛病。有时,由于不同的观点和竞争的需要,审稿人或许会试图阻止你的文章发表。因此,文章必须写得理由充足。在被别人挑剔之前 ,自己必须首先鸡蛋里挑骨头,预先回答审稿人的可能质疑 。

1). 只提出“一”个中心命题。论文里的观点太多,不但不好写,问题也容易多,读者也不易记住你要说什么。

2). 在这个中心命题的基础上,用一个迷人(但绝不夸张)的标题来吸引审稿人的兴趣。无偿审稿使审稿人只审批感兴趣的论文。如果你不能引起审稿人的兴趣,那最好不要发表那篇文章。编辑们有时候会很郁闷,因为找不到有兴趣的审稿人。

3). 合理解释每一个参数,合理说明每一个步骤。审稿人没时间考虑细节。程序和参数的合理化显示出你知道你在做什么,而不是凑数据。 没理由要找理由,有理由要强调。

4). 问问你自己是否提供了足够重复你工作的所有细节。审稿人(或读者)越容易再现你的工作,他就越可能接受你的文章。当然,审稿人并不会真正去重做你的工作,但你必须通过你的描述使他相信可以重做。

5). 必须有说服力!尽量做彻底而不是半成品的工作!用多方面测试来证明你的中心命题。要使文章像律师证明无罪官司,预先回答一切可能提出的疑问。

6). 引用所有重要的研究工作,特别是经典力作。写作的时候要再做全面文献检索。为了达到这些目标,写科学论文的时候必须遵照一定的框架结构。

典型的科学论文包括标题、摘要、引言、方法/实验步骤、结果、讨论、致谢,和参考文献。这样的结构是用来帮助读者快速找到他们感兴趣的信息。把信息放错地方会使读者糊涂。

好文章的所有 句子都应该这样从旧到新地平滑过渡 。写好一句开头的金科玉律是问问你自己:“我以前有没有提过 这个概念?”大多数文章很难读是因为很多新概念在没有被介绍之前就使用了。

读者想在 主语之后立刻看到行为动词 。对一个说明谁在做什么的句子,读者需要找到动词才能理解。如果动 词和主语之间相隔太远,阅读就会被寻找动词打断。而打断阅读就会使句子难以理解。尽量避免过长的主语和过短的宾语。这就像头重脚轻的人很难站稳。短的主语紧跟着 动词加上长的宾语效果会更好。

读者期望每句只有一个重点,这个 重点通常在句尾 。比较下面两个句子,我们可以感觉到他们着重强调不同的东西。把最好的,最重要的,和想要读者记住的东西放在句尾。

每一个段落都应该只讲一个故事 。在一段里表述多个观点会使读者很难知道该记住什么、这段想表达什么。一段的第一句要告诉读者这一段是讲什么的。这样读者想跳过这段就可以跳过。一段的最后一句应该是这段的结论或 者告诉读者下一段是什么。段落中的句子应该由始到终通过逻辑关系连接,实现由旧信息到新信息的流动

首句描述了整段的主题。最后一句时总结整段。 很明显,新旧信息的连接是理解这段的关键。从旧信息到新信息的流动是使读者轻松阅读的最佳方式。写文章的目的不是去测试读者的阅读能力,而是考验作者的表达能力。不能怪人没看懂,只能怪自己没写清楚

如果文章是关于新的方法、技术或算法,要非常详细地写它的新颖之处。要用有逻辑的、合理的方式来描述它。 这会帮助读者抓住新方法的要领。如果这个方法使用参数,则要把每一个参数(或参数的取值)合理化,或者是以前 用过的,或者可以从物理或数学推导出来,或者通过了广泛的测试及优化。如果无法保证它的合理性,那就必须描 述改变它会造成的影响(实际的结果应该在结果部分或讨论部分,方法部分仅包含影响的描述)。如果没有测试它们 的合理性,你应该解释为什么(做的代价太贵了?太费时间了?或者需要延期到将来做)。

针对审稿人对一篇好文章的期望,我们可以有针对性的进行写作。

[1]提出如上图的写作经验,具体如下:

如果总是先写中文再译成英文,英语很难提高。直接用英语写作,刚开始可能很困难,可能写完5行字,就已经花了一小时,但是万事开头难,迈出第一步,路会越走越顺。对于我的学生,我一般会认真指导他们完成第一篇,从第二篇开始,就基本上不用太费心。其次,要用自己最熟悉的、确定不会产生歧义的单词。不要用金山词霸等软件直接查词,选择自己没有使用过的词,这样很容易产生歧义。第三,每段只讲一个要点,并且要明确。第四,毕竟是在进行科技文献写作,注意语言要正式,要进行提炼,用语不要过于琐碎家常。第五,要避免“毫无疑问”(no doubt)、“绝对”(absolutely)、“显然”(obviously)这类绝对化的用词。第六,不要使用复杂的语句,要尽量简单明晰,便于读者理解。另外,要注意衔接过过渡,选择正确的过渡词与联接词,还要注意转折,注意连贯性,避免行文跳跃。最后,现在很多字处理软件都提供拼写检查功能,对于软件提示可能出错的字,一定要仔细再检查。

下面按照论文通常的结构逻辑来给出如何写好论文的建议。

摘要就是给出论文的概况,吸引读者。在这里要给一些适当的细节,简略描述你的方法是如何实现的、有哪些组成组成部分(components)、实验结果如何、比现有的技术提高了多少。

引言部分很重要,首先要讲明做本研究动机,讲明为什么本文所述的研究很重要?为什么该研究是值得做的?如果不能很好地论证,后面写得再好也没有用,因为大家不会浪费时间在“没有用”的东西上。其次,本文的贡献、创新性要明确突出,不要让人误认为你的研究与别人相似。第三,介绍你的方法时要比摘要详细些,但是不要给太多的细节。

每一个引言应该包括研究领域的介绍和意义,做这工作的具体原因,结果和隐含的意义。一般而言,读者读完引言,对论文的来龙去脉就应该清清楚楚了

第一件该做的事就是围绕中心命题来收集所有相关文献。搜索并研究所有最近和相关的文章(通过对中心命题关键字的搜索或用引用索引)。确认你有所有最新的论文。引用所有 重要的文章。如果你不引用别人的文献,别人也不会引用你的!如果你想谁引用你的工作,你要先引用他的。你引用的文章越多,他们越可能阅读并引用你的文章。因为人们更加关注引用他们的论文。仔细读你所引用的文章,避免引用错误。在引用上,不要偷懒。

Introduction(引言)的主要任务是向读者勾勒出全文的基本内容和轮廓。它可以包括以下五项内容中的全部或其中几项(具体要根据你论文的长短等实际情况来决定) [3]:

如何合理安排以上这些内容,将它们有条有理地给读者描绘清楚,并非容易之事。经验告诉我们,引言其实是全文最难写的—部分。这是因为作者对有关学科领域的熟悉程度,作者的知识是渊博、还是贫乏,研究的意义何在、价值如何等问题,都在引言的字里行间得以充分体现。 我们可以将引言的内容分为三到四个层次来安排。第一层由研究背景、意义、发展状况等内容组成,其中还包括某一研究领域的文献综述;第二层提出目前尚未解决的问题或急需解决的问题,从而引出自己的研究动机与意义;第三层说明自己研究的具体目的与内容;最后是引言的结尾,可以介绍一下论文的组成部分。

2) 引言第二层主要的目的是表明目前研究尚未解决的问题(Indicating the problem that has not been solved by previous research, raising a relevant question)

阐述自己研究领域的基本内容。要尽量简洁明了,不罗嗦;须知看文章者都是该领域的专家,所以一些显而易见的知识要用概括性的而不是叙述性的语言来描述。

相关工作是为了证明你的工作的新颖性的。因此对前人的研究的引用要完整,并且一定要尊重相关文献的作者,可以指出其缺点,但一定要礼貌,要以建设性的方式提出。

正文用来介绍技术上的细节,终极目的是要让人理解你的方法并能重现实验结果。首先,逻辑要清晰,其次,技术上的细节不能缺失。但是,如果细节可能喧宾夺主,则要适当删减或挪到附录甚至补充材料里,以免干扰正常的阅读节奏。如果文章比较复杂,可以叙述一下方法的组成部分,画出框图,展示方法、内容及其关系。文章的实验结果要证明“我的方法的确比现有最好的方法还要好”。有一个细节需要注意:有些同学在文中用红、绿、蓝色来指示对象,但经常图片打印出来都是灰色的,对象难以区分,所以最好不要用颜色来指示图片里的对象,而要尽量用不同样式的线型、填充模式等,再打印出来确认不同对象的确是可以区分的。另外,对于所有的图、表,要在正文里加以说明,对于反常规的结果尤其要突出地论述其原因。

当你开始写结果部分时,先考虑一下结果的意义。也就是说,你理解你的结果吗?这些结果是不是告诉了你更 深刻的东西?你能从很多不同角度来理解结果吗?你能设计证明或者反驳你的一些解释的新测试吗? 如果你发现了新现象,你必须证明你的结果不是你方法制造出来的(讨论部分的一个好内容)。它可以在不同的 条件下重复吗?如果你发展了一个新方法,你必须证明这个方法的重要性。它是否改进了现有的方法?你的结果部 分必须用不同的角度或多重测试来支持新发现或验证新方法的重要性。

一旦你对结果有更好的理解,你需要决定卖点,也就是说这篇文章最有意义的一个观点是什么?确定这篇文章 的中心命题之后要组织所有的段落来证明、支持它,用数据(有必要的话再加数据)来证明它。同时也要排除其它可 能性。放弃与中心命题无关的数据,即使这些数据是很辛苦得来的。

现在到了你写论文的最后一部分。很多人认为讨论部分最难写。他们常常不知道该写什么。学生常常不能把结 果从他们的解释、含意和结论中分离出来。此外,他们不善于思考可能存在的其他解释。好的讨论通常以得到的结 果和解释的评论开始。其它可用于讨论的内容有:参数改变对结果的影响,与其他研究相比还有待解决的问题,将 来或正在进行的工作(防止别人从事你显而易见的,立刻就能实现的后续工作)。这里有一段文章中的讨论部分

结论部分是给读者留下印象的最后机会,要进一步突出自己的贡献。

你还可以开诚布公地承认自己的 缺点 ,其实这会让审稿人留下好印象,并且给其它读者以提升空间,让他们沿着你的方向继续前行。

有一个很不好的做法,就是将摘要、导言里对方法的介绍和结论用同样的话进行表述,甚至互相拷贝。文章的摘要、介绍、结论,要在不同的细节层次上介绍你的方法、强调你的贡献。

[1]给出写好论文的经验如下图所示:

[2]给出的写好论文的经验如下:

我自己的经验是要写好引言,这次ACL2021的审稿人意见主要就是论文的引言部分没有满足审稿人预期。以后论文要重点加强引言和相关工作。

[1] 想法好、表达好、语言好才是好论文,

[2] 好论文要迎合读者预期,

[3] 如何写好introduction,

论文题目:Lexicon Enhanced Chinese Sequence Labeling Using BERT Adapter 论文地址: 这是一篇自表于2021 ACL(NLP顶会)的论文。论文提出将字典融入BERT网络层记作字典加强BERT(Lexicon Enhanced BERT,LEBERT) ,用于提升中文标注效果。新模型在命名实体识别、分词、成份标注实验中均达到了目前最佳水平。 由于存在分词(CWS)问题,中文面临更大的挑战,对多数任务,以字为单位比以词为单位效果更好。 目前大多优化方法都是修改上层(网络末端),而未修改核心网络。文中提出的方法利用字典得到更多可能的分词,动态计算最佳分词方法,并修改了网络的Transformers层,如图-1中的右图所示: 模型的核心结构如图-2所示,相对于BERT,LEBERT有两个明显差别: (1)输入变成了字符特征+字典特征 (2)字典适配层在Transformer层之间 文中方法将基础的字符序列扩展成字符+词对序列,设句S由字符c组成:Sc={c1,c2,c3,...,cn},在字典D中找到在句中包含字符c所有可能的词ws,如图-3所示: 最终生成序列: s_cw={(c1,ws1),(c2,ws2),...(cn,wsn)} 将字符和词信息融入BERT网络的字典适配层,方法如图-4所示: 字典适配层有两个输入:字符和词对,即上图中的h和x,其中h是前一个transformer层输出的字符向量,x是m个可能包含该字符的词组成的词嵌入,其中j是m中的第j个词: 其中e是预训练得到的词向量映射表。 为了对齐长短不一的序列,对词向量进行非线性变换如下: 其中W1是大小为dc-dw的矩阵,W2是大小dc-dc的矩阵,b1和b2是偏移,dw是词向量的维度,c是隐藏层的维度。 由图-3可知,一个字可能对应多个词,对于不同的任务,最匹配的词可能并不相同。 具体算法是使用vi表示第i个字符对应的所有词表,m是该字符可能对应的词个数,计算注意力attention如下: 其中W是注意力权重矩阵。 然后对每个词乘其权重加和,得到位置i对应的词表示: 最终,将词典信息与字符的向量相加,得到了该位置的新向量: 处理后的数据再送入dropout层和归一化层继续处理。 将字符输入词嵌入层,加入token, segment和position信息,然后将该层输出的词嵌入输入Transformer层:输出的 是第l个隐藏层的输出,LN是归一化层,HMAttn是多头注意力机制,FFN是两个前馈网络层,使用ReLU作为激活函数。 在k-th和(k+1)-th Transformer之间加入字典信息考虑到标签的前后关系,使用CRF层来预测最终的标签,将最后一个隐藏层h的输出作为输入,计算输出层O: 然后将输出层代入CRF模型,计算标签y的概率p。 训练时给出句子S和标签Y,计算全句的负对数似然作为误差。 解码时,使用维特比算法计算得分最高的序列。 论文针对命名实体识别NER,分词CWS、位置POS标注进行了实验,实验数据如表-1所示(中文NLP常用实验数据)。 图-5展示了相对于BERT和基于BERT的最新模型,文中模型误差的减少情况。 除了与其它模型比较之外,论文还比较了LEBERT方法与在组装模型的Bert+Word方法的差异。

2021年论文发表时间

你好,根据一般习惯,是以杂志实际出版的日期为准,因为自它印刷并公开发行的时候就已经达到了出版的事实标准。杂志上标注的刊期只是杂志社为了杂志的时效性所以都会把时间往后写,这样当你8月收到9月杂志的时候不会觉得晚。特别是对一些在市场上公开销售的刊物来说,这样能避免读者买杂志总觉得像是买到过期的一样,保持读者的新鲜感。一般杂志从收稿到编辑、校对、印刷、发行都会有不同的时长,刊期越长(月刊、双月刊、季刊)出版周期就越长,特别好的学术期刊,长的甚至半年一年,所以你发表时一定要注意问清杂志的出版时间能不能赶上你的时间需要,以免做了无用功。要发表可以再问我,我就是杂志编辑

11月发表。学术论文的科学性,要求作者在立论上不得带有个人好恶的偏见,不得主观臆造,必须切实地从客观实际出发,从中引出符合实际的结论。在论据上,应尽可能多地占有资料,以最充分的、确凿有力的论据作为立论的依据。在论证时,必须经过周密的思考,进行严谨的论证。

第28届中国过程控制会议将于2021年4月17日至2021年4月20日在上海召开,论文集发表日期为2021年4月20日。

一般是在学生毕业之后上传知网的。2021年的硕士论文一般是在学生毕业之后由学校图书馆上传到知网的,而且知网收录的会有时间限制需要等一段时间才能在知网上搜索到自己的论文,但并不是所有的论文都会上传到知网,知网一般只会收录优秀的毕业论文。

ei论文发表时间显示2021

1、国外ISTP/EI/SCI论文投稿过程相对比较漫长,审稿相对极其认真;2、国外ISTP/EI/SCI论文审稿拒稿率比较高,经本中心统计,一般一审拒稿率在50%-80%左右,进入二审、三审、四审的稿件,被拒的可能性虽有减少,但被拒也是司空见惯。3、国外ISTP/EI/SCI论文的投稿系统相对复杂,一般在所有文章准备充分的情况下,建议花7-10天时间投稿为宜;4、国外ISTP/EI/SCI论文审稿时间一般在2-4个月,对于欧洲杂志,审稿时间超过5个月也是时有发生;5、每次审稿完毕后,如果不拒/同意根据修稿情况可能接受,编辑部会要求作者4-8周时间修稿。文章修回时间,建议不要急于修回,但也不要在要求的最后一天修回。一般以提前3-5天为宜,以防投稿系统出现问题,或是自己准备有误,可以重新再来。6、多数文章修回一次是不会直接接受的,一般修稿2-4次才接受,是很正常的事,这是因为国外人办事认真,不是我们办不好,是因为科学本身也是哲学,哲学需要辩证。7、修稿过程中,对于审稿人的答复,要认真答复,一般而言,一篇5000左右的manuscripts,审稿意见可能只有200-2000字左右,但我们的reply可能长达3-4篇文章manuscripts,也即,许多情况下,作者的reply可能长达1-2万字,才能把问题回答清楚。8、ISTP/EI/SCI论文发表的整修过程,最精彩的过程,也就是reply过程。9、任何客户,请不要与本中心谈及“保证成功发表”ISTP/EI/SCI论文相关内容。

不是的,首先可以肯定的是:论文出版论文日期肯定是在开会日期之后,一般会议是开会后2个月内出版论文,少部分会议会拖到开会后4个月甚至更长时间。总之整个流程是这样的:论文写作——投稿——录用——注册会议——开会——论文出版——EI检索。如果还是搞不清楚,建议你百度搜:EI学术会议中心,全是关于EI会议的信息和学习指导资料。

不一定,有的会前发,有的会后发,以前的会议有的会前都是ei检索了的呵呵最近都是会后发,参会的人太少了,或者会务组都不组织参会了如果有问题可以联系我

acl发论文

2017年 10 月 11 日,阿里巴巴达摩院正式成立,马云的一句 “ 活得要比阿里巴巴长”,让外界对它的未来发展,有了更 “意味深长” 的期待。

在近三年多的时间里,达摩院在人工智能学术科研与应用上齐头并进,无论在国际学术顶会以及各类竞赛上,还是在推动学术成果的商业化落地上,都交出了亮眼的成绩单,这也反过来吸引着人工智能领域的顶尖研究者们都汇聚于此。

对于这些顶尖研究者们目前正在开展的研究工作,想必大家都充满了探知欲!

7月9日(晚)19:30-21:00 ,AI科技评论就将联合阿里达摩院,外加阿里集团在学术科研上同样“坚挺”的存在——阿里安全,给大家呈上一场 “ACL 2020 系列论文解读·阿里巴巴专场” 直播!

届时,来自阿里达摩院机器智能技术团队和阿里安全安全智能团队的 6 位高级算法专家、算法工程师以及研究型实习生们,将分别聚焦于多任务学习、少样本文本分类、 任务型对话、神经机器翻译、知识蒸馏、跨域分词标注等NLP 细分领域,为大家带来一场论文解读盛宴!

本次分享的嘉宾具体都有谁呢?下面一一揭晓:****分享主题: SpanMlt:一种基于跨度的用于属性词和观点词配对抽取的多任务学习框架 ****分享嘉宾:黄龙涛

分享内容:

属性词和观点词抽取,是细粒度的基于属性的情感分析(ABSA)的两个关键问题。属性-观点词对( aspect-opinion pairs)可以为消费者和观点挖掘系统提供相关产品或服务的全局配置文件。但是,传统方法无法在没有给定属性词和观点词的情况下,直接输出属性-观点词对。尽管研究者最近提出了一些共提取方法来联合提取属性词和观点词,但是并不能配对抽取两者。为此,本文提出了一种端到端方法来解决属性词和观点词的配对抽取(PAOTE)任务。此外,本文从联合词和关系抽取的角度而非此前大多数工作中执行的序列标注方法的角度,来处理该问题。我们提出了一个基于共享跨度的多任务学习框架,其中在跨度边界的监督下提取词。同时,使用跨度表示法来联合识别配对关系。大量实验表明,我们的模型始终优于 SOTA 方法。

分享内容:

现有的工作往往使用元学习(meta learning)的方法,通过在一系列meta-task中切换来获得少样本学习的能力,但是在task间的切换会带来遗忘的问题,因此考虑使用记忆机制来辅助meta learning的训练。在本工作中,我们将监督学习得到的分类参数作为meta learning的全局记忆,并提出了动态记忆路由算法,基于dynamic routing的方式将全局记忆信息融入到meta task的训练和预测阶段。此外,动态记忆路由算法还可以使用query信息来增强归纳类别表示的能力,对口语场景下的语言多样性表达有更好的泛化性能。在中英文场景少样本分类任务数据集上,均取得了STOA的结果。

分享主题:多领域对话动作和回复联合生成****分享嘉宾:田俊峰

分享内容: 在任务型对话中,产生流畅且信息丰富的回复至关重要。现有pipeline方法通常先预测多个对话动作,然后使用它们的全局表示来辅助回复生成。这种方法有两个缺陷:第一,在预测对话动作时,多领域的固有结构被忽略了;其次,在生成回复时没有考虑到对话动作和回复之间的语义联系。为了解决这些问题,我们提出了一种同时生成对话动作和回复的神经联合生成模型。与以往的方法不同,我们的对话动作生成模块可以保留多领域对话动作的层次结构,同时我们的回复生成模块可以动态地关注到相关的对话动作。在训练时,我们采用不确定性损失函数来自适应地调整两个任务的权重。在大规模MultiWOZ数据集上进行了评估,实验结果表明,我们的模型在自动评估和人工评估上都比SOTA模型有很好的提升。****分享主题:神经机器翻译的多尺度协同深度模型******分享嘉宾:魏相鹏**

近年来,神经机器翻译(NMT)方法凭借其出色的翻译性能在大量应用场景中取代了基于统计的机器翻译方法。目前,制约NMT模型性能的因素主要包括模型的特征表达能力和数据规模。因此,我们提出一种基于多尺度协作(MSC)机制的深度神经机器翻译模型,以提高模型对底层(具象化)和高层(抽象化)特征的建模能力。

实验证明,(1) 多尺度协作机制有助于构建极深的NMT模型的同时带来性能上的提升,(2) 基于MSC机制的深度NMT模型能够更好地翻译语义结构复杂的自然语言句子。

****分享主题:多语种序列标注的结构级知识蒸馏******分享嘉宾:王新宇**

多语言序列标注是一项使用单一统一模型预测多语言标签序列的任务。与依赖于多个单语模型相比,使用多语言模型具有模型规模小、在线服务容易和对低资源语言通用的优点。然而,由于模型容量的限制,目前的多语种模型仍然远远低于单独的单语模型。本文提出将多个单语言模型(teachers)的结构知识提取到统一的多语言模型(student)中,以缩小单语言模型与统一的多语言模型之间的差距。我们提出了两种基于结构层次信息的知识挖掘方法:

****分享主题:跨域中文分词的远程标注与对抗耦合训练******分享嘉宾:丁宁**

完全监督神经方法在中文分词(CWS)的任务上取得了重大进展。但是,如果由于域间的分布差异和集外词(OOV)问题导致域迁移,则监督模型的性能始终一直大幅下降。为了实时缓解此问题,本文将跨域中文分词的远程标注和对抗性训练直观地结合在一起。

7月9日,6位来自阿里的分享嘉宾,与大家不见不散!

ACL 2020原定于2020年7月5日至10日在美国华盛顿西雅图举行,因新冠肺炎疫情改为线上会议。为促进学术交流,方便国内师生提早了解自然语言处理(NLP)前沿研究,AI 科技评论将推出「ACL 实验室系列论文解读」内容,同时欢迎更多实验室参与分享,敬请期待!

目录

如何写出好论文:投递ACL2021总结... 1

简介... 1

1.“为什么要写论文?”. 2

2.“什么样的论文才是好论文?”. 2

2.1读者(审稿人)要什么?. 2

2.2怎样满足审稿人?... 3

2.3审稿人的期望分析... 3

2.3.1读者对文章结构的期望... 3

2.3.2读者对句子的期望... 3

2.3.3读者对段落的期望... 4

2.3.4读者对方法/实验步骤的期望... 4

3.“好论文是如何写出来的”. 4

3.1如何写摘要... 5

3.2如何写引言... 6

3.3如何写相关工作... 7

3.4如何写正文... 7

3.5如何写结果... 7

3.6如何写讨论... 8

3.7如何写结论... 8

4.总结... 8

References 9

2021年4月1日ACL2021的论文rebuttal阶段结束,经过一个多月的写论文,做实验和反复修改到最后回复评审意见的痛苦过程,感慨和收获都很多。在此期间对如何写好论文的思考和了解更深入了。因此特别总结了一下。中间我也查阅了写论文的相关资料,其中[1,2]让我感触最深。[1]从哲学角度提出了针对写论文的灵魂三问,[2]提出要迎合读者预期的方法论。这次将[1,2]的论点进行整理后,针对本次没有写好introduction的问题,加入了[3]中如何写introduction的方法论,最终成文。

本文主要针对写论文的三个哲学问题整合文献[1,2]的资料进行回答,因为本人才疏学浅,有不到之处还请海涵。在写论文之前,我们都会问三个关键问题:

下面会分三个章节来分别回答上述问题。

除了评职称,完成KPI等世俗的原因背后,其实还有一些论文备受推崇的底层原因:

写文章的时候应该力求简单到可以被新手理解,同时深刻到可以引起专家的兴趣。一篇文章只有在不需太多努力就可以理解的情况下才会被广泛地引用。文章清晰的关键就是使读者能在他们想找的地方找到他们需要的东西。简而言之为以下两点:

文章在发表前必须经过审稿人的评审。他们一般是相关领域的专家甚至是你的竞争者。他们会尽力寻找你文章 中的毛病。有时,由于不同的观点和竞争的需要,审稿人或许会试图阻止你的文章发表。因此,文章必须写得理由充足。在被别人挑剔之前 ,自己必须首先鸡蛋里挑骨头,预先回答审稿人的可能质疑 。

1). 只提出“一”个中心命题。论文里的观点太多,不但不好写,问题也容易多,读者也不易记住你要说什么。

2). 在这个中心命题的基础上,用一个迷人(但绝不夸张)的标题来吸引审稿人的兴趣。无偿审稿使审稿人只审批感兴趣的论文。如果你不能引起审稿人的兴趣,那最好不要发表那篇文章。编辑们有时候会很郁闷,因为找不到有兴趣的审稿人。

3). 合理解释每一个参数,合理说明每一个步骤。审稿人没时间考虑细节。程序和参数的合理化显示出你知道你在做什么,而不是凑数据。 没理由要找理由,有理由要强调。

4). 问问你自己是否提供了足够重复你工作的所有细节。审稿人(或读者)越容易再现你的工作,他就越可能接受你的文章。当然,审稿人并不会真正去重做你的工作,但你必须通过你的描述使他相信可以重做。

5). 必须有说服力!尽量做彻底而不是半成品的工作!用多方面测试来证明你的中心命题。要使文章像律师证明无罪官司,预先回答一切可能提出的疑问。

6). 引用所有重要的研究工作,特别是经典力作。写作的时候要再做全面文献检索。为了达到这些目标,写科学论文的时候必须遵照一定的框架结构。

典型的科学论文包括标题、摘要、引言、方法/实验步骤、结果、讨论、致谢,和参考文献。这样的结构是用来帮助读者快速找到他们感兴趣的信息。把信息放错地方会使读者糊涂。

好文章的所有 句子都应该这样从旧到新地平滑过渡 。写好一句开头的金科玉律是问问你自己:“我以前有没有提过 这个概念?”大多数文章很难读是因为很多新概念在没有被介绍之前就使用了。

读者想在 主语之后立刻看到行为动词 。对一个说明谁在做什么的句子,读者需要找到动词才能理解。如果动 词和主语之间相隔太远,阅读就会被寻找动词打断。而打断阅读就会使句子难以理解。尽量避免过长的主语和过短的宾语。这就像头重脚轻的人很难站稳。短的主语紧跟着 动词加上长的宾语效果会更好。

读者期望每句只有一个重点,这个 重点通常在句尾 。比较下面两个句子,我们可以感觉到他们着重强调不同的东西。把最好的,最重要的,和想要读者记住的东西放在句尾。

每一个段落都应该只讲一个故事 。在一段里表述多个观点会使读者很难知道该记住什么、这段想表达什么。一段的第一句要告诉读者这一段是讲什么的。这样读者想跳过这段就可以跳过。一段的最后一句应该是这段的结论或 者告诉读者下一段是什么。段落中的句子应该由始到终通过逻辑关系连接,实现由旧信息到新信息的流动

首句描述了整段的主题。最后一句时总结整段。 很明显,新旧信息的连接是理解这段的关键。从旧信息到新信息的流动是使读者轻松阅读的最佳方式。写文章的目的不是去测试读者的阅读能力,而是考验作者的表达能力。不能怪人没看懂,只能怪自己没写清楚

如果文章是关于新的方法、技术或算法,要非常详细地写它的新颖之处。要用有逻辑的、合理的方式来描述它。 这会帮助读者抓住新方法的要领。如果这个方法使用参数,则要把每一个参数(或参数的取值)合理化,或者是以前 用过的,或者可以从物理或数学推导出来,或者通过了广泛的测试及优化。如果无法保证它的合理性,那就必须描 述改变它会造成的影响(实际的结果应该在结果部分或讨论部分,方法部分仅包含影响的描述)。如果没有测试它们 的合理性,你应该解释为什么(做的代价太贵了?太费时间了?或者需要延期到将来做)。

针对审稿人对一篇好文章的期望,我们可以有针对性的进行写作。

[1]提出如上图的写作经验,具体如下:

如果总是先写中文再译成英文,英语很难提高。直接用英语写作,刚开始可能很困难,可能写完5行字,就已经花了一小时,但是万事开头难,迈出第一步,路会越走越顺。对于我的学生,我一般会认真指导他们完成第一篇,从第二篇开始,就基本上不用太费心。其次,要用自己最熟悉的、确定不会产生歧义的单词。不要用金山词霸等软件直接查词,选择自己没有使用过的词,这样很容易产生歧义。第三,每段只讲一个要点,并且要明确。第四,毕竟是在进行科技文献写作,注意语言要正式,要进行提炼,用语不要过于琐碎家常。第五,要避免“毫无疑问”(no doubt)、“绝对”(absolutely)、“显然”(obviously)这类绝对化的用词。第六,不要使用复杂的语句,要尽量简单明晰,便于读者理解。另外,要注意衔接过过渡,选择正确的过渡词与联接词,还要注意转折,注意连贯性,避免行文跳跃。最后,现在很多字处理软件都提供拼写检查功能,对于软件提示可能出错的字,一定要仔细再检查。

下面按照论文通常的结构逻辑来给出如何写好论文的建议。

摘要就是给出论文的概况,吸引读者。在这里要给一些适当的细节,简略描述你的方法是如何实现的、有哪些组成组成部分(components)、实验结果如何、比现有的技术提高了多少。

引言部分很重要,首先要讲明做本研究动机,讲明为什么本文所述的研究很重要?为什么该研究是值得做的?如果不能很好地论证,后面写得再好也没有用,因为大家不会浪费时间在“没有用”的东西上。其次,本文的贡献、创新性要明确突出,不要让人误认为你的研究与别人相似。第三,介绍你的方法时要比摘要详细些,但是不要给太多的细节。

每一个引言应该包括研究领域的介绍和意义,做这工作的具体原因,结果和隐含的意义。一般而言,读者读完引言,对论文的来龙去脉就应该清清楚楚了

第一件该做的事就是围绕中心命题来收集所有相关文献。搜索并研究所有最近和相关的文章(通过对中心命题关键字的搜索或用引用索引)。确认你有所有最新的论文。引用所有 重要的文章。如果你不引用别人的文献,别人也不会引用你的!如果你想谁引用你的工作,你要先引用他的。你引用的文章越多,他们越可能阅读并引用你的文章。因为人们更加关注引用他们的论文。仔细读你所引用的文章,避免引用错误。在引用上,不要偷懒。

Introduction(引言)的主要任务是向读者勾勒出全文的基本内容和轮廓。它可以包括以下五项内容中的全部或其中几项(具体要根据你论文的长短等实际情况来决定) [3]:

如何合理安排以上这些内容,将它们有条有理地给读者描绘清楚,并非容易之事。经验告诉我们,引言其实是全文最难写的—部分。这是因为作者对有关学科领域的熟悉程度,作者的知识是渊博、还是贫乏,研究的意义何在、价值如何等问题,都在引言的字里行间得以充分体现。 我们可以将引言的内容分为三到四个层次来安排。第一层由研究背景、意义、发展状况等内容组成,其中还包括某一研究领域的文献综述;第二层提出目前尚未解决的问题或急需解决的问题,从而引出自己的研究动机与意义;第三层说明自己研究的具体目的与内容;最后是引言的结尾,可以介绍一下论文的组成部分。

2) 引言第二层主要的目的是表明目前研究尚未解决的问题(Indicating the problem that has not been solved by previous research, raising a relevant question)

阐述自己研究领域的基本内容。要尽量简洁明了,不罗嗦;须知看文章者都是该领域的专家,所以一些显而易见的知识要用概括性的而不是叙述性的语言来描述。

相关工作是为了证明你的工作的新颖性的。因此对前人的研究的引用要完整,并且一定要尊重相关文献的作者,可以指出其缺点,但一定要礼貌,要以建设性的方式提出。

正文用来介绍技术上的细节,终极目的是要让人理解你的方法并能重现实验结果。首先,逻辑要清晰,其次,技术上的细节不能缺失。但是,如果细节可能喧宾夺主,则要适当删减或挪到附录甚至补充材料里,以免干扰正常的阅读节奏。如果文章比较复杂,可以叙述一下方法的组成部分,画出框图,展示方法、内容及其关系。文章的实验结果要证明“我的方法的确比现有最好的方法还要好”。有一个细节需要注意:有些同学在文中用红、绿、蓝色来指示对象,但经常图片打印出来都是灰色的,对象难以区分,所以最好不要用颜色来指示图片里的对象,而要尽量用不同样式的线型、填充模式等,再打印出来确认不同对象的确是可以区分的。另外,对于所有的图、表,要在正文里加以说明,对于反常规的结果尤其要突出地论述其原因。

当你开始写结果部分时,先考虑一下结果的意义。也就是说,你理解你的结果吗?这些结果是不是告诉了你更 深刻的东西?你能从很多不同角度来理解结果吗?你能设计证明或者反驳你的一些解释的新测试吗? 如果你发现了新现象,你必须证明你的结果不是你方法制造出来的(讨论部分的一个好内容)。它可以在不同的 条件下重复吗?如果你发展了一个新方法,你必须证明这个方法的重要性。它是否改进了现有的方法?你的结果部 分必须用不同的角度或多重测试来支持新发现或验证新方法的重要性。

一旦你对结果有更好的理解,你需要决定卖点,也就是说这篇文章最有意义的一个观点是什么?确定这篇文章 的中心命题之后要组织所有的段落来证明、支持它,用数据(有必要的话再加数据)来证明它。同时也要排除其它可 能性。放弃与中心命题无关的数据,即使这些数据是很辛苦得来的。

现在到了你写论文的最后一部分。很多人认为讨论部分最难写。他们常常不知道该写什么。学生常常不能把结 果从他们的解释、含意和结论中分离出来。此外,他们不善于思考可能存在的其他解释。好的讨论通常以得到的结 果和解释的评论开始。其它可用于讨论的内容有:参数改变对结果的影响,与其他研究相比还有待解决的问题,将 来或正在进行的工作(防止别人从事你显而易见的,立刻就能实现的后续工作)。这里有一段文章中的讨论部分

结论部分是给读者留下印象的最后机会,要进一步突出自己的贡献。

你还可以开诚布公地承认自己的 缺点 ,其实这会让审稿人留下好印象,并且给其它读者以提升空间,让他们沿着你的方向继续前行。

有一个很不好的做法,就是将摘要、导言里对方法的介绍和结论用同样的话进行表述,甚至互相拷贝。文章的摘要、介绍、结论,要在不同的细节层次上介绍你的方法、强调你的贡献。

[1]给出写好论文的经验如下图所示:

[2]给出的写好论文的经验如下:

我自己的经验是要写好引言,这次ACL2021的审稿人意见主要就是论文的引言部分没有满足审稿人预期。以后论文要重点加强引言和相关工作。

[1] 想法好、表达好、语言好才是好论文,

[2] 好论文要迎合读者预期,

[3] 如何写好introduction,

ACL发表论文

ACL大会由国际计算语言学协会主办,是自然语言处理与计算语言学领域最高级别的学术会议。

论文题目:Lexicon Enhanced Chinese Sequence Labeling Using BERT Adapter 论文地址: 这是一篇自表于2021 ACL(NLP顶会)的论文。论文提出将字典融入BERT网络层记作字典加强BERT(Lexicon Enhanced BERT,LEBERT) ,用于提升中文标注效果。新模型在命名实体识别、分词、成份标注实验中均达到了目前最佳水平。 由于存在分词(CWS)问题,中文面临更大的挑战,对多数任务,以字为单位比以词为单位效果更好。 目前大多优化方法都是修改上层(网络末端),而未修改核心网络。文中提出的方法利用字典得到更多可能的分词,动态计算最佳分词方法,并修改了网络的Transformers层,如图-1中的右图所示: 模型的核心结构如图-2所示,相对于BERT,LEBERT有两个明显差别: (1)输入变成了字符特征+字典特征 (2)字典适配层在Transformer层之间 文中方法将基础的字符序列扩展成字符+词对序列,设句S由字符c组成:Sc={c1,c2,c3,...,cn},在字典D中找到在句中包含字符c所有可能的词ws,如图-3所示: 最终生成序列: s_cw={(c1,ws1),(c2,ws2),...(cn,wsn)} 将字符和词信息融入BERT网络的字典适配层,方法如图-4所示: 字典适配层有两个输入:字符和词对,即上图中的h和x,其中h是前一个transformer层输出的字符向量,x是m个可能包含该字符的词组成的词嵌入,其中j是m中的第j个词: 其中e是预训练得到的词向量映射表。 为了对齐长短不一的序列,对词向量进行非线性变换如下: 其中W1是大小为dc-dw的矩阵,W2是大小dc-dc的矩阵,b1和b2是偏移,dw是词向量的维度,c是隐藏层的维度。 由图-3可知,一个字可能对应多个词,对于不同的任务,最匹配的词可能并不相同。 具体算法是使用vi表示第i个字符对应的所有词表,m是该字符可能对应的词个数,计算注意力attention如下: 其中W是注意力权重矩阵。 然后对每个词乘其权重加和,得到位置i对应的词表示: 最终,将词典信息与字符的向量相加,得到了该位置的新向量: 处理后的数据再送入dropout层和归一化层继续处理。 将字符输入词嵌入层,加入token, segment和position信息,然后将该层输出的词嵌入输入Transformer层:输出的 是第l个隐藏层的输出,LN是归一化层,HMAttn是多头注意力机制,FFN是两个前馈网络层,使用ReLU作为激活函数。 在k-th和(k+1)-th Transformer之间加入字典信息考虑到标签的前后关系,使用CRF层来预测最终的标签,将最后一个隐藏层h的输出作为输入,计算输出层O: 然后将输出层代入CRF模型,计算标签y的概率p。 训练时给出句子S和标签Y,计算全句的负对数似然作为误差。 解码时,使用维特比算法计算得分最高的序列。 论文针对命名实体识别NER,分词CWS、位置POS标注进行了实验,实验数据如表-1所示(中文NLP常用实验数据)。 图-5展示了相对于BERT和基于BERT的最新模型,文中模型误差的减少情况。 除了与其它模型比较之外,论文还比较了LEBERT方法与在组装模型的Bert+Word方法的差异。

相关百科
热门百科
首页
发表服务