论文发表百科

自然语言分析毕业论文

发布时间:2024-07-04 22:42:59

自然语言分析毕业论文

毕业论问包括多方面,是对自己学习的检查大标题方向 题目摘要介绍 中英文 关键字按模块系统划分去构建自己的论文,每个学校的要求不一样

论文主要内容:

一、论文的标题部分

标题就是题目或题名,标题需要以最恰当、最简明的词语反映论文中重要的特定内容逻辑组合,论文题目非常重要,必须用心斟酌选定。

二、论文的摘要

论文一般应有摘要,它是论文内容不加注释和评论的简短陈述。摘要应该包含以下内容:

1、从事这一研究的目的和重要性

2、研究的主要内容

3、完成了哪些工作

4、获得的基本结论和研究成果,突出论文的新见解

5、结构或结果的意义

三、论文关键词

关键词属于主题词中的一类,主题词除关键词外,还包含有单元词、标题词和叙词。关键词是标识文献的主题内容,单未经规范处理的主题词。

四、引言

又称为前言,属于正片论文的引论部分。写作内容包括:

1、研究的理由

2、研究目的

3、背景

4、前人的工作和知识空白

5、作用和意义

五、正文部分

论文的主题,占据论文大部分篇幅。论文所体现的创造性成果或新的研究结果,都将在这一部分得到充分的反映,要求这部分内容一定要充实,论据充分可靠,论证有利,主题明确。

六、参考文献

参考文献是文章在研究过程和论文撰写是所参考过的有关文献的目录,参考文献的完整标注是对原作者的尊重。不只在格式上有具体要求,在数量、种类、年份等方面又有相关要求。

[转]毕业论文无论在内容或形式上都有一定的要求,这也是考核论文成绩的基本依据之一。关于毕业论文写作的具体要求,在以后的有关章节中将作详细论述,这里先说说毕业论文写作的一些原则要求。一、坚持理论联系实际的原则撰写毕业论文必须坚持理论联系实际的原则。理论研究,特别是社会科学的研究必须为现实服务,为社会主义现代化建设服务,为两个文明建设服务。理论来源于实践,又反作用于实践。科学的理论对实践有指导作用,能通过人们的实践活动转化为巨大的物质力量。科学研究的任务就在于揭示事物运动的规律性,并用这种规律性的认识指导人们的实践,推动社会的进步和发展。因此,毕业论文在选题和观点上都必须注重联系社会主义现代化建设的实际,密切注视社会生活中出现的新情况、新问题。坚持理论研究的现实性,做到理论联系实际,就必须迈开双脚,深入实际,进行社会调查研究。这也是我们正确认识社会的基本途径。人们只有深入到实际中去,同客观事物广泛接触,获得大量的感性材料,然后运用科学的逻辑思维方法,对这些材料进行去粗取精,去伪存真,由此及彼,由表及里的加工制作,才能从中发现有现实意义而又适合自己研究的新课题。在我国改革开放的实践中,新情况、新问题、新经验层出不穷,需要研究的问题遍布社会的方方面面,只要我们对现实问题有浓厚的兴趣和高度的敏感性,善于捕捉那些生动而具有典型性的现实材料,通过深入的思考和研究,就能从中引出有利于社会主义现代化建设的规律性认识,提高毕业论文的价值。当然撰写毕业论文可选择的课题十分广泛,并不只限于现实生活中的问题,也可以研究专业基本理论,中西方比较研究等。但无论选择什么研究课题,都必须贯彻理论联系实际的原则,做到古为今用,洋为中用,从历史的研究中吸取有益于现实社会发展的经验教训,从对外国的研究中,借鉴其成功经验和失败的教训,或为我国的对外政策提供某些依据。贯彻理论联系实际的原则和方法,必须认真读书,掌握理论武器。李瑞环同志指出:“强调联系实际,绝不意味着否定读书的重要,恰恰相反,更要认真地读,反复地读,深钻苦研,做到真正读懂弄通。否则,没有掌握理论,怎么谈得上理论联系实际?”(《求是》杂志1989年第24期)认真读书包括两个方面的内容,一是学好专业课,具备专业基础知识。这是写好毕业论文的前提和必要条件。经验告诉我们,只有具备了相应水平的知识积累,才能理解一定深度的学术问题;同时,也只有具备了某一特定的知识结构,才能对某学科中的问题进行研究。正如黑格尔所说,在讨论学术问题之前,必须“先有具备某种程度的知识”,否则,“没有凭借作为讨论出发的根据,于是他们只能徘徊于模糊空疏以及毫无意义的情况中”。(小逻辑》第三版序言)二是要认真学习马克思主义的基本原理,学会运用马克思主义的立场、观点和方法分析问题、解决问题。马克思主义正确地揭示了自然界、人类社会和思维发展的最一般规律,成为无产阶级和革命人民认识世界和改造世界的强大思想武器。马克思主义作为伟大的认识工具,虽然并不直接提供解决各种具体问题的答案,但它对我们如何正确地发现问题,分析和解决问题提供了正确的立场、观点和方法,因此,大学毕业生在撰写毕业论文时,应当努力学习和掌握马克思主义基本理论,自觉地用马克思主义的立场、观点和方法来指导毕业论文的写作。二、立论要科学,观点要创新(一)立论要科学毕业论文的科学性是指文章的基本观点和内容能够反映事物发展的客观规律。文章的基本观点必须是从对具体材料的分析研究中产生出来,而不是主观臆想出来的。科学研究作用就在于揭示规律,探索真理,为人们认识世界和改造世界开拓前进的道路。判断一篇论文有无价值或价值之大小,首先是看文章观点和内容的科学性如何。文章的科学性首先来自对客观事物的周密而详尽的调查研究。掌握大量丰富而切合实际的材料,使之成为“谋事之基,成事之道”。其次,文章的科学性通常取决于作者在观察、分析问题时能否坚持实事求是的科学态度。在科学研究中,既不容许夹杂个人的偏见,又不能人云亦云,更不能不着边际地凭空臆想,而必须从分析出发,力争做到如实反映事物的本来面目。再次,文章是否具有科学性,还取决于作者的理论基础和专业知识。写作毕业论文是在前人成就的基础上,运用前人提出的科学理论去探索新的问题。因此,必须准确地理解和掌握前人的理论,具有广博而坚实的知识基础。如果对毕业论文所涉及领域中的科学成果一无所知,那就根本不可能写出有价值的论文。(二)观点要创新毕业论文的创新是其价值所在。文章的创新性,一般来说,就是要求不能简单地重复前人的观点,而必须有自己的独立见解。学术论文之所以要有创新性,这是由科学研究的目的决定的。从根本上说,人们进行科学研究就是为了认识那些尚未被人们认识的领域,学术论文的写作则是研究成果的文字表述。因此,研究和写作过程本身就是一种创造性活动。从这个意义上说,学术论文如果毫无创造性,就不成其为科学研究,因而也不能称之为学术论文。毕业论文虽然着眼于对学生科学研究能力的基本训练,但创造性仍是其着力强调的一项基本要求。当然,对学术论文特别是毕业论文创造性的具体要求应作正确的理解。它可以表现为在前人没有探索过的新领域,前人没有做过的新题目上做出了成果;可以表现为在前人成果的基础上作进一步的研究,有新的发现或提出了新的看法,形成一家之言3也可以表现为从一个新的角度,把已有的材料或观点重新加以概括和表述。文章能对现实生活中的新问题作出科学的说明,提出解决的方案,这自然是一种创造性;即使只是提出某种新现象、新问题,能引起人们的注意和思考,这也不失为一种创造性。国家科委成果局在1983年3月发布的《发明奖励条例》中指出:“在科学技术成就中只有改造客观世界的才是发明,……至于认识客观世界的科学成就,则是发现。”条例中对“新”作了明确规定:“新”是指前人所没有的。凡是公知和公用的,都不是“新”。这些规定,可作为我们衡量毕业论文创造性的重要依据。根据《条例》所规定的原则,结合写作实践,衡量毕业论文的创造性,可以从以下几个具体方面来考虑:(1)所提出的问题在本专业学科领域内有一定的理论意义或实际意义,并通过独立研究,提出了自己一定的认识和看法。(2)虽是别人已研究过的问题,但作者采取了新的论证角度或新的实验方法,所提出的结论在一定程度上能够给人以启发。(3)能够以自已有力而周密的分析,澄清在某一问题上的混乱看法。虽然没有更新的见解,但能够为别人再研究这一问题提供一些必要的条件和方法。(4)用较新的理论、较新的方法提出并在一定程度上解决了实际生产、生活中的问题,取得一定的效果。或为实际问题的解决提供新的思路和数据等。(5)用相关学科的理论较好地提出并在一定程度上解决本学科中的问题。(6)用新发现的材料(数据、事实、史实、观察所得等)来证明已证明过的观点。科学研究中的创造性要求对前人已有的结论不盲从,而要善于独立思考,敢于提出自己的独立见解,敢于否定那些陈旧过时的结论,这不仅要有勤奋的学习态度,还必须具有追求真理、勇于创新的精神。要正确处理继承与创新的关系,任何创新都不是凭空而来的,总是以前人的成果为基础。因此,我们要认真地学习、研究和吸收前人的成果。但是这种学习不是不加分析地生吞活剥,而是既要继承,又要批判和发展。三、论据要翔实,论证要严密(一)论据要翔实一篇优秀的毕业论文仅有一个好的主题和观点是不够的,它还必须要有充分、翔实的论据材料作为支持。旁征博引、多方佐证,是毕业论文有别于一般性议论文的明显特点。一般性议论文,作者要证明一个观点,有时只需对一两个论据进行分析就可以了,而毕业论文则必须以大量的论据材料作为自己观点形成的基础和确立的支柱。作者每确立一个观点,必须考虑:用什么材料做主证,什么材料做旁证;对自己的观点是否会有不同的意见或反面意见,对他人持有的异议应如何进行阐释或反驳。毕业论文要求作者所提出的观点、见解切切实实是属于自己的,而要使自己的观点能够得到别人的承认,就必须有大量的、充分的、有说服力的理由来证实自己观点的正确。毕业论文的论据要充分,还须运用得当。一篇论文中不可能也没有必要把全部研究工作所得,古今中外的事实事例、精辟的论述、所有的实践数据、观察结果、调查成果等全部引用进来,而是要取其必要者,舍弃可有可无者。论据为论点服务,材料的简单堆积不仅不能证明论点,强有力地阐述论点,反而给人以一种文章拖咨、杂乱无章、不得要领的感觉。因而在已收集的大量材料中如何选择必要的论据显得十分重要。一般来说,要注意论据的新颖性、典型性、代表性,更重要的是考虑其能否有力地阐述观点。毕业论文中引用的材料和数据,必须正确可靠,经得起推敲和验证,即论据的正确性。具体要求是,所引用的材料必须经过反复证实。第一手材料要公正,要反复核实,要去掉个人的好恶和想当然的推想,保留其客观的真实。第二手材料要究根问底,查明原始出处,并深领其意,而不得断章取义。引用别人的材料是为自己的论证服务,而不得作为篇章的点缀。在引用他人材料时,需要下一番筛选、鉴别的功夫,做到准确无误。写作毕业论文,应尽量多引用自己的实践数据、调查结果等作为佐证。如果文章论证的内容,是作者自己亲身实践所得出的结果,那么文章的价值就会增加许多倍。当然,对于掌握知识有限、实践机会较少的大学生来讲,在初次进行科学研究中难免重复别人的劳动,在毕业论文中较多地引用别人的实践结果、数据等,在所难免。但如果全篇文章的内容均是间接得来的东西的组合,很少有自己亲自动手得到的东西,那也就完全失去了写作毕业论文的意义。(二)论证要严密论证是用论据证明论点的方法和过程。论证要严密、富有逻辑性,这样才能使文章具有说服力。从文章全局来说,作者提出问题、分析问题和解决问题,要符合客观事物的规律,符合人们对客观事物认识的程序,使人们的逻辑程序和认识程序统一起来,全篇形成一个逻辑整体。从局部来说,对于某一问题的分析,某一现象的解释,要体现出较为完整的概念、判断、推理的过程。毕业论文是以逻辑思维为主的文章样式,它诉诸理解大量运用科学的语体,通过概念、判断、推理来反映事物的本质或规律,从已知推测未知,各种毕业论文都是采用这种思维形式。社会科学论文往往是用已知的事实,采取归纳推理的形式,求得对未知的认识。要使论证严密,富有逻辑性,必须做到:(1)概念判断准确,这是逻辑推理的前提;(2)要有层次、有条理的阐明对客观事物的认识过程;(3)要以论为纲,虚实结合,反映出从“实”到“虚”,从“事”到“理”,即由感性认识上升到理性认识的飞跃过程。此外,撰写毕业论文还应注意文体式样的明确性、规范性。学术论文、调查报告、科普读物、可行性报告、宣传提纲等都各有自己的特点,在写作方法上不能互相混同。

有通用毕业论文范文,中国知网就可以免费下载通用毕业论文范文,也可以免费下载本科毕业论文,方法为:

CNKI中国知网免费入口不限量免费下载论文的方法

自然语言处理毕业论文

title: 自然语言处理综述 date: 2021-11-18 11:03:11 自然语言是指人类日常使用的语言,比如:中文、英语、日语等。自然语言灵活多变,是人类社会的重要组成部分,但它却不能被计算机很好地理解。为了实现用自然语言在人与计算机之间进行沟通,自然语言处理诞生了。自然语言处理(Natural Language Processing, NLP)是一个融合了语言学、计算机科学、数学等学科的领域,它不仅研究语言学,更研究如何让计算机处理这些语言。它主要分为两大方向:自然语言理解(Natural language Understanding, NLU)和自然语言生成(Natural language Generation, NLG),前者是听读,后者是说写。 本文将从自然语言处理的历史与发展讲起,进而分析目前深度学习在自然语言处理领域的研究进展,最后讨论自然语言处理的未来发展方向。 1950年,计算机科学之父图灵提出了“图灵测试”,标志着人工智能领域的开端。而此时,正值苏美冷战,美国政府为了更方便地破译苏联相关文件,大力投入机器翻译的研究,自然语言处理从此兴起。从这之后的一段时期内,自然语言处理主要采用基于规则的方法,这种方法依赖于语言学,它通过分析词法、语法等信息,总结这些信息之间的规则,从而达到翻译的效果。这种类似于专家系统的方法,泛化性差、不便于优化,最终进展缓慢,未能达到预期效果。 到了20世纪80、90年代,互联网飞速发展,计算机硬件也有了显著提升。同时,自然语言处理引入了统计机器学习算法,基于规则的方法逐渐被基于统计的方法所取代。在这一阶段,自然语言处理取得了实质性突破,并走向了实际应用。 而从2008年左右开始,随着深度学习神经网络在图像处理、语音识别等领域取得了显著的成果,它也开始被应用到自然语言处理领域。从最开始的词嵌入、word2vec,到RNN、GRU、LSTM等神经网络模型,再到最近的注意力机制、预训练语言模型等等。伴随着深度学习的加持,自然语言处理也迎来了突飞猛进。 接下来,我将介绍自然语言处理与深度学习结合后的相关进展。 在自然语言中,词是最基本的单元。为了让计算机理解并处理自然语言,我们首先就要对词进行编码。由于自然语言中词的数量是有限的,那就可以对每个词指定一个唯一序号,比如:英文单词word的序号可以是1156。而为了方便计算,通常会将序号转换成统一的向量。简单做法是对单词序号进行one-hot编码,每个单词都对应一个长度为N(单词总数)的向量(一维数组),向量中只有该单词序号对应位置的元素值为1,其它都为0。 虽然使用one-hot编码构造词向量十分容易,但并不是一个较好的方法。主要原因是无法很好地表示词的语义,比如苹果和橘子是相似单词(都是水果),但one-hot向量就无法体现这种相似关系。 为了解决上述问题,Google的Mikolov等人于2013年发表了两篇与word2vec相关的原始论文[1][2]。word2vec将词表示成一个定长的向量,并通过上下文学习词的语义信息,使得这些向量能表达词特征、词之间关系等语义信息。word2vec包含两个模型:跳字模型(Skip-gram)[1] 和连续词袋模型(continuous bag of words,CBOW)[2],它们的作用分别是:通过某个中心词预测上下文、通过上下文预测某个中心词。比如,有一句话"I drink apple juice",Skip-gram模型是用apple预测其它词,CBOW模型则是用其它词预测出apple。 首先介绍CBOW模型,它是一个三层神经网络,通过上下文预测中心词。以某个训练数据"I drink apple juice"为例,可以把apple作为标签值先剔除,将"I drink juice"作为输入,apple作为待预测的中心词。 Skip-gram模型与CBOW类似,也是一个三层神经网络模型。不同在于,它是通过中心词预测上下文,即通过"apple"预测出"I drink juice"。接下来简单介绍Skip-gram模型中各层: 两种模型训练结束后,会取 作为词向量矩阵,第i行就代表词库中第i个词的词向量。词向量可用来计算词之间的相似度(词向量点乘)。比如,输入 I drink _ juice 上下文,预测出中心词为apple、orange的概率可能都很高,原因就是在 中apple和orange对应的词向量十分相似,即相似度高。词向量还可以用于机器翻译、命名实体识别、关系抽取等等。 其实这两种模型的原型在2003年就已出现[3],而Mikolov在13年的论文中主要是简化了模型,且提出了负采样与层序softmax方法,使得训练更加高效。 词向量提出的同时,深度学习RNN框架也被应用到NLP中,并结合词向量取得了巨大成效。但是,RNN网络也存在一些问题,比如:难以并行化、难以建立长距离和层级化的依赖关系。而这些问题都在2017年发表的论文《Attention Is All You Need》[4]中得到有效解决。正是在这篇论文中,提出了Transformer模型。Transformer中抛弃了传统的复杂的CNN和RNN,整个网络结构完全由注意力机制组成。 Transformer最核心的内容是自注意力机制(Self-Attention),它是注意力机制(Attention)的变体。注意力的作用是从大量信息中筛选出少量重要信息,并聚焦在这些信息上,比如:人在看一幅图像时,会重点关注较为吸引的部分,而忽略其它信息,这就是注意力的体现。但注意力机制会关注全局信息,即关注输入数据与输出数据以及中间产物的相关性。而自注意力机制则减少了对外部其它数据的关注,只关注输入数据本身,更擅长捕捉数据内部的相关性。 自注意力机制的算法过程如下: 自注意力机制不仅建立了输入数据中词与词之间的关系,还能并行地高效地计算出每个词的输出。 Transformer的总体架构如下: 它分为两部分:编码器(Encoder)和解码器(Decoder)。 编码器的输入是词向量加上位置编码(表明这个词是在哪个位置),再通过多头自注意力操作(Multi-Head Attention)、全连接网络(Feed Forward)两部分得到输出。其中,多头自注意力就是输入的每个词对应多组q、k、v,每组之间互不影响,最终每个词产生多个输出b值,组成一个向量。编码器是transformer的核心,它通常会有多层,前一层的输出会作为下一层的输入,最后一层的输出会作为解码器的一部分输入。 解码器包含两个不同的多头自注意力操作(Masked Multi-Head Attention和Multi-Head Attention)、全连接网络(Feed Forward)三部分。解码器会运行多次,每次只输出一个单词,直到输出完整的目标文本。已输出的部分会组合起来,作为下一次解码器的输入。其中,Masked Multi-Head Attention是将输入中未得到的部分遮掩起来,再进行多头自注意力操作。比如原有5个输入,但某次只有2个输入,那么q1和q2只会与k1、k2相乘,。 如果深度学习的应用,让NLP有了第一次飞跃。那预训练模型的出现,让NLP有了第二次的飞跃。预训练通过自监督学习(不需要标注)从大规模语料数据中学习出一个强大的语言模型,再通过微调迁移到具体任务,最终达成显著效果。 预训练模型的优势如下: 预训练模型的关键技术有三个: 关于预训练模型的架构,以Bert为例:输入是词的one-hot编码向量,乘上词向量矩阵后,再经过多层transformer中的Encoder模块,最终得到输出。 本文介绍了NLP领域的流行研究进展,其中transformer和预训练模型的出现,具有划时代的意义。但随着预训练模型越来越庞大,也将触及硬件瓶颈。另外,NLP在一些阅读理解、文本推理等任务上的表示,也差强人意。总而言之,NLP领域依旧存在着巨大的前景与挑战,仍然需要大家的长期努力。 [1]Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., & Dean, J. (2013). Distributed representations of words and phrases and their compositionality. In Advances in neural information processing systems (pp. 3111-3119). [2]Mikolov, T., Chen, K., Corrado, G., & Dean, J. (2013). Efficient estimation of word representations in vector space. arXiv preprint arXiv:. [3]Yoshua Bengio, R´ejean Ducharme, Pascal Vincent, and Christian Janvin. A neural probabilistic language model. The Journal of Machine Learning Research, 3:1137–1155, 2003. [4]Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Advances in neural information processing systems. 2017: 5998-6008. [5]Peters M E, Neumann M, Iyyer M, et al. Deep contextualized word representations[J]. arXiv preprint arXiv:, 2018. [6]Radford A, Narasimhan K, Salimans T, et al. Improving language understanding by generative pre-training[J]. 2018. [7]Devlin J, Chang M W, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:, 2018. [8]Houlsby N, Giurgiu A, Jastrzebski S, et al. Parameter-efficient transfer learning for NLP[C]//International Conference on Machine Learning. PMLR, 2019: 2790-2799.

你好,目前人工智能,自然语言处理是比较前沿的,很多领域都在使用这些方法,如果你想更好发表论文的话,据我了解信息提取、图像识别和知识图谱这些都比较好发文章,如果你选择的导师有和一些其他领域合作那就是最好的,因为最容易发的就是你将这种方法应用到一些其他领域,然后在其他领域的期刊发文章,就我周围的话有应用在地理学和生态学中,希望我的回答对你有所帮助。

数据科学专业的表示NLP需要的训练集太大了,也不好找。只能拿预训练模型针对特殊应用做二次开发,而且对硬件要求很高。图像/视频较NLP来说开放的训练集也好找,而且主题也很多,而且你自己编一个好实现又很实际的商用需求就比较好结题。

哎血泪教训一定要根据课题组现有基础和可以提供的平台决定,比如你师兄师姐在做什么,组里是否有GPU硬件和数据支持等。如果组里有传承是最好不过了,师兄师姐做过或在做的东西你选择的肯定不会错的,毕竟有人带头和指导~ 如果组里这两个方向都有人在做的话,建议和他们当面聊哈哈哈,利弊你自然就知道啦

语言学论文分析

国外语言学方向硕士论文引言语类分析

无论在学习或是工作中,大家都接触过论文吧,论文是探讨问题进行学术研究的一种手段。你知道论文怎样写才规范吗?以下是我整理的国外语言学方向硕士论文引言语类分析,欢迎阅读,希望大家能够喜欢。

摘要: 本文依据Swales的CARS 模式, 对50 篇国外语言学方向硕士论文引言进行了语类分析。结果表明,国外硕士论文引言的语类结构基本符合Swales 的三语步模式, 并且大部分语篇都出现语步循环现象,但是,三语步在各语篇中的分布差异很大, 并出现新的步骤。基于此,本研究概括出了外国硕士论文引言写作的基本模式, 希望能对中国英语语言学方向硕士论文的写作有所启示和帮助。

关键词: 硕士论文引言;语类分析;CARS 模式

1. 研究背景

硕士论文是评价硕士研究生学术水平的一个重要标准,而论文引言是论文中不可缺少又非常关键的一部分。通过访谈发现, 引言是论文写作中非常难写的一部分, 特别是对英语作为外语的中国学生似乎更难,这不仅表现在词汇、语法、思想表达上, 更是表现在有些同学根本就不知道引言部分应该写什么内容以及如何组织这些内容。徐有志等学者在2007 年的一项调查研究也发现,有些学生会学术论文体裁的结构、社会功能和认知模式不甚了了, 难以有效实现学术论文的交际目的。但是在英语语言学专业学术论文引言写作中,究竟什么样的模式能够有效实现学术论文的交际目的?

此问题引发了作者研究国外英语本族语者硕士论文引言的动机。

2.理论框架及文献综述

从语类角度对学术论文引言进行分析, 美国密执安大学学者Swales 可谓是先驱。继1981 年, 他提出的引言结构四语步之后,Swales 于1990 年分析了110 篇科研论文引言,对其前期成果进行了修订, 并提出了著名的建立学术研究空间 (Create A Research Space)的分析思想, 并建立了以语步(move)和步骤(step)为出发点的语类结构分析模式。CARS 模式包括三个语步:语步一:确立研究领域, 即通过对前人研究成果的回顾来阐述所研究问题的重要性及必要性, 其中包括三个步骤,建立议题中心、概括议题内容和回顾前人研究结果;语步二:确立研究地位,是通过指出前人研究空白再次强调某一研究的必要性, 包括反驳已有观点、指出研究空白、提出问题和继承前人研究成果四个步骤; 语步三: 占据研究地位, 是告诉读者如何解决论文中提出的问题, 包括概述研究目的、通报本课题当前研究情况、通报主要发现和介绍论文结构四个步骤。Swales 认为尽管引言的主要形式是三语步顺序排列, 但是也会出现非顺序组合的情况, 并且有的语步循环出现。

CARS 语篇模式已被学术界公认, 成为国内外引言研究的通用分析模式。如Ahmad(1997) 对20 篇马来西亚学术会议论文引言进行了分析Aravy 和Tank?(2004)对比研究了英语和西班牙语的理论科研论文引言;Samraj (2008) 在美国对三个学科的硕士论文引言做了分析。这些研究都是建立在Swales 的语步步骤的分析模式上, 结合各领域的学术特点对CARS 模式做出了适合各领域的修订。但是目前,还没有人对国外应用语言学领域的硕士学位论文引言进行研究。

3.语料收集及研究方法

本研究从ProQuest 数据库选取了50 篇应用语言学领域硕士论文作为语料, 为确保研究的准确性, 这些论文均由英语本族语者写于2000 年到2008 年。为保证分析的信度,本研究的语料分析由两名通晓语类理论及CARS 模式的分析者分三个阶段完成。第一阶段两人各分析五篇相同的文本,找出两人所分析的语步和步骤偏差, 进一步统一对模式和文本的理解;第二阶段,两名分析者对所有文本进行分析; 第三阶段,再次找出两人的分析偏差,共同研究后达成协议。分析发现, 这些偏差主要是由于某些步骤在文本中具有多种功能。

最后统计数据,分析结果。

4.结果与讨论

研究发现,50 篇引言中实现语篇的语步(M)共有418 个,其中语步一155, 语步二106,语步三157, 平均每个文本有 个语步。齐性方差检验表明各语步分布均匀, 出现频率之间没有显着性差异(P >)。并且我们发现,有规律的语步组合模式占58%, 其中语步按照(1-2-3)n 顺序组织的语篇占24%, 大部分语篇都以其他形式组织语篇,如(1-2)n-3 占8%,(1-3)n 占14%,(3-2-1)-X(X 是不定语步)占12%。

没有规律的语步组织模式占42%,其中不规律的含有(1-2-3)模式的占32%,如3-1-2-3-1,1 -2 -3 -2 -3,1 -2 -3 -1 -3 -1等, 另外只有第三语步的语篇占10%。

语步由一个一个步骤(S)组成。Swales 在CARS 模式中提到的11 个步骤在本研究中都有所发现。并且有些步骤出现频繁, 如92%的语篇都出现M1S1,60%的语篇都出现M1-S2,76%的语篇都出现M1S3。在实现语步二的过程中,指出研究空白和提出问题这两个步骤出现频率比较高, 分别占72%和54%, 另外两个步骤频率较低, 分别占8%和28%。语步三中,除了步骤二通报主要发现出现率比较低(14%)外,其他三个步骤出现频率也比较高, 分别占80%,70%和66%。

齐性方差检验结果P= 表明国外应用语言学硕士论文引言的写作符合Swales 的CARS语篇组织模式。

研究还发现除了CARS 模式中的11 个步骤,语篇中还存在其他新的步骤, 并且有的语步出现频率很高。在实现语步一的过程中,92%的语篇都描述研究背景、现实存在的问题或讲述个人经历,58%的语篇都对相关的术语进行了解释、分类或评价; 还有一些语篇中体现了研究动机; 一些语篇在综述完前人研究成果以后,对其做出总结或评价; 一些语篇还介绍了学者之间的分歧。语步二中只发现一个新步骤,及陈述研究的必要性与紧迫性(22%)。语步三种共发现9 个新语步,其中(58%)、陈述问题或提出假设(68%)、陈述研究意义(52%)出现频率较高。

根据Nwugo (2002) 的研究, 出现频率在50%以上的语步才是稳定语步, 基于CARS模式, 作者总结出国外应用语言学硕士论文的引言模式为:

语步一:确立研究领域步骤1: 描述研究背景、现实存在的问题或讲述个人经历步骤2:建立议题中心步骤3:解释、界定、评价相关术语步骤4:概括议题内容步骤5:回顾前人研究结果语步二:确立研究地位步骤1:指出研究空白步骤2:提出问题语步三:占据研究地位步骤1:概述研究目的步骤2:陈述问题或提出假设步骤3:概述研究方法步骤4:通报本课题当前研究情况步骤5:陈述研究意义步骤6:介绍论文结构根据此次研究统计结果,我们认为国外硕士论文的写作非常注重对研究背景或现实存在的问题或个人经历介绍,大多作者不惜用几段甚至几页的篇幅实现次步骤的交际目的。

进入建立研究议题以后,作者把所有与议题有关的定义或术语都呈现给读者, 以便读者更容易理解其研究议题。而在中国学生的论文引言写作中对此涉及偏少, 有些学生想当然觉得议题的研究背景是众所周知的, 没必要写( 徐有志,2007),而这很容易对实现交际目的产生障碍。另外,英语本族语者通常会在介绍自己的研究时,把研究方法介绍给读者,让读者更清楚地了解研究过程,这都是值得我们借鉴的。没有实践意义的.研究是空洞的,国外作者没有忽略掉这一点,他们一般会在论文开头或介绍完自己的研究以后阐述研究意义。

5.结语

综合以上分析, 国外学生的语篇在总体上遵从学术写作的规范, 但也呈现出自己鲜明的特点。这是因为语篇结构除了受到学术规范的制约外,还受到作者自身在学术领域的地位、专业领域、写作任务以及作者所处的文化和教育背景的影响。希望本研究的研究结果有利于更好的指导中国应用语言学领域硕士生的论文写作,使之更快地与国际学术论文写作接轨。

扩展:论文格式要求

论文最好能建立在平日比较注意探索的问题的基础上,写论文主要是反映学生对问题的思考, 详细内容请看下文本科司法论文格式。

毕业论文包括以下内容:

封面、内容提要与关键词、目录、正文、注释、附录、参考文献。其中附录视具体情况安排,其余为必备项目。如果需要,可以在正文前加引言,在参考文献后加后记。

各项目含义

(1)封面

封面由文头、论文标题、作者、学校名称、专业、年级、指导教师、日期等项内容组成。

(2)内容提要与关键词

内容提要是论文内容的概括性描述,应忠实于原文,字数控制在300字以内。关键词是从论文标题、内容提要或正文中提取的、能表现论文主题的、具有实质意义的词语,通常不超过7个。

(3)目录

列出论文正文的一二级标题名称及对应页码,附录、参考文献、后记等对应的页码。

(4)正文

正文是论文的主体部分,通常由绪论(引论)、本论、结论三个部分组成。这三部分在行文上可以不明确标示。

(5).注释

对所创造的名词术语的解释或对引文出处的说明,注释采用脚注形式。

(6)附录

附属于正文,对正文起补充说明作用的信息材料,可以是文字、表格、图形等形式。

(7)参考文献

作者在写作过程中使用过的文章、著作名录。

4、毕业论文格式编排

第一、纸型、页边距及装订线

毕业论文一律用国家标准A4型纸(297mmX210mm)打印。页边距为:天头(上)30mm,地脚(下)25mm,订口(左)30mm,翻口(右)25mm。装订线在左边,距页边10mm。

第二、版式与用字

文字、图形一律从左至右横写横排,倍行距。文字一律通栏编辑,使用规范的简化汉字。忌用繁体字、异体字等其他不规范字。

语言学学术论文结论部分的语篇连贯性特征分析

一、引言

语篇连贯是一个大家熟知的概念,我们写的文章必须是连贯的才能被理解,这是我们学习写作时重点训练的技能,也是评判写作质量的重要标准。语篇连贯理论的研究大致始于 20 世纪 70 年代。Hall-iday 和 Hasan(1976)的经典著作 Cohesion in English系统地讨论了英语的衔接机制。虽然这是一部关于衔接的著作,但很多研究者将其视为早期的连贯性研究之作。后来,多位学者对衔接和连贯的概念进行了更为系统的界定。例如,Van Dijk(1977,1980)研究实现连贯的条件,并提出了经典的宏观结构理论。DeBeaugrande 和 Dressle(r1981)把连贯性作为最重要的语篇特征之一,并讨论了连贯性与其他语篇特征的关系。Mann 和 Thompson(1986,1987,1988)提出了修辞结构理论,从逻辑语义关系来讨论实现语篇连贯的条件。还有其他很多研究者(如 Hobbs 1990;Eg-gins 1994;Givon 1995;Kehler 2002) 都从不同角度探讨了连贯的本质及其实现条件。

虽然当今出现了多种语篇连贯性的研究视角,但是我们认为系统功能的视角为语篇连贯性的研究提供了较具体、切实可行、可操作性强的分析程序和步骤,使得出的分析结果更可靠、全面、实用。因此,本文旨在通过系统功能视角下的连贯理论来尝试性地分析语言学学术论文结论部分的语篇连贯性特征,以增强中国学生在进行该部分写作上的语篇连贯性意识。

二、系统功能语法视角下的语篇连贯性理论

Halliday 和 Hasan(1976)在《英语的衔接》一书中指出:“语篇就是在两个方面都连贯的一段话语,即它从情景语境方面考虑是连贯的,故在语域上是一致的;同时它本身是连贯的,故它是前后衔接的。这两个条件缺一不可。”在他们看来,语篇连贯性可以通过衔接和语域一致两方面的条件来保证。同时,他们还指出了英语中五种最典型的衔接类型,即指称、替代、省略、连接和词汇衔接。虽然该理论为语篇连贯性研究的实践提供了较为具体的理论框架,但是衔接的范围和语域一致性的定义仍没有得到清楚的解释。

国内的系统功能语言学家们针对这点做了有力的论证和补充。朱永生(1997)进一步阐明了语域一致性的含义,即语域一致性具体指以下几个方面:

(1) 上下文组织符合该类语篇通常的组织方式;(2)语篇的线性联系,即句际之间的语义联系;(3)语篇的整体联系,即能把全篇的内容置于其中的认知框架。另外,张德禄和刘汝山(2003)认为,语篇连贯是一个语义概念,因此语篇衔接机制的范围应该扩大到所有语义联系机制,包括结构性衔接、话语语义结构、外指性衔接机制和隐性信息衔接等。基于 Halli-day 和 Hasan 的连贯性理论、朱永生对语域一致性的界定和张德禄对衔接机制的扩展,我们初步得出了一个系统功能视角下的语篇连贯性研究模式,并要将其应用于语言学学术论文结论部分的语篇研究。

三、研究方法

(一)语料库分析

为了保证研究的信度和效度,避免不同学科领域所造成的差异,本研究的语料取自发表于权威的国际英语语言学期刊的研究文章。从《专门用途英语》《应用语言学》《语用学》《认知语言学》和《语言学》2011~2013 年出版的期刊中每年随机抽取 5 篇,共 75 篇,截取其结论部分,建立微型语料库,总规模达到 5 万词左右。

本研究根据系统功能语法的理论框架,在语域一致性和衔接两个方面研究语料的语篇连贯性。同时,我们借助当代自然语言处理技术,利用语篇连贯性分析系统 对语料进行逐一分析,从中提取 7 个可能与语域一致性和衔接密切相关的变量(见表 1),来揭示语料的连贯性特征。

将所有语料一一读入 Coh-Metrix 之后,我们把表 1 中与这 9 个变量相关的结果统计出来,以分析语言学学术论文结论部分的语篇连贯性特征。

(二)分析结果及讨论

根据上述研究方法,本研究共获取了 75 组 9 个变量的值,取其平均数,使其研究结果体现在表 2 中。

首先,我们依次分析用于测量语域一致性的 3个变量的平均值。论元重叠是指一个句子内的名词与另一个句子内的名词重叠以及两个句子中人称代词重叠这两种情况,测量结果体现为含有论元重叠的句子占句子总数的比例。本项研究的论元重叠约为 。词干重叠指语篇中任何共享一个或多个词干的句子数占语篇总句数的比率,本项研究的结果为 ,即共享一个或多个词干的句子数占语篇总句数的 。段落间的 LSA 测量的是语篇内所有段落的 LSA 平均余弦值,计算每个段落与其他段落的语义相关度,其结果为 。

其次,在衔接方面,我们得出的结果是相邻论元重叠和相邻词干重叠的平均值分别为 和。另外,人称代词这一变量可以计算每千字人称代词出现次数,其平均值为 。但要注意如果语篇中使用过多的代词且指代关系不明确的话,反而会为语篇的连贯造成负面的影响。

最后,连接在将语篇思想和小句意义有机地衔接起来的过程中起着重要作用,也为探明语篇的组织方式提供思路。Coh-Metrix 测量连接方式出现的比率,即每千字连接形式出现的次数,其平均值为。

上述结果在一定程度上体现了语言学学术论文结论部分在语域一致性和衔接两方面上的的连贯性特征,这对于在国内的写作教学也有一定的启示意义。在后续的应用性研究中,我们也可以尝试将得到的语篇连贯性特征应用到外语教学中,为传统的阅读和写作教学提供新思路和新视角。

四、结论

语言学(linguistics)是以人类语言为研究对象的学科,探索范围包括语言的性质、功能、结构、运用和历史发展,以及其他与语言有关的问题。下文是我为大家整理的关于语言学的论文的范文,欢迎大家阅读参考!

浅析语言学的发展与趋势

论文摘要:世界的全球化趋势决定了语言交际的重要性。研究语言学对于外语教学,特别是以英语为目的语的外语教学就变得越来越重要。本文立足于语言学的基础发展,着眼探讨其发展趋势,试图从其中把握其研究热点。

1 语言学的发展

语言学的前身应该可以被既定为历史比较语言学(Historical comparative linguistics), 追溯更早则称之古代语文学阶段。现代语言学是从索绪尔开始的,索绪尔开创了结构主义新时期,这一时期索绪尔()著有《普通语言学教程》(The Course in General linguistic)。结构主义中以美国结构主义影响最大,, , 三者较为出名,他们创立了新结构主义学派——美国描述语言学,三者中以后者较为出名,所以美国语言学也叫“布龙非尔德主义”。

美国的结构主义

美国结构主义的研究方法主要分为四种:替换分析法、对比分析法、分布分析法、直接成分分析法,其主要内容如下:

(1)替换分析法(Substitutional Analysis),即用一个语言单位代换另一个语言单位是否得到新的事实。

(2)对比分析法(Contrastive Analysis)是比较两个或两个以上语言单位,找出他们相同或不同部分从而确定单位性质。

(3)分布分析法 (Distribution Analysis)为研究词位出现的位置,词类(实、虚)分布的位置。

(4)直接成分分析法(Immediate constituent analysis)一个句子首先可切分成两个部分,切到词素为止。

(5)序列分析法(String analysis)是把句子带有修饰或不带有修饰的基本单位、结构成分或基本单位、修饰成分。

(6)转换分析法(Transformational analysis) 为把任何的结构看成核心句(Kernel sentence)的转换,所谓核心句是基本句型(SVO, SV等)其他是核心的拓展或是从核心句转换而来的。

系统功能语言学

系统功能语言学的创始人 . Halliday (韩礼德) 师从伦敦学派(弗斯)。后来,我国的两名学者罗常培和王力,打破传统语言或结构主义的根本,把语法形式意义、语言用法等系统地有机地连结起来。

转换生成语法

20世纪50年代Chomsky 对美国结构语言提出挑战,创立了转换生成词法或形式语言学,提出研究重点人是如何从有限的语言单位创造出无限的语用句型。这一时期的发展共经历了五个阶段:经典理论时期、标准理论时期、扩充标准理论时期、修正式扩充标准理论时期、最简的解释理论时期。这个时期Chomsky提出了两个很重要的概念:深层和表层结构。这两个概念对“同形异义、异形同义”歧义能做出科学的解释。

2 语言学的动态研究

语用学 (Pragmatics) 即语言使用学,其主要研究问题包括:指示语 (Deixis)包含人称指示、时间指示、话语指示、承接指示;前提 (Presuposition), 语用推论, 以语言结为根据,靠逻辑推论语言的前提条件;语用含义(Implicative)话语含义, 给语法事实提供重要功能解释。

语篇学

语篇学是在句法学的基础上发展起来的,也叫篇章语法或语篇分析(Discourse analysis)。上世纪70年代开始,语言学由静态到动态的大转变,由结构研究到功能研究。篇章语法主要解决篇章结构研究;篇章语义主要解决篇章意义连贯,研究篇章的层次。篇章的语用研究,重点探讨会话结构、话轮(说话顺序)邻近配对(前者说话的反应),也解决影响会话因素(心理因素、文化),篇章理论研究,研究篇章的产生。

社会语言学

社会于语言关系的科学,它是一门交叉科学。从社会变化与发展来研究语言变化,又由语言变化来研究社会的规律。其分为微观社会语言学与宏观社会语言学。微观是研究具体的语言与社会关系,如语言与性别、语言与民族等,也研究语言的细节,如语言世界、语言等。宏观主要是研究语言与社会中的地位和社会对语言的选择,如国际文化交流中采用哪几种语言、在本国推广哪几种语言、语言的推广和文字改革等等。

3 我国语言学研究的热点

系统功能语言学的研究

单以核心刊物《外国语》上发表有关系统功能语言学就有30多篇;《外语教育研究》上发表有10多篇;出版的重要著作有胡壮麟先生的《系统功能语法概念》于1989年在湖南教育出版社出版;上海外语教育出版社的《语篇的衔接语连贯》;程琪龙的《系统功能语法导论》。论文集有湖南教育出版社的《语言系统与功能》;清华大学出版社的《语篇·语境》;任绍鲁的《语言·系统·结构》等等。系统功能的基本概念的引进开始于上世纪80年代后期,以胡壮麟为首,系统功能的语法研究主要体现在两个方面:系统功能语法的语言观于方法论;对系统功能语篇研究理论进行实践和补充。

语用学的研究

近年来,《外国语》在语用学发表文章达30多篇;《外语教学与研究》有10多篇;出版的专著主要有:何自然的《语用学概论》;何兆熊的《新编语用学概要》。语用学在90年代最现风光,也当之无愧地成为最核心的科目,其研究有三个特点:

(1)在继续引导外国的方法的同时,通过对语言具体事实提出修正何补充。例如:何自然的《国外语言学的研究》。

(2)对语用学的内涵进行了新的开拓。比如何自然的《语用模糊》、《情态动词的语用分析》由卫国的《现在完成时的语用含义》。

(3)从翻番而论转入专题研究。把汉语与外语的研究联系起来。例如刘绍忠的《“清”字用法汉英对比》。

社会语言学的研究

《外国语》和《外语教学与研究》上共有10多篇;社会语言学的研究特点主要表现在:(1)由宏观方法转入微观具体语言现象分析,例如:《委婉语社会语言研究》、《语言变化的社会因素》。

(2)从解释的社会学角度转向心理学语言运作的社会心理机制。例如:王德青的《社会心理语言学科性质语研究对象》和素定芳的《委婉语研究》。

话语分析研究

《外国语》中有将近20多篇;《外语教学与研究》有10多篇。从80年代中期开始系统介绍西方话语分析基本概念与理论。90年代转入英汉对比分析。从话语口语转入语篇研究。近几年来,话语分析有交叉和重叠趋势。

4 我国语言学研究的趋势

(1)研究对象看,由微观转入宏观,语言本身系统转向跨学科研究,出现交叉学科,如跨文化交际学、国情语言学;由结构研究转入功能和应用研究,由静态到动态,如描写构词句法规则到句法结构的不同功能;单个词的意义到单词在特定环境中的意义;由单一语言研究转向多语言的对比研究,如对比语言学,包括双语对比、多语对比,包括同族语对比、非同族语对比,即有语言自身的对比,也有语言与文化的对比,如跨文化交际学。

(2)研究方法看,由单层次和单角度,静态研究转入多层次、多角度、动态研究。

(3)研究目的看,目标不断从窄到广,从肤浅到深度;从描写转向解释 Chomsky 试图从大脑的遗传基因来解释语言的事实;从理论的探讨转向应用价值分析,如计算机的发展离不开语言学,语用学的分析应用到法庭审讯中等。

(4)发展趋势看,语言学研究有三个:①侧重宏观语言学,语言与心理、语言与社会、语言与文化的关系;②着眼认知语言,语言与大脑关系;③鼓励用科学技术研究,如《对学者个人差异研究》。

参考文献

[1]胡壮麟.语言学教程[M].北京:北京大学出版社,2011.

[2]何自然.新编语用学概论[M].北京大学出版社,2009.

浅议对比语言学

摘 要:对比比较是人类认识事物、了解事物、研究事物的最常用方法,其也是语言学研究的一种基本方法。对比语言学作为语言学研究的重要一支,发展于上世纪五十年代。本文仅就对比语言学的定义、分类、历史发展、原则与程序做一简单概述。

关键词:对比;对比语言学;定义;分类;历史发展;原理与方法

一、对比语言学的定义及分类

对比语言学是语言学中的一个分支,其任务是对两种或两种以上的语言进行共时的对比研究,描述它们之间的异同,特别是其中的不同之处,并将这类研究应用于其他有关领域(许余龙1992/2008)。对于这一定义,我们可以理解如下:首先,对比语言学是语言学中的一个分支,它和其他分支密切联系、相互补充、相互促进。其次,对比语言学是两种或两种以上语言的对比描述,而普通语言学则是对某一种语言的普遍描述。再次,对比语言学是在共时理论的框架下发展的,也就是说其研究的对象,是语言的发展状态,而不是其演变。最后,对比语言学虽然研究描述语言之间的异同,但重点却在不同的方面。

对比语言学可划分为理论对比语言学和应用对比语言学两大类。理论对比语言学又由一般理论对比语言学和具体理论对比语言学构成。一般对比语言学是一般语言学的一个分支,它旨在研究对比语言学的理论和方法。具体对比语言学是具体语言学的一个分支,它旨在运用对比语言学的原理和其他语言学的相关知识,对两种或两种以上的语言进行具体的对比描述。应用对比语言写属于应用语言学的范畴,其也可以划分为两类,即一般应用对比语言学,它旨在研究如何将对比语言学的理论成果应用于语言外语教学活动中去。另一类是具体应用对比语言学,其任务是对两种语言进行具体的对比描述,以便为某一具体的应用活动服务。

二、对比语言学的起源与历史发展

自从人类产生了语言后,语言之间的比较与研究便蓬勃发展起来,对比语言学学科作为现代语言学的一个分支有两个渊源,一是起源于欧洲,其二是起源于美国。欧洲的对比语言学学科始于19世纪末,发展于20世纪初,其理论框架为对比型理论性的共时语言分析,而后由布拉格学派的语言学家继承发展。美国的对比语言学发展于二战期间,对比语言学的英文名称contrastive linguistics一词,由语言学家Whorf于1941年在其著作《语言与逻辑》一书中首次提出。而与欧洲传统的对比语言学特点不同,美国对比语言学的研究主要是应用性的。表现在运用语言对比的方法进行语言接触和双语现象研究等理论方面的探索,另外还运用对比语言学研究为外语教学服务。但20世纪60年代以后,对比分析的两个理论基础:行为主义心理学与结构主义语言学受到极其严厉的批判,对比语言学也开始走下坡路,从此一蹶不振。而与此同时,对比语言学在欧洲却持续发展,大部分的语言学家则采用转换生成语法作为对比描述的语言学框架。在此后的30多年中,理论对比语言学在欧美越来越受到了关注,学科地位得到提高,学术界对对比语言学本身的一些理论、方法问题的探讨也逐渐深入。我国国内的对比研究学者有严复,此外还有马建忠、黎锦熙、赵元任、王力和吕叔湘等都对汉外对比研究做出了重要贡献。

三、对比语言学的原则与研究程序

(一)对比语言学的一般原则:共时对比原则和同语体对比原则。

共时对比原则:对比研究是一种共时比较,当我们对两种或两种以上语言状态进行对比描述时,不能拿不同时代的语言现象进行对比。

同语体对比原则:语言作为交际工具,具有不同的功能语体,不同的语言拥有不同的选择、使用、组织语言单位的规范和规则。书面语与书面语对比,口语与口语对比,即相同的语体进行对比。

(二)对比研究的程序:

1、确定对比范围。首先确定对比的范围,即描述的对比层面是什么。比如在音、词、句、篇章、语用等选择一个层面来进行比较。其次需要进一步确定其具体对比描述对象是什么,也就是对比的语言单位。例如,在语法层面上,可以选择词组或句子结构等单位作为对比的对象。最后就是对比的语言学内容。

2、文献搜集与研究。首先先要搜集某一对比范围内已有的对比研究,这样可以使我们避免重复做别人做过的工作。其次就要搜集出这个研究范围内对两种语言分别所作的分析研究。

3、确定理论框架。对比研究的理论框架是指以某一种语言分析研究的理论或模式为基础的对比描述方法。选择一个统一的理论框架的主要原因是为了确保语言描述的可比性。我们常用的对比描述方法有中心词分析法和层次分析法,近年来,转换生成语法,格语法等也被许多研究学者所采用。而对比研究的理论框架的选择取决于对比研究的目的和范围。

4、搜集语言材料。语料可以分为实例语料和内省语料。而内省语料又可以分为自我内省语料和实验内省语料。选择语料我们需要考虑对比研究的性质和目的、理论框架、描述内容这些因素。

5、分析对比。对比分析是指在已有研究的基础上,以某一确定的理论框架对搜集的语言材料作某一方面的分析和对比。

6、总结。分析对比后,我们要总结这一对比的成果是什么,讨论其意义和价值。同时,也可以找出其局限性,提出自己的设想和建议。

四、总结

对比语言学作为现代语言学的一个重要分支,其目的殊途同归是为了解决教学或翻译问题而对比两种语言的异同。对比可以在语音、语法、词汇、语义、语用等层次进行,也可以从语言的文化、心理、民族角度进行对比研究。随着全球一体化的发展,对比语言学这一学科越来越受到专家学者的重视和青睐。

参考文献:

1、 许余龙.对比语言学(第2版)[M].上海:上海外语教学出版社,2010

2、王利众.对比语言学综述[J].黑龙江教育学院学报,2006

自然语言处理论文范文

人工智能比较好

最近出于兴趣和需要,重新回顾中文分词技术,期间有些心得,以及一些关于自然语言处理的浅薄之见,这里简单分享一下。 首先, 中文分词_百度百科 里面简单介绍了其中主要的分词算法以及相应的优缺点,包括字符匹配法、统计法以及理解法,其中字符匹配法和统计法比较流行且可以取到相对不错的效果,而理解法则相对比较复杂高级,但是我认为这才是真正解决中文分词任务的根本算法。 如今用于中文分词的算法和模型虽算不上比比皆是,但也算是唾手可得,开源的如jieba、ltp、Hanlp等等,提供中文分词服务的如腾讯云、百度大脑、讯飞AI平台等,以及其他如Jiagu等。 其实这些平台算法的差距并不算太大,分词准确率基本上都是在80%以上,然而在98%以下(这里胡诌个数),在一些不太严格的应用场景下基本已经够用了,只要挑一个在自己的业务场景下表现最好的即可。 在我看来,对于中文分词这项任务而言,最关键最核心的其实并不是算法模型,这些都不是所谓的瓶颈,最重要的其实是高质量、大规模的词典。对于字符匹配法而言,词典是基础,没有词典自然连分都分不出来;对于统计学习法而言,其效果一方面取决于算法和模型的选择,一方面取决于其训练数据的数量与质量,需要堆人力物力,比如找专门的标注公司标注数据等。但是就算是人标的数据,也难免有所错误遗漏,所以在有错误的训练数据下,模型也不可能学的太好,同时训练数据再大,也难以覆盖全部语料,总会出现OOV,总有些句子会训练不到,此时还强求模型可以做到“举一反三”有些不切实际。 词条中还提到了关于中文分词的技术难点:歧义识别与新词识别,关于歧义识别,上面并没有提具体的解决思路,对于新词识别而言,这又是自然语言处理领域很基础并且很重要的点,可以参见一下我之前的文章: 《NLP基础任务之新词发现探索之路》 | lightsmile's Blog ,也有另一个思路,比如说爬取网上一些网站的相关条目,比如百度百科等。 简单看了一下 jieba 、 ansj_seg 、 Jiagu 的分词词典,发现其中jieba的词典质量最差,其中不少词性都是错误的,Jiagu的词典还算不错,就是一些新词不全,ansi_seg的没有细看。 尽管这些工具在一些评测数据的结果可以达到90以上的成绩,但是在我看来,还是不够的,我觉得中文分词这个基础而又艰巨的任务还是要到99%以上才可以,否则分词都分不对,那些在分词基础之上的任务更是不行,毕竟词是基本的语义单元。 然而在现在深度学习盛行的潮流下,许多任务如文本分类、命名实体识别等并不一定需要依赖于分词,直接基于字符(char)的Embedding也可以取得不错的效果,并且也可以规避OOV(out of vocabulary words,未登录词)的问题。 但是深度学习,尤其是监督学习的很关键之处是得有大规模的高质量训练数据,不然巧妇难为无米之炊,再好的模型也难以从垃圾中学到有用的知识。 话说回来,虽然自然语言处理是计算机科学与其他领域的交叉学科,深度学习、机器学习算是人工智能的一部分,然而许多时候往往十分依赖人工,而所谓的智能其实也不智能。 无论是计算机视觉领域里的图像分类还是自然语言处理领域的文本分类,其任务都是学习一个从输入 映射到输出或者说标签 的函数 ,具体来说就是将 表征为多维向量 ,将 表征为多维向量 ,然后让 进入一个模型进行一系列的运算后得到一个 ,通过不断地比较 和 的值并调整模型的参数使模型的运算结果 更为准确即更加贴近 (过程有点类似于 “猜数字”游戏 ),从而最终得到一个近似函数 ,我们就可以用来代替未知的 用于预测未来的样本 ,得到它对应的 。 我们可以发现,以上学习算法确实可以得到能够解决问题的模型,然而局限之处在于它也只能做这个任务,即对输入 预测 ,别的啥也干不了。 同时在基于深度学习的自然语言处理模型中,基本套路都是Embedding+Encoder+Decoder,其中Embedding是基于字还是基于词,是使用预训练词向量还是随机初始化,这些选择所导致的效果的差异都随着训练轮数的增加而最终减小。然而,由于梯度下降以及解空间的特点,基于bert的效果确实是要比Word2Vec的要好,那些词向量确实比Word2Vec的嵌入了(或者说学到了)更多的语言知识。 关于模型的选择和取舍,工业界和学术界的标准其实差别很大。学术界里有的论文是开创性的,而许多论文其实都是在原来基础上小修小改,将最近的较新的思想和算法一堆,实验结果比原来指标高一点又是一篇文章,程序运行占用多大内存、跑了多长时间这些都不是主要因素,也就是一切向指标看齐。 而工业界则更加看重的是性价比,不同的公司、不同的部门、不同的阶段其主要矛盾不同。比如说Facebook之前出的fastText,尽管模型很简单,最终效果可能比不上一些其他复杂的模型,但是其训练速度超快、基于CPU就可以,并且可以很方便地对模型进行压缩。许多时候,一些指标高低差几个点并没有那么关键,模型大小、训练时间、预测时间在很多时候是比较关键的因素,除非由于甲方或客户不满意,或者家大业大,有的是资源,那么这时候效果和指标又成为主要矛盾,这时的优化可能要以一定的时间和空间为代价。 原来的自然语言处理各任务基本上都构建在分词的基础之上,粗略来说有一个 语法 、 语义 到 语用 的递进的过程。这一层一层的任务虽然耦合的很好,但是 这种Pipline将会导致下层的错误都将会被积累到上层,其直接影响就是越到上层其准确率越低,甚至低到惨不忍睹的程度。然而在表示学习,尤其是深度学习崛起以后,其强大的特征学习能力,使得现在的模型多为end-to-end模型,其结果是一方面可以使得相关人员摆脱繁琐的特征工程,可以将特征提取与组合设计的工作交给神经网络模型去隐形完成,大大解放了生产力;令一方面可以将模型视为整体的一部分,即它的输入直接对应原始输入,它的输出直接是我们想要的结果,有点直达病灶的意思,摆脱了原来Pipline错误累积的困境。 不过我个人看来成也end-to-end,败也end-to-end,虽然简化了任务,但是有点太过开门见山,得到的模型一个个都是彼此孤立的,各做各的事情,然而从整体论的角度来看它们都是整个自然语言处理系统的一部分,一些特征本来是可以共享,一些结果是彼此相互依赖的。这也又涉及到参数共享、多任务学习等概念,不细表。由于神经网络的可解释性较差,这使得模型更加像一个黑盒,训练调参的过程更像是在炼丹,因为谁也不知道具体能炼出个什么玩意儿。 如下图很形象地诠释了这一现状: 下面就深度学习下的自然语言处理四大任务进行简单对比(都是个人浅薄之见,难免有不足之处,还望海涵)。自然语言处理四大任务分别是:序列标注、文本分类、句子关系、文本生成。 序列标注任务的原始语料是一连串的句子,经过标注后的语料格式大概如下(以命名实体识别为例): 我们可以发现,每一行的格式都是一个字符以及它所对应的类别,如 B_{type} 、 O ,那么对于每一个字符模型需要预测的类别数量总计为 2*len(types) + 1 ,其中2是指 BI 这种标注规范, len(types) 指类型种类的数量(如人名、地名、机构名共三种),1是指 O 。可以发现模型需要拟合的函数的值域还是很小的,即 O(len(types)) 。 文本分类任务的标注语料格式大概如下(以情感极性分析为例): 每一行的格式都包含原始文本以及它所对应的类别(或者说标签),我们可以发现模型需要预测的类别数量总计为 len(types) ,即类型种类的数量(以新闻语料分类,如 娱乐 、 军事 、 科技 、 体育 等),可以发现模型需要拟合的函数的值域也是较小的,即 O(len(types)) 。 句子关系任务的标注语料格式大致如下(以语句相似度为例): 每一行都是两个句子以及它们的关系( 1 代表语义相同, 0 代表语义不同),我们可以发现模型需要预测的类别数量总计为 len(relations) ,即关系种类的数量,可以发现模型需要拟合的函数的值域也是较小的,即 O(len(relations)) 。 文本生成任务的标注语料格式大致如下(以机器翻译为例): 我们可以发现每一行都是源语言句子以及目标语言的对应翻译。虽然此时模型和序列标注模型一样都需要对于单个样本预测多次,但是序列标注模型需要预测的次数直接等于字符的数量,是确定的,但是文本生成任务模型需要预测的次数是不确定的,并且每次预测的值域都是目标语言所有word(或者character)所组成的整体集合,即 O(len(words)) ,其规模可能是十万级或百万级的。因此我们很容易发现文本生成任务的难度和复杂程度是要远远高于其他任务的。对话任务如生成式闲聊机器人更是如此。 可能是之前的AlphaGo过于吸引广大群众的眼球,做相关业务的公司吹的太厉害,以及“人工智能”、“深度学习”这几个词听起来逼格满满,导致许多外行人认为现在的人工智能已经发展到很厉害的层次,并且可以做各种各样的事情,似乎无所不能。但是内行人心里却明白:“什么人工智能,人工智障吧”、“所谓人工智能,多是智能不够,人工来凑”。外行人看不到深度模型算法的局限性,如许多模型的精度并不能达到那么高;也看不到深度模型算法的前提条件,如高质量、大规模的数据集,他们以为模型大约聪明到随便喂点数据便成为终结者般的存在。这也就导致了他们刚开始预期很高,然而在投资或找到外包后发现效果远远不能达到预期,大失所望而潦草结束或撤资离场的局面。 如下一张图大概有点这个意思: 统观学术界与工业界,和计算机视觉领域相比,自然语言处理这种更深层次的、涉及到认知智能的领域的进展虽悠久但缓慢,并且许多任务目前为止距离真正商用还有很大的距离。然而正是科学史上如阿基米德、牛顿等伟大人物与其他相对无名之辈默默耕耘,前赴后继,才使得如今之人类齐享先辈之成果,即所谓“前人栽树后人乘凉”也。 我辈也无需悲观,须戒骄戒躁,搞算法的就多己见、少盲从,少水论文;搞工程的就多积累经验,提升实践能力,多做高质量的项目。功夫不负有心人。

我可能会倾向于人工智能,因为未来的市场人工智能占比还是较大的,这样你写论文的范围很广,比较容易

自然言语论文研究方向

人工智能比较好

认为自然语言现在最大的热点以及难点就是embedding method (distributed representation) . 因为关于discrete representation,大家已经做了至少50年了,可以认为大体比较成熟了。(transducer, ccg, lambda-DCS, pcfg, crf, hmm, etc.)Embedding也曾经以一个helper的身份出现过(LSA),但还没有像这次一样以主角的身份登场。所以虽说embedding是热点,,但在很多问题上embedding+neural network的组合表现相当好,而且明显能感觉出来研究的还很不到位。我很喜欢White pillow的答案,但关注点不同吧,我更感兴趣底层的技术。在问题不变的情况下,现在底层技术正在向embedding转变。所有的问题,大家现在都在尝试用embedding解决,我认为这只是个开始,具体怎样就要看几年后领域的研究成果了。

汉语言文学的改革是与中国社会特定的变革联系在一起的,随着中国社会的不断发展变化,必然会发生相应的变化。下面学术堂整理了十五个汉语言文学本科论文题目,供大家参考。1、20世纪中国儿童文学的“自然”书写与局限2、丁玲小说的女性书写与性别政治3、论台湾图像诗的艺术特点4、论金子美铃童诗的抒情性特征5、论圣野童诗的诗教bai涵6、论童诗的精炼美--以林良童诗为例7、儿童精神家园的回归与守望--试论《小王子》中的“儿童本位观”8、关于小学语文教材中的童话删改研究--以人教版小学语文教材为例9、论林焕彰童诗的情趣美10、《论童诗的逻辑趣味》11、学科教学论题目:12、于漪写作思想初探13、文本细读方法在语文阅读教学中的应用性研究14、中国古代史方向题目:

先看大方向,这个比较好统计。NLP研究的大方向可以参考NLP会议的领域进行划分。各方向的热度可以参考顶会各个领域的论文接收数。虽然这个方法可能不是很实时,但我认为长期(五年)看还是能反映研究热度的,毕竟如果一个领域热门,研究人员多、进展多、论文多,大会组织者就会相应的扩大论文的接收数。不过会不会论文多是因为灌水多?所以我说要看长期而且是看顶会,一个会议如果长期允许这么灌水其档次肯定会下跌,市场规律嘛,这年头办个好会议也不容易。个人也可以根据这些数据自行判断各个领域的热门情况与趋势。

相关百科
热门百科
首页
发表服务