首页

职称论文知识库

首页 职称论文知识库 问题

在ACL发表论文

发布时间:

在ACL发表论文

前面写了对话系统中的SLU之领域 分类/意图识别 、 槽填充 、 上下文LU和结构化LU 以及 NLG ,DST是对话管理(DM)的一部分,而DM是任务型对话中至关重要的一部分。说个 非严格的对比 :如果把对话系统比作计算机的话,SLU相当于输入,NLG相当于输出设备,而DM相当于CPU(运算器+控制器)。

对话系统按功能来划分的话,分为闲聊型、任务型、知识问答型和推荐型。在不同类型的聊天系统中,DM也不尽相同。

闲聊型对话中的DM就是对上下文进行序列建模、对候选回复进行评分、排序和筛选等,以便于NLG阶段生成更好的回复;

任务型对话中的DM就是在NLU(领域分类和意图识别、槽填充)的基础上,进行对话状态的追踪(DST)以及对话策略的学习(DPL,下次分享),以便于DPL阶段策略的学习以及NLG阶段澄清需求、引导用户、询问、确认、对话结束语等。

知识问答型对话中的DM就是在问句的类型识别与分类的基础上,进行文本的检索以及知识库的匹配,以便于NLG阶段生成用户想要的文本片段或知识库实体。

推荐型对话系统中的DM就是进行用户兴趣的匹配以及推荐内容评分、排序和筛选等,以便于NLG阶段生成更好的给用户推荐的内容。

什么是对话状态?其实状态St就是一种 包含0时刻到t时刻的对话历史、用户目标、意图和槽值对的数据结构 ,这种数据结构可以给DPL阶段提供学习策略(比如定机票时,是询问出发地还是确定订单?)继而完成NLG阶段的回复。

对话状态追踪(DST)的作用: 根据领域(domain)/意图(intention) 、曹植对(slot-value pairs)、之前的状态以及之前系统的Action等来追踪当前状态 。他的 输入是Un(n时刻的意图和槽值对,也叫用户Action)、An-1(n-1时刻的系统Action)和Sn-1(n-1时刻的状态),输出是Sn(n时刻的状态) 。 这里用户Action和系统Action不同,且需要注意

S = {Gn,Un,Hn},Gn是用户目标、Un同上、Hn是聊天的历史,Hn= {U0, A0, U1, A1, ... , U −1, A −1},S =f(S −1,A −1,U )。

DST涉及到两方面内容: 状态表示、状态追踪 。另外为了解决领域数据不足的问题,DST还有很多迁移学习(Transfer Learning)方面的工作。比如基于特征的迁移学习、基于模型的迁移学习等。

为了在抽象的建模的基础上加深理解,看个小例子:

通过前面的建模和实例化,不难看出对话状态数跟意图和槽值对的数成 指数关系 ,维护所有状态的一个分布非常非常浪费资源,因此需要比较好的状态表示法来减少状态维护的资源开销(相当于特定任务下,更合理的数据结构设计,好的数据结构带来的直接影响就是算法开销变小)。

常见的状态表示法包括两种:

Hidden Information State Model (HIS)

这种方法就是:使用 状态分组 和 状态分割 减少跟踪复杂度。其实就是类似于二分查找、剪枝。

Bayesian Update of Dialogue States (BUDS)

这种方法就是:假设不同槽值的转移概率是相互独立的,或者具有非常简单的依赖关系。这样就将状态数从意图和槽值数的 指数 减少到了 线性 。

下面简单对比下两种不同状态表示法的优缺点:

讲到DST就不得不讲DSTC,DSTC是 Dialog System Technology Challenge ,主要包括6个Challenge。DSTC对DST的作用就相当于目标函数对机器学习任务的作用,真正起到了评估DST技术以及促进DST技术发展的作用。之所以在DST前先说DSTC是因为后面的很多DST的方法是在某个DSTC(大多是DSTC2、DSTC3、DSTC4、DSTC5)上做的。

先来看看DST的形象化

再来看看我总结的DST的方法汇总,注意我没有整理基于规则的DST( 基于规则的方法虽然可以较好利用先验知识从而可以较好解决冷启动等问题,但是需要太多人工、非常不灵活、扩展性和移植性很差、不能同时追踪多种状态 )。

下面分别介绍一下对话系统中的不同DST技术。

论文: ( Lee, SIGDIAL 2013 )( Kim et al., 2014 )

从BUDS中对不同槽值的转移概率是相互独立的假设(是不是很像马尔可夫假设?)以及St的预测需要Un、An-1和Sn-1(转移概率和发射概率),是不是想到了HMM和CRF?没错,前期的基于统计的DST就是用了很多CRF。 n = (S −1, A −1, U )。

Lee, SIGDIAL 2013 的主要思想如下:

Kim et al., 2014 的主要思想如下:

论文: ( Mrkšić et al., ACL 2015 )( Henderson et al., 2013 )( Henderson et al., 2014 )( Zilka el al., 2015 )

关于神经网络的介绍、神经网络的好处和坏处,不再赘述,已经烂大街。基于神经网络的很多方法是在DSTC上做的,这里选取了几篇有针对性的经典论文简单介绍下。

Mrkšić et al., ACL 2015 是ACL2015的一篇论文,它是用RNN进行多领域的对话状态追踪,主要贡献是证明:利用多个领域的数据来训练一个通用的状态追踪模型比利用单领域数据训练追踪模型效果要好。

Henderson et al., 2013 是利用DNN来解决DSTC,它把DST当分类问题,输入时间窗口内对话轮次提取的特征,输出slot值的概率分布。该方法不太容易过拟合,领域迁移性很好。模型结构图如下:

Henderson et al., 2014 ,基于DRNN和无监督的自适应的对话状态鲁棒性跟踪,从论文名字就能看出因为使用DRNN和无监督的自适应导致DST 鲁棒性很好 。

先来看看特征提取的办法:主要提取f,fs,fv三种特征,f是针对原始输入提取,fs和fv是对原始输入中的词做Tag替换得到 泛化特征 。

再来看下模型结构:对slot训练一个模型,利用无监督的自适应学习,将模型泛化到新的domain以便于提高模型的泛化能力。

Zilka el al., 2015 ,基于增量LSTM在DSTC2做对话状态追踪,具体思想如下:

( Williams 2013 )( Mrkšic, ACL 2015 )

目前对话系统数据较少,我比较看好迁移学习在任务型对话中的应用,尤其是DST这种较复杂的任务。

Williams 2013 ,这是通过 多领域学习与泛化 来做对话状态追踪,比较好的解决了数据目标领域数据不足的问题。

Mrkšic, ACL 2015 ,这是ACL 2015的一篇paper,基于RNN做多领域的对话状态追踪,主要贡献是证明:利用多个领域的数据来训练一个通用的状态追踪模型比利用单领域数据训练追踪模型效果要好。顺便说一句,这篇论文涵盖了很多任务型对话领域比较高产的学者。

Shietal., 2016 ,基于 多通道卷积神经网络 做 跨语言 的对话状态跟踪。为每一个slot训练一个多通道CNN(中文character CNN、中文word CNN、英文word CNN),然后跨语言做对话状态追踪,我个人很喜欢这篇paper,也非常推荐大家好好读读这篇paper。

先来看看方法的整体结构:

再来看看多通道CNN的结构图:

最后看看输入之前的预处理:

( Mrkšić et al., ACL 2017 )

这是发表于ACL 2017的一篇论文,个人觉得水平很高。

先来看一下基于word2vec的表示学习模型,本文提出两种架构:NBT-DNN、NBT+CNN,结构图如下:

再来看看整个模型的结构图,它包含语义解码和上下文建模两部分:语义解码:判断槽值对是否出现在当前query;上下文建模:解析上一轮系统Act,系统询问(tq)+ 系统确认(ts+tv)。

模型还有一部分:二元决策器,用来判定当前轮的槽值对的状态。本文的状态更新机制采用简单的基于规则的状态更新机制。

另外,ACL 2018在本文的基础上提出完全NBT( Fully NBT) ,主要变动是修改基于规则的状态更新机制,把更新机制融合到模型来做 联合训练 。具体更新状态的机制包括One-Step Markovian Update( 一步马尔科夫更新,使用两个矩阵学习当前状态和前一时刻状态间的更新关系和系数)和Constrained Markovian Update(约束马尔科夫更新,利用对角线和非对角线来构建前一种方法中的矩阵,对角线学习当前状态和前一时刻状态间的关系,非对角线学习不同value间如何相互影响)。总之,这个工作扩展的比较细致。

其实还有很多种对话状态追踪的方法,比如基于贝叶斯网络做DST、基于POMDP(部分可观测马尔可夫决策过程)做DST等,因为时间相对比较久远,这里不再赘述。

以上介绍了多种对话系统中的DST技术,下面简单总结下它们的优势和劣势。

任何一项技术想要取得进步,那么他的评测方法是至关重要的(就相当于目标函数之于机器学习算法),所以我列出一些关于DST的评估。遗憾的是,目前DST的评估我感觉并不成熟,这也是制约DST发展的一个重要原因,如果谁能想出更好的评估方法或整理出一个业内公认的高质量数据集,那么一定会在DST(甚至是对话系统)领域有一席之地,引用量也会蹭蹭的上涨。

6.1.Dialog State Tracking Challenge (DSTC)

Williams et al. 2013, Henderson et al. 2014, Henderson et al. 2014, Kim et al. 2016, Kim et al. 2016, Hori et al. 2017

6.2. State Representation:

6.2.1 HIS

Steve Young, Jost Schatzmann, Karl Weilhammer, and Hui Ye. The hidden information state approach to dialog management.

6.2.2 BUDS

Blaise Thomson, Jost Schatzmann, and Steve Young. Bayesian update of dialogue state for robust dialogue systems.

6.3.DST

6.3.1 CRF

Sungjin Lee. Structured discriminative model for dialog state tracking. In Proceedings of the SIGDIAL 2013 Conference. Lee, SIGDIAL 2013

Seokhwan Kim and Rafael E Banchs. Sequential labeling for tracking dynamic dialog states. Kim et al., 2014

6.3.2 NN-Based DST

Multi-domain Dialog State Tracking using Recurrent Neural Network, Mrkšić et al., ACL 2015

Deep Neural Network Approach for the Dialog State Tracking Challenge, Henderson et al., 2013

Robust dialog state tracking using delexicalised recurrent neural networks and unsupervised adaptation, Henderson et al., 2014

Incremental lstm-based dialog state tracker, Zilka el al., 2015 .

6.3.3 Neural Belief Tracker

Neural Belief Tracker: Data-Driven Dialogue State Tracking , Mrkšić et al., ACL 2017

6.3.4 Multichannel Tracker

A Multichannel Convolutional Neural Network For Cross-language Dialog State Tracking, Shi et al., 2016

6.3.5 Transfer learning for DST

6.3.5.1 Feature based transfer for DST

Jason Williams. Multi-domain learning and generalization in dialog state tracking . In Proceedings of SIGDIAL. Williams 2013

Hang Ren, Weiqun Xu, and Yonghong Yan. Markovian discriminative modeling for cross-domain dialog state tracking .

6.3.5.2 Model based transfer for DST

Nikola Mrkšic, Diarmuid O Séaghdha, Blaise Thomson,Milica Gaši ́c, Pei-Hao Su, David Vandyke, Tsung-Hsien Wen, and Steve Young. Multi- domain dialog state tracking using recurrent neural networks . Mrkšic, ACL 2015

2017年 10 月 11 日,阿里巴巴达摩院正式成立,马云的一句 “ 活得要比阿里巴巴长”,让外界对它的未来发展,有了更 “意味深长” 的期待。

在近三年多的时间里,达摩院在人工智能学术科研与应用上齐头并进,无论在国际学术顶会以及各类竞赛上,还是在推动学术成果的商业化落地上,都交出了亮眼的成绩单,这也反过来吸引着人工智能领域的顶尖研究者们都汇聚于此。

对于这些顶尖研究者们目前正在开展的研究工作,想必大家都充满了探知欲!

7月9日(晚)19:30-21:00 ,AI科技评论就将联合阿里达摩院,外加阿里集团在学术科研上同样“坚挺”的存在——阿里安全,给大家呈上一场 “ACL 2020 系列论文解读·阿里巴巴专场” 直播!

届时,来自阿里达摩院机器智能技术团队和阿里安全安全智能团队的 6 位高级算法专家、算法工程师以及研究型实习生们,将分别聚焦于多任务学习、少样本文本分类、 任务型对话、神经机器翻译、知识蒸馏、跨域分词标注等NLP 细分领域,为大家带来一场论文解读盛宴!

本次分享的嘉宾具体都有谁呢?下面一一揭晓:****分享主题: SpanMlt:一种基于跨度的用于属性词和观点词配对抽取的多任务学习框架 ****分享嘉宾:黄龙涛

分享内容:

属性词和观点词抽取,是细粒度的基于属性的情感分析(ABSA)的两个关键问题。属性-观点词对( aspect-opinion pairs)可以为消费者和观点挖掘系统提供相关产品或服务的全局配置文件。但是,传统方法无法在没有给定属性词和观点词的情况下,直接输出属性-观点词对。尽管研究者最近提出了一些共提取方法来联合提取属性词和观点词,但是并不能配对抽取两者。为此,本文提出了一种端到端方法来解决属性词和观点词的配对抽取(PAOTE)任务。此外,本文从联合词和关系抽取的角度而非此前大多数工作中执行的序列标注方法的角度,来处理该问题。我们提出了一个基于共享跨度的多任务学习框架,其中在跨度边界的监督下提取词。同时,使用跨度表示法来联合识别配对关系。大量实验表明,我们的模型始终优于 SOTA 方法。

分享内容:

现有的工作往往使用元学习(meta learning)的方法,通过在一系列meta-task中切换来获得少样本学习的能力,但是在task间的切换会带来遗忘的问题,因此考虑使用记忆机制来辅助meta learning的训练。在本工作中,我们将监督学习得到的分类参数作为meta learning的全局记忆,并提出了动态记忆路由算法,基于dynamic routing的方式将全局记忆信息融入到meta task的训练和预测阶段。此外,动态记忆路由算法还可以使用query信息来增强归纳类别表示的能力,对口语场景下的语言多样性表达有更好的泛化性能。在中英文场景少样本分类任务数据集上,均取得了STOA的结果。

分享主题:多领域对话动作和回复联合生成****分享嘉宾:田俊峰

分享内容: 在任务型对话中,产生流畅且信息丰富的回复至关重要。现有pipeline方法通常先预测多个对话动作,然后使用它们的全局表示来辅助回复生成。这种方法有两个缺陷:第一,在预测对话动作时,多领域的固有结构被忽略了;其次,在生成回复时没有考虑到对话动作和回复之间的语义联系。为了解决这些问题,我们提出了一种同时生成对话动作和回复的神经联合生成模型。与以往的方法不同,我们的对话动作生成模块可以保留多领域对话动作的层次结构,同时我们的回复生成模块可以动态地关注到相关的对话动作。在训练时,我们采用不确定性损失函数来自适应地调整两个任务的权重。在大规模MultiWOZ数据集上进行了评估,实验结果表明,我们的模型在自动评估和人工评估上都比SOTA模型有很好的提升。****分享主题:神经机器翻译的多尺度协同深度模型******分享嘉宾:魏相鹏**

近年来,神经机器翻译(NMT)方法凭借其出色的翻译性能在大量应用场景中取代了基于统计的机器翻译方法。目前,制约NMT模型性能的因素主要包括模型的特征表达能力和数据规模。因此,我们提出一种基于多尺度协作(MSC)机制的深度神经机器翻译模型,以提高模型对底层(具象化)和高层(抽象化)特征的建模能力。

实验证明,(1) 多尺度协作机制有助于构建极深的NMT模型的同时带来性能上的提升,(2) 基于MSC机制的深度NMT模型能够更好地翻译语义结构复杂的自然语言句子。

****分享主题:多语种序列标注的结构级知识蒸馏******分享嘉宾:王新宇**

多语言序列标注是一项使用单一统一模型预测多语言标签序列的任务。与依赖于多个单语模型相比,使用多语言模型具有模型规模小、在线服务容易和对低资源语言通用的优点。然而,由于模型容量的限制,目前的多语种模型仍然远远低于单独的单语模型。本文提出将多个单语言模型(teachers)的结构知识提取到统一的多语言模型(student)中,以缩小单语言模型与统一的多语言模型之间的差距。我们提出了两种基于结构层次信息的知识挖掘方法:

****分享主题:跨域中文分词的远程标注与对抗耦合训练******分享嘉宾:丁宁**

完全监督神经方法在中文分词(CWS)的任务上取得了重大进展。但是,如果由于域间的分布差异和集外词(OOV)问题导致域迁移,则监督模型的性能始终一直大幅下降。为了实时缓解此问题,本文将跨域中文分词的远程标注和对抗性训练直观地结合在一起。

7月9日,6位来自阿里的分享嘉宾,与大家不见不散!

ACL 2020原定于2020年7月5日至10日在美国华盛顿西雅图举行,因新冠肺炎疫情改为线上会议。为促进学术交流,方便国内师生提早了解自然语言处理(NLP)前沿研究,AI 科技评论将推出「ACL 实验室系列论文解读」内容,同时欢迎更多实验室参与分享,敬请期待!

如何在acl上发表论文

发布论文可以通过以下两种方法:

1、通过导师介绍;

2、自主选择论文代发机构发表。

选择期刊

准备提交在提交稿件之前,您必须选择要发布的期刊。重要的是要注意,每种期刊都有自己的风格和特征,并且通过选择与论文领域相匹配的期刊来更容易出版。有数百种期刊,每种期刊都有自己的要求。

修改稿件

论文通过后,期刊编辑将与作者联系。一般来说,论文不会一次通过。需要对其进行多次修改以编辑手稿并提交评论和要求。此时,仅需要根据编辑者的要求进行修改。是。

与负责编辑交谈时,应保持真诚开放的态度,这将有助于拉近两个人之间的距离,为您提供更好的建议,并且出版更加顺畅。

扩展资料:

论文出版格式

撰写论文时,必须遵循一定的格式,以使其看起来清晰。

1.在编写标题标题的过程中,要根据实际情况灵活使用。最好在开始时先进行介绍,讨论当前的事实,需要什么,打开头,然后再扩展以下内容。

2.纸张应展开并展开。它应该有条理,有条理。如上所述,在下面的大号和小号上,看起来非常清晰。标题以粗体突出显示,并且标题后不得有标点符号。

摘要可以控制在220个字符以内。最好总结下一篇文章。不要做开头的摘要,而将文章标题列为摘要。

参考资料来源:百度百科-期刊

参考资料来源:人民网-研究生是如何发表5篇CSSCI期刊论文的?

acl发论文

论文题目:Lexicon Enhanced Chinese Sequence Labeling Using BERT Adapter 论文地址: 这是一篇自表于2021 ACL(NLP顶会)的论文。论文提出将字典融入BERT网络层记作字典加强BERT(Lexicon Enhanced BERT,LEBERT) ,用于提升中文标注效果。新模型在命名实体识别、分词、成份标注实验中均达到了目前最佳水平。 由于存在分词(CWS)问题,中文面临更大的挑战,对多数任务,以字为单位比以词为单位效果更好。 目前大多优化方法都是修改上层(网络末端),而未修改核心网络。文中提出的方法利用字典得到更多可能的分词,动态计算最佳分词方法,并修改了网络的Transformers层,如图-1中的右图所示: 模型的核心结构如图-2所示,相对于BERT,LEBERT有两个明显差别: (1)输入变成了字符特征+字典特征 (2)字典适配层在Transformer层之间 文中方法将基础的字符序列扩展成字符+词对序列,设句S由字符c组成:Sc={c1,c2,c3,...,cn},在字典D中找到在句中包含字符c所有可能的词ws,如图-3所示: 最终生成序列: s_cw={(c1,ws1),(c2,ws2),...(cn,wsn)} 将字符和词信息融入BERT网络的字典适配层,方法如图-4所示: 字典适配层有两个输入:字符和词对,即上图中的h和x,其中h是前一个transformer层输出的字符向量,x是m个可能包含该字符的词组成的词嵌入,其中j是m中的第j个词: 其中e是预训练得到的词向量映射表。 为了对齐长短不一的序列,对词向量进行非线性变换如下: 其中W1是大小为dc-dw的矩阵,W2是大小dc-dc的矩阵,b1和b2是偏移,dw是词向量的维度,c是隐藏层的维度。 由图-3可知,一个字可能对应多个词,对于不同的任务,最匹配的词可能并不相同。 具体算法是使用vi表示第i个字符对应的所有词表,m是该字符可能对应的词个数,计算注意力attention如下: 其中W是注意力权重矩阵。 然后对每个词乘其权重加和,得到位置i对应的词表示: 最终,将词典信息与字符的向量相加,得到了该位置的新向量: 处理后的数据再送入dropout层和归一化层继续处理。 将字符输入词嵌入层,加入token, segment和position信息,然后将该层输出的词嵌入输入Transformer层:输出的 是第l个隐藏层的输出,LN是归一化层,HMAttn是多头注意力机制,FFN是两个前馈网络层,使用ReLU作为激活函数。 在k-th和(k+1)-th Transformer之间加入字典信息考虑到标签的前后关系,使用CRF层来预测最终的标签,将最后一个隐藏层h的输出作为输入,计算输出层O: 然后将输出层代入CRF模型,计算标签y的概率p。 训练时给出句子S和标签Y,计算全句的负对数似然作为误差。 解码时,使用维特比算法计算得分最高的序列。 论文针对命名实体识别NER,分词CWS、位置POS标注进行了实验,实验数据如表-1所示(中文NLP常用实验数据)。 图-5展示了相对于BERT和基于BERT的最新模型,文中模型误差的减少情况。 除了与其它模型比较之外,论文还比较了LEBERT方法与在组装模型的Bert+Word方法的差异。

以下是几个顶级会议的列表(不完整的,但基本覆盖)(1)机器学习顶级会议:NIPS, ICML, UAI, AISTATS; (期刊:JMLR, ML, Trends in ML, IEEE T-NN)计算机视觉和图像识别:ICCV, CVPR, ECCV; (期刊:IEEE T-PAMI, IJCV, IEEE T-IP)人工智能:IJCAI, AAAI; (期刊AI)另外相关的还有SIGRAPH, KDD, ACL, SIGIR, WWW等。特别是,如果做机器学习,必须地,把近4年的NIPS, ICML翻几遍;如果做计算机视觉,要把近4年的ICCV, CVPR, NIPS, ICML翻几遍。(2)另外补充一下:大部分顶级会议的论文都能从网上免费下载到。(3)说些自己的感受。对计算机视觉和计算神经科学领域,从方法和模型的角度看,统计模型(包括probabilistic graphical model和statistical learning theory)是主流也是非常有影响力的方法。有个非常明显的趋势:重要的方法和模型最先在NIPS或ICML出现,然后应用到CV,IR和MM。虽然具体问题和应用也很重要,但多关注和结合这些方法也很有意义。

ACL大会由国际计算语言学协会主办,是自然语言处理与计算语言学领域最高级别的学术会议。

acl论文发表

高校:清华 北大计算语言学研究所 苏州大学 哈工大研究所:中科院自动化所肯定排第一 其次是计算所 软件所你看看每年acl coling论文发表情况就知道了

目录

如何写出好论文:投递ACL2021总结... 1

简介... 1

1.“为什么要写论文?”. 2

2.“什么样的论文才是好论文?”. 2

2.1读者(审稿人)要什么?. 2

2.2怎样满足审稿人?... 3

2.3审稿人的期望分析... 3

2.3.1读者对文章结构的期望... 3

2.3.2读者对句子的期望... 3

2.3.3读者对段落的期望... 4

2.3.4读者对方法/实验步骤的期望... 4

3.“好论文是如何写出来的”. 4

3.1如何写摘要... 5

3.2如何写引言... 6

3.3如何写相关工作... 7

3.4如何写正文... 7

3.5如何写结果... 7

3.6如何写讨论... 8

3.7如何写结论... 8

4.总结... 8

References 9

2021年4月1日ACL2021的论文rebuttal阶段结束,经过一个多月的写论文,做实验和反复修改到最后回复评审意见的痛苦过程,感慨和收获都很多。在此期间对如何写好论文的思考和了解更深入了。因此特别总结了一下。中间我也查阅了写论文的相关资料,其中[1,2]让我感触最深。[1]从哲学角度提出了针对写论文的灵魂三问,[2]提出要迎合读者预期的方法论。这次将[1,2]的论点进行整理后,针对本次没有写好introduction的问题,加入了[3]中如何写introduction的方法论,最终成文。

本文主要针对写论文的三个哲学问题整合文献[1,2]的资料进行回答,因为本人才疏学浅,有不到之处还请海涵。在写论文之前,我们都会问三个关键问题:

下面会分三个章节来分别回答上述问题。

除了评职称,完成KPI等世俗的原因背后,其实还有一些论文备受推崇的底层原因:

写文章的时候应该力求简单到可以被新手理解,同时深刻到可以引起专家的兴趣。一篇文章只有在不需太多努力就可以理解的情况下才会被广泛地引用。文章清晰的关键就是使读者能在他们想找的地方找到他们需要的东西。简而言之为以下两点:

文章在发表前必须经过审稿人的评审。他们一般是相关领域的专家甚至是你的竞争者。他们会尽力寻找你文章 中的毛病。有时,由于不同的观点和竞争的需要,审稿人或许会试图阻止你的文章发表。因此,文章必须写得理由充足。在被别人挑剔之前 ,自己必须首先鸡蛋里挑骨头,预先回答审稿人的可能质疑 。

1). 只提出“一”个中心命题。论文里的观点太多,不但不好写,问题也容易多,读者也不易记住你要说什么。

2). 在这个中心命题的基础上,用一个迷人(但绝不夸张)的标题来吸引审稿人的兴趣。无偿审稿使审稿人只审批感兴趣的论文。如果你不能引起审稿人的兴趣,那最好不要发表那篇文章。编辑们有时候会很郁闷,因为找不到有兴趣的审稿人。

3). 合理解释每一个参数,合理说明每一个步骤。审稿人没时间考虑细节。程序和参数的合理化显示出你知道你在做什么,而不是凑数据。 没理由要找理由,有理由要强调。

4). 问问你自己是否提供了足够重复你工作的所有细节。审稿人(或读者)越容易再现你的工作,他就越可能接受你的文章。当然,审稿人并不会真正去重做你的工作,但你必须通过你的描述使他相信可以重做。

5). 必须有说服力!尽量做彻底而不是半成品的工作!用多方面测试来证明你的中心命题。要使文章像律师证明无罪官司,预先回答一切可能提出的疑问。

6). 引用所有重要的研究工作,特别是经典力作。写作的时候要再做全面文献检索。为了达到这些目标,写科学论文的时候必须遵照一定的框架结构。

典型的科学论文包括标题、摘要、引言、方法/实验步骤、结果、讨论、致谢,和参考文献。这样的结构是用来帮助读者快速找到他们感兴趣的信息。把信息放错地方会使读者糊涂。

好文章的所有 句子都应该这样从旧到新地平滑过渡 。写好一句开头的金科玉律是问问你自己:“我以前有没有提过 这个概念?”大多数文章很难读是因为很多新概念在没有被介绍之前就使用了。

读者想在 主语之后立刻看到行为动词 。对一个说明谁在做什么的句子,读者需要找到动词才能理解。如果动 词和主语之间相隔太远,阅读就会被寻找动词打断。而打断阅读就会使句子难以理解。尽量避免过长的主语和过短的宾语。这就像头重脚轻的人很难站稳。短的主语紧跟着 动词加上长的宾语效果会更好。

读者期望每句只有一个重点,这个 重点通常在句尾 。比较下面两个句子,我们可以感觉到他们着重强调不同的东西。把最好的,最重要的,和想要读者记住的东西放在句尾。

每一个段落都应该只讲一个故事 。在一段里表述多个观点会使读者很难知道该记住什么、这段想表达什么。一段的第一句要告诉读者这一段是讲什么的。这样读者想跳过这段就可以跳过。一段的最后一句应该是这段的结论或 者告诉读者下一段是什么。段落中的句子应该由始到终通过逻辑关系连接,实现由旧信息到新信息的流动

首句描述了整段的主题。最后一句时总结整段。 很明显,新旧信息的连接是理解这段的关键。从旧信息到新信息的流动是使读者轻松阅读的最佳方式。写文章的目的不是去测试读者的阅读能力,而是考验作者的表达能力。不能怪人没看懂,只能怪自己没写清楚

如果文章是关于新的方法、技术或算法,要非常详细地写它的新颖之处。要用有逻辑的、合理的方式来描述它。 这会帮助读者抓住新方法的要领。如果这个方法使用参数,则要把每一个参数(或参数的取值)合理化,或者是以前 用过的,或者可以从物理或数学推导出来,或者通过了广泛的测试及优化。如果无法保证它的合理性,那就必须描 述改变它会造成的影响(实际的结果应该在结果部分或讨论部分,方法部分仅包含影响的描述)。如果没有测试它们 的合理性,你应该解释为什么(做的代价太贵了?太费时间了?或者需要延期到将来做)。

针对审稿人对一篇好文章的期望,我们可以有针对性的进行写作。

[1]提出如上图的写作经验,具体如下:

如果总是先写中文再译成英文,英语很难提高。直接用英语写作,刚开始可能很困难,可能写完5行字,就已经花了一小时,但是万事开头难,迈出第一步,路会越走越顺。对于我的学生,我一般会认真指导他们完成第一篇,从第二篇开始,就基本上不用太费心。其次,要用自己最熟悉的、确定不会产生歧义的单词。不要用金山词霸等软件直接查词,选择自己没有使用过的词,这样很容易产生歧义。第三,每段只讲一个要点,并且要明确。第四,毕竟是在进行科技文献写作,注意语言要正式,要进行提炼,用语不要过于琐碎家常。第五,要避免“毫无疑问”(no doubt)、“绝对”(absolutely)、“显然”(obviously)这类绝对化的用词。第六,不要使用复杂的语句,要尽量简单明晰,便于读者理解。另外,要注意衔接过过渡,选择正确的过渡词与联接词,还要注意转折,注意连贯性,避免行文跳跃。最后,现在很多字处理软件都提供拼写检查功能,对于软件提示可能出错的字,一定要仔细再检查。

下面按照论文通常的结构逻辑来给出如何写好论文的建议。

摘要就是给出论文的概况,吸引读者。在这里要给一些适当的细节,简略描述你的方法是如何实现的、有哪些组成组成部分(components)、实验结果如何、比现有的技术提高了多少。

引言部分很重要,首先要讲明做本研究动机,讲明为什么本文所述的研究很重要?为什么该研究是值得做的?如果不能很好地论证,后面写得再好也没有用,因为大家不会浪费时间在“没有用”的东西上。其次,本文的贡献、创新性要明确突出,不要让人误认为你的研究与别人相似。第三,介绍你的方法时要比摘要详细些,但是不要给太多的细节。

每一个引言应该包括研究领域的介绍和意义,做这工作的具体原因,结果和隐含的意义。一般而言,读者读完引言,对论文的来龙去脉就应该清清楚楚了

第一件该做的事就是围绕中心命题来收集所有相关文献。搜索并研究所有最近和相关的文章(通过对中心命题关键字的搜索或用引用索引)。确认你有所有最新的论文。引用所有 重要的文章。如果你不引用别人的文献,别人也不会引用你的!如果你想谁引用你的工作,你要先引用他的。你引用的文章越多,他们越可能阅读并引用你的文章。因为人们更加关注引用他们的论文。仔细读你所引用的文章,避免引用错误。在引用上,不要偷懒。

Introduction(引言)的主要任务是向读者勾勒出全文的基本内容和轮廓。它可以包括以下五项内容中的全部或其中几项(具体要根据你论文的长短等实际情况来决定) [3]:

如何合理安排以上这些内容,将它们有条有理地给读者描绘清楚,并非容易之事。经验告诉我们,引言其实是全文最难写的—部分。这是因为作者对有关学科领域的熟悉程度,作者的知识是渊博、还是贫乏,研究的意义何在、价值如何等问题,都在引言的字里行间得以充分体现。 我们可以将引言的内容分为三到四个层次来安排。第一层由研究背景、意义、发展状况等内容组成,其中还包括某一研究领域的文献综述;第二层提出目前尚未解决的问题或急需解决的问题,从而引出自己的研究动机与意义;第三层说明自己研究的具体目的与内容;最后是引言的结尾,可以介绍一下论文的组成部分。

2) 引言第二层主要的目的是表明目前研究尚未解决的问题(Indicating the problem that has not been solved by previous research, raising a relevant question)

阐述自己研究领域的基本内容。要尽量简洁明了,不罗嗦;须知看文章者都是该领域的专家,所以一些显而易见的知识要用概括性的而不是叙述性的语言来描述。

相关工作是为了证明你的工作的新颖性的。因此对前人的研究的引用要完整,并且一定要尊重相关文献的作者,可以指出其缺点,但一定要礼貌,要以建设性的方式提出。

正文用来介绍技术上的细节,终极目的是要让人理解你的方法并能重现实验结果。首先,逻辑要清晰,其次,技术上的细节不能缺失。但是,如果细节可能喧宾夺主,则要适当删减或挪到附录甚至补充材料里,以免干扰正常的阅读节奏。如果文章比较复杂,可以叙述一下方法的组成部分,画出框图,展示方法、内容及其关系。文章的实验结果要证明“我的方法的确比现有最好的方法还要好”。有一个细节需要注意:有些同学在文中用红、绿、蓝色来指示对象,但经常图片打印出来都是灰色的,对象难以区分,所以最好不要用颜色来指示图片里的对象,而要尽量用不同样式的线型、填充模式等,再打印出来确认不同对象的确是可以区分的。另外,对于所有的图、表,要在正文里加以说明,对于反常规的结果尤其要突出地论述其原因。

当你开始写结果部分时,先考虑一下结果的意义。也就是说,你理解你的结果吗?这些结果是不是告诉了你更 深刻的东西?你能从很多不同角度来理解结果吗?你能设计证明或者反驳你的一些解释的新测试吗? 如果你发现了新现象,你必须证明你的结果不是你方法制造出来的(讨论部分的一个好内容)。它可以在不同的 条件下重复吗?如果你发展了一个新方法,你必须证明这个方法的重要性。它是否改进了现有的方法?你的结果部 分必须用不同的角度或多重测试来支持新发现或验证新方法的重要性。

一旦你对结果有更好的理解,你需要决定卖点,也就是说这篇文章最有意义的一个观点是什么?确定这篇文章 的中心命题之后要组织所有的段落来证明、支持它,用数据(有必要的话再加数据)来证明它。同时也要排除其它可 能性。放弃与中心命题无关的数据,即使这些数据是很辛苦得来的。

现在到了你写论文的最后一部分。很多人认为讨论部分最难写。他们常常不知道该写什么。学生常常不能把结 果从他们的解释、含意和结论中分离出来。此外,他们不善于思考可能存在的其他解释。好的讨论通常以得到的结 果和解释的评论开始。其它可用于讨论的内容有:参数改变对结果的影响,与其他研究相比还有待解决的问题,将 来或正在进行的工作(防止别人从事你显而易见的,立刻就能实现的后续工作)。这里有一段文章中的讨论部分

结论部分是给读者留下印象的最后机会,要进一步突出自己的贡献。

你还可以开诚布公地承认自己的 缺点 ,其实这会让审稿人留下好印象,并且给其它读者以提升空间,让他们沿着你的方向继续前行。

有一个很不好的做法,就是将摘要、导言里对方法的介绍和结论用同样的话进行表述,甚至互相拷贝。文章的摘要、介绍、结论,要在不同的细节层次上介绍你的方法、强调你的贡献。

[1]给出写好论文的经验如下图所示:

[2]给出的写好论文的经验如下:

我自己的经验是要写好引言,这次ACL2021的审稿人意见主要就是论文的引言部分没有满足审稿人预期。以后论文要重点加强引言和相关工作。

[1] 想法好、表达好、语言好才是好论文,

[2] 好论文要迎合读者预期,

[3] 如何写好introduction,

ACL发表论文

2002年毕业于武汉大学计算机学院并获工学学士学位,2007年毕业于中国科学院计算技术研究所并获工学博士学位。研究方向是自然语言处理,近年来从事的科研工作集中在统计机器翻译领域。近五年来在自然语言处理的顶级国际会议和期刊上发表8篇论文(5篇ACL、1篇EMNLP、1篇Coling、1篇计算语言学长文),并获COLING/ACL 2006的Meritorious Asian NLP Paper Award。2007年入选计算所首批百星计划,2009年赴美国卡内基梅隆大学进行学术访问,并对微软、Google、南加州大学和约翰霍普金斯大学进行短期访问,2010年获得计算所“卓越之星”称号。2010年在自然语言处理领域国际顶级期刊计算语言学上发表国内第一篇长文,并在ACL上成为国内第一个做tutorial学者。2011年9月加盟清华大学计算机系。

目录

如何写出好论文:投递ACL2021总结... 1

简介... 1

1.“为什么要写论文?”. 2

2.“什么样的论文才是好论文?”. 2

2.1读者(审稿人)要什么?. 2

2.2怎样满足审稿人?... 3

2.3审稿人的期望分析... 3

2.3.1读者对文章结构的期望... 3

2.3.2读者对句子的期望... 3

2.3.3读者对段落的期望... 4

2.3.4读者对方法/实验步骤的期望... 4

3.“好论文是如何写出来的”. 4

3.1如何写摘要... 5

3.2如何写引言... 6

3.3如何写相关工作... 7

3.4如何写正文... 7

3.5如何写结果... 7

3.6如何写讨论... 8

3.7如何写结论... 8

4.总结... 8

References 9

2021年4月1日ACL2021的论文rebuttal阶段结束,经过一个多月的写论文,做实验和反复修改到最后回复评审意见的痛苦过程,感慨和收获都很多。在此期间对如何写好论文的思考和了解更深入了。因此特别总结了一下。中间我也查阅了写论文的相关资料,其中[1,2]让我感触最深。[1]从哲学角度提出了针对写论文的灵魂三问,[2]提出要迎合读者预期的方法论。这次将[1,2]的论点进行整理后,针对本次没有写好introduction的问题,加入了[3]中如何写introduction的方法论,最终成文。

本文主要针对写论文的三个哲学问题整合文献[1,2]的资料进行回答,因为本人才疏学浅,有不到之处还请海涵。在写论文之前,我们都会问三个关键问题:

下面会分三个章节来分别回答上述问题。

除了评职称,完成KPI等世俗的原因背后,其实还有一些论文备受推崇的底层原因:

写文章的时候应该力求简单到可以被新手理解,同时深刻到可以引起专家的兴趣。一篇文章只有在不需太多努力就可以理解的情况下才会被广泛地引用。文章清晰的关键就是使读者能在他们想找的地方找到他们需要的东西。简而言之为以下两点:

文章在发表前必须经过审稿人的评审。他们一般是相关领域的专家甚至是你的竞争者。他们会尽力寻找你文章 中的毛病。有时,由于不同的观点和竞争的需要,审稿人或许会试图阻止你的文章发表。因此,文章必须写得理由充足。在被别人挑剔之前 ,自己必须首先鸡蛋里挑骨头,预先回答审稿人的可能质疑 。

1). 只提出“一”个中心命题。论文里的观点太多,不但不好写,问题也容易多,读者也不易记住你要说什么。

2). 在这个中心命题的基础上,用一个迷人(但绝不夸张)的标题来吸引审稿人的兴趣。无偿审稿使审稿人只审批感兴趣的论文。如果你不能引起审稿人的兴趣,那最好不要发表那篇文章。编辑们有时候会很郁闷,因为找不到有兴趣的审稿人。

3). 合理解释每一个参数,合理说明每一个步骤。审稿人没时间考虑细节。程序和参数的合理化显示出你知道你在做什么,而不是凑数据。 没理由要找理由,有理由要强调。

4). 问问你自己是否提供了足够重复你工作的所有细节。审稿人(或读者)越容易再现你的工作,他就越可能接受你的文章。当然,审稿人并不会真正去重做你的工作,但你必须通过你的描述使他相信可以重做。

5). 必须有说服力!尽量做彻底而不是半成品的工作!用多方面测试来证明你的中心命题。要使文章像律师证明无罪官司,预先回答一切可能提出的疑问。

6). 引用所有重要的研究工作,特别是经典力作。写作的时候要再做全面文献检索。为了达到这些目标,写科学论文的时候必须遵照一定的框架结构。

典型的科学论文包括标题、摘要、引言、方法/实验步骤、结果、讨论、致谢,和参考文献。这样的结构是用来帮助读者快速找到他们感兴趣的信息。把信息放错地方会使读者糊涂。

好文章的所有 句子都应该这样从旧到新地平滑过渡 。写好一句开头的金科玉律是问问你自己:“我以前有没有提过 这个概念?”大多数文章很难读是因为很多新概念在没有被介绍之前就使用了。

读者想在 主语之后立刻看到行为动词 。对一个说明谁在做什么的句子,读者需要找到动词才能理解。如果动 词和主语之间相隔太远,阅读就会被寻找动词打断。而打断阅读就会使句子难以理解。尽量避免过长的主语和过短的宾语。这就像头重脚轻的人很难站稳。短的主语紧跟着 动词加上长的宾语效果会更好。

读者期望每句只有一个重点,这个 重点通常在句尾 。比较下面两个句子,我们可以感觉到他们着重强调不同的东西。把最好的,最重要的,和想要读者记住的东西放在句尾。

每一个段落都应该只讲一个故事 。在一段里表述多个观点会使读者很难知道该记住什么、这段想表达什么。一段的第一句要告诉读者这一段是讲什么的。这样读者想跳过这段就可以跳过。一段的最后一句应该是这段的结论或 者告诉读者下一段是什么。段落中的句子应该由始到终通过逻辑关系连接,实现由旧信息到新信息的流动

首句描述了整段的主题。最后一句时总结整段。 很明显,新旧信息的连接是理解这段的关键。从旧信息到新信息的流动是使读者轻松阅读的最佳方式。写文章的目的不是去测试读者的阅读能力,而是考验作者的表达能力。不能怪人没看懂,只能怪自己没写清楚

如果文章是关于新的方法、技术或算法,要非常详细地写它的新颖之处。要用有逻辑的、合理的方式来描述它。 这会帮助读者抓住新方法的要领。如果这个方法使用参数,则要把每一个参数(或参数的取值)合理化,或者是以前 用过的,或者可以从物理或数学推导出来,或者通过了广泛的测试及优化。如果无法保证它的合理性,那就必须描 述改变它会造成的影响(实际的结果应该在结果部分或讨论部分,方法部分仅包含影响的描述)。如果没有测试它们 的合理性,你应该解释为什么(做的代价太贵了?太费时间了?或者需要延期到将来做)。

针对审稿人对一篇好文章的期望,我们可以有针对性的进行写作。

[1]提出如上图的写作经验,具体如下:

如果总是先写中文再译成英文,英语很难提高。直接用英语写作,刚开始可能很困难,可能写完5行字,就已经花了一小时,但是万事开头难,迈出第一步,路会越走越顺。对于我的学生,我一般会认真指导他们完成第一篇,从第二篇开始,就基本上不用太费心。其次,要用自己最熟悉的、确定不会产生歧义的单词。不要用金山词霸等软件直接查词,选择自己没有使用过的词,这样很容易产生歧义。第三,每段只讲一个要点,并且要明确。第四,毕竟是在进行科技文献写作,注意语言要正式,要进行提炼,用语不要过于琐碎家常。第五,要避免“毫无疑问”(no doubt)、“绝对”(absolutely)、“显然”(obviously)这类绝对化的用词。第六,不要使用复杂的语句,要尽量简单明晰,便于读者理解。另外,要注意衔接过过渡,选择正确的过渡词与联接词,还要注意转折,注意连贯性,避免行文跳跃。最后,现在很多字处理软件都提供拼写检查功能,对于软件提示可能出错的字,一定要仔细再检查。

下面按照论文通常的结构逻辑来给出如何写好论文的建议。

摘要就是给出论文的概况,吸引读者。在这里要给一些适当的细节,简略描述你的方法是如何实现的、有哪些组成组成部分(components)、实验结果如何、比现有的技术提高了多少。

引言部分很重要,首先要讲明做本研究动机,讲明为什么本文所述的研究很重要?为什么该研究是值得做的?如果不能很好地论证,后面写得再好也没有用,因为大家不会浪费时间在“没有用”的东西上。其次,本文的贡献、创新性要明确突出,不要让人误认为你的研究与别人相似。第三,介绍你的方法时要比摘要详细些,但是不要给太多的细节。

每一个引言应该包括研究领域的介绍和意义,做这工作的具体原因,结果和隐含的意义。一般而言,读者读完引言,对论文的来龙去脉就应该清清楚楚了

第一件该做的事就是围绕中心命题来收集所有相关文献。搜索并研究所有最近和相关的文章(通过对中心命题关键字的搜索或用引用索引)。确认你有所有最新的论文。引用所有 重要的文章。如果你不引用别人的文献,别人也不会引用你的!如果你想谁引用你的工作,你要先引用他的。你引用的文章越多,他们越可能阅读并引用你的文章。因为人们更加关注引用他们的论文。仔细读你所引用的文章,避免引用错误。在引用上,不要偷懒。

Introduction(引言)的主要任务是向读者勾勒出全文的基本内容和轮廓。它可以包括以下五项内容中的全部或其中几项(具体要根据你论文的长短等实际情况来决定) [3]:

如何合理安排以上这些内容,将它们有条有理地给读者描绘清楚,并非容易之事。经验告诉我们,引言其实是全文最难写的—部分。这是因为作者对有关学科领域的熟悉程度,作者的知识是渊博、还是贫乏,研究的意义何在、价值如何等问题,都在引言的字里行间得以充分体现。 我们可以将引言的内容分为三到四个层次来安排。第一层由研究背景、意义、发展状况等内容组成,其中还包括某一研究领域的文献综述;第二层提出目前尚未解决的问题或急需解决的问题,从而引出自己的研究动机与意义;第三层说明自己研究的具体目的与内容;最后是引言的结尾,可以介绍一下论文的组成部分。

2) 引言第二层主要的目的是表明目前研究尚未解决的问题(Indicating the problem that has not been solved by previous research, raising a relevant question)

阐述自己研究领域的基本内容。要尽量简洁明了,不罗嗦;须知看文章者都是该领域的专家,所以一些显而易见的知识要用概括性的而不是叙述性的语言来描述。

相关工作是为了证明你的工作的新颖性的。因此对前人的研究的引用要完整,并且一定要尊重相关文献的作者,可以指出其缺点,但一定要礼貌,要以建设性的方式提出。

正文用来介绍技术上的细节,终极目的是要让人理解你的方法并能重现实验结果。首先,逻辑要清晰,其次,技术上的细节不能缺失。但是,如果细节可能喧宾夺主,则要适当删减或挪到附录甚至补充材料里,以免干扰正常的阅读节奏。如果文章比较复杂,可以叙述一下方法的组成部分,画出框图,展示方法、内容及其关系。文章的实验结果要证明“我的方法的确比现有最好的方法还要好”。有一个细节需要注意:有些同学在文中用红、绿、蓝色来指示对象,但经常图片打印出来都是灰色的,对象难以区分,所以最好不要用颜色来指示图片里的对象,而要尽量用不同样式的线型、填充模式等,再打印出来确认不同对象的确是可以区分的。另外,对于所有的图、表,要在正文里加以说明,对于反常规的结果尤其要突出地论述其原因。

当你开始写结果部分时,先考虑一下结果的意义。也就是说,你理解你的结果吗?这些结果是不是告诉了你更 深刻的东西?你能从很多不同角度来理解结果吗?你能设计证明或者反驳你的一些解释的新测试吗? 如果你发现了新现象,你必须证明你的结果不是你方法制造出来的(讨论部分的一个好内容)。它可以在不同的 条件下重复吗?如果你发展了一个新方法,你必须证明这个方法的重要性。它是否改进了现有的方法?你的结果部 分必须用不同的角度或多重测试来支持新发现或验证新方法的重要性。

一旦你对结果有更好的理解,你需要决定卖点,也就是说这篇文章最有意义的一个观点是什么?确定这篇文章 的中心命题之后要组织所有的段落来证明、支持它,用数据(有必要的话再加数据)来证明它。同时也要排除其它可 能性。放弃与中心命题无关的数据,即使这些数据是很辛苦得来的。

现在到了你写论文的最后一部分。很多人认为讨论部分最难写。他们常常不知道该写什么。学生常常不能把结 果从他们的解释、含意和结论中分离出来。此外,他们不善于思考可能存在的其他解释。好的讨论通常以得到的结 果和解释的评论开始。其它可用于讨论的内容有:参数改变对结果的影响,与其他研究相比还有待解决的问题,将 来或正在进行的工作(防止别人从事你显而易见的,立刻就能实现的后续工作)。这里有一段文章中的讨论部分

结论部分是给读者留下印象的最后机会,要进一步突出自己的贡献。

你还可以开诚布公地承认自己的 缺点 ,其实这会让审稿人留下好印象,并且给其它读者以提升空间,让他们沿着你的方向继续前行。

有一个很不好的做法,就是将摘要、导言里对方法的介绍和结论用同样的话进行表述,甚至互相拷贝。文章的摘要、介绍、结论,要在不同的细节层次上介绍你的方法、强调你的贡献。

[1]给出写好论文的经验如下图所示:

[2]给出的写好论文的经验如下:

我自己的经验是要写好引言,这次ACL2021的审稿人意见主要就是论文的引言部分没有满足审稿人预期。以后论文要重点加强引言和相关工作。

[1] 想法好、表达好、语言好才是好论文,

[2] 好论文要迎合读者预期,

[3] 如何写好introduction,

相关百科

热门百科

首页
发表服务