作为一个老“水母”,来回答一下。当然我博士期间也有获奖的好的代表作,刚开始为了好好工作,有志青年的代表我,为了一个实验还去google,M实习去跑,和多个大佬沟通,资格考过了之后,有了女朋友,没啥压力了,好好做科研,做ispiring的科研的时候,一年能出1-2篇顶会一作吧。
说明:本文欢迎转载,请注明作者、出处与原文链接。前几天刚过完ACL2019投稿季,给不少同学的论文提供了修改建议。其中很多论文,特别是初学者的论文的问题都很相似。一想到未来还要给更多新同学重复这些话,决定…
2、如果你主卖的就不是性能,就不需要,比如我主卖速度快,在性能只掉一点的情况下,速度大幅度提升,这就完全不用sota了。如果此时你还到了sota,还会写论文的话,那基本问题不大了。我个人觉得什么时候需要:
清华大学刘知远:如何写一篇合格的NLP论文.刚刚,清华大学副教授、博士生导师刘知远老师在知乎上发表了一些文章,为学习NLP的同学提供了论文写作指导。.机器之心经授权转载此文章。.前几天刚过完ACL2019投稿季,给不少同学的论文提供了修改建议...
每天给你送来NLP技术干货!来自:微软亚洲研究院随着AI领域越来越火热,各大顶会的论文发布似乎也越来越难:AAAI2020放榜,8800篇提交论文创历史记录;CVPR2020...
2016硕士论文迟迟无法定题,偶然听到隔壁室友在做机器翻译的研究,那是我第一次了解到NLP2017阴差阳错,拒绝了某厂的Sp走进了另一所大学开始攻博,方向NLP2018有了第一篇关于NER的论文2019还缺一本好书YHT同学留言:
nlp方向任务做了不少,有思路咨询的话可以私聊。。注:也有nlp论文共同阅读群,每周都会分享最新nlp论文+讨论(各种大厂在职+名校硕士),如有想参加的也可以私聊。参加需要参与分享。
重赏之下必有勇夫。高中生还有naturalscience的呢,大家都懂说,肯定有大佬加持而已。回过来,CV/NLP这两个要求知识积累相对少。新的领域大家都是靠小修小补做实验,比如Science批评说,81种剪枝算法几乎没任何效果区别。
如果论文的主题是全新的,这样一来我们就没有现有的对比工作,或者所有现有的工作都是在另外的领域完成的。我们需要对涉足新领域的论文保持兴趣。论文介绍的是研究资源。在像NLP这样依赖于有监督机器学习的领域中,数据集的开发与建模工作同等重要。
1.了解NLP的最基本知识:Jurafsky和Martin的SpeechandLanguageProcessing是领域内的经典教材,里面包含了NLP的基础知识、语言学扫盲知识、基本任务以及解决思路。.阅读此书会接触到很多NLP的最基本任务和知识,比如tagging,各种parsing,coreference,semanticrole...
作为一个老“水母”,来回答一下。当然我博士期间也有获奖的好的代表作,刚开始为了好好工作,有志青年的代表我,为了一个实验还去google,M实习去跑,和多个大佬沟通,资格考过了之后,有了女朋友,没啥压力了,好好做科研,做ispiring的科研的时候,一年能出1-2篇顶会一作吧。
说明:本文欢迎转载,请注明作者、出处与原文链接。前几天刚过完ACL2019投稿季,给不少同学的论文提供了修改建议。其中很多论文,特别是初学者的论文的问题都很相似。一想到未来还要给更多新同学重复这些话,决定…
2、如果你主卖的就不是性能,就不需要,比如我主卖速度快,在性能只掉一点的情况下,速度大幅度提升,这就完全不用sota了。如果此时你还到了sota,还会写论文的话,那基本问题不大了。我个人觉得什么时候需要:
清华大学刘知远:如何写一篇合格的NLP论文.刚刚,清华大学副教授、博士生导师刘知远老师在知乎上发表了一些文章,为学习NLP的同学提供了论文写作指导。.机器之心经授权转载此文章。.前几天刚过完ACL2019投稿季,给不少同学的论文提供了修改建议...
每天给你送来NLP技术干货!来自:微软亚洲研究院随着AI领域越来越火热,各大顶会的论文发布似乎也越来越难:AAAI2020放榜,8800篇提交论文创历史记录;CVPR2020...
2016硕士论文迟迟无法定题,偶然听到隔壁室友在做机器翻译的研究,那是我第一次了解到NLP2017阴差阳错,拒绝了某厂的Sp走进了另一所大学开始攻博,方向NLP2018有了第一篇关于NER的论文2019还缺一本好书YHT同学留言:
nlp方向任务做了不少,有思路咨询的话可以私聊。。注:也有nlp论文共同阅读群,每周都会分享最新nlp论文+讨论(各种大厂在职+名校硕士),如有想参加的也可以私聊。参加需要参与分享。
重赏之下必有勇夫。高中生还有naturalscience的呢,大家都懂说,肯定有大佬加持而已。回过来,CV/NLP这两个要求知识积累相对少。新的领域大家都是靠小修小补做实验,比如Science批评说,81种剪枝算法几乎没任何效果区别。
如果论文的主题是全新的,这样一来我们就没有现有的对比工作,或者所有现有的工作都是在另外的领域完成的。我们需要对涉足新领域的论文保持兴趣。论文介绍的是研究资源。在像NLP这样依赖于有监督机器学习的领域中,数据集的开发与建模工作同等重要。
1.了解NLP的最基本知识:Jurafsky和Martin的SpeechandLanguageProcessing是领域内的经典教材,里面包含了NLP的基础知识、语言学扫盲知识、基本任务以及解决思路。.阅读此书会接触到很多NLP的最基本任务和知识,比如tagging,各种parsing,coreference,semanticrole...