1人赞同了该回答.1.有一个好的服务器.2.熟悉GitHub的使用.3.下载模型,训练模型,调参实践,慢慢的你就找到文的方向,然后就可以开始水论文了。.发布于10-02.继续浏览内容.
一文了解NLP中的数据增强方法.简枫.慢慢学NLP.366人赞同了该文章.最近研究了一阵文本数据增强的方法,看到国外有一个小哥写了一篇很不错的博客来总结NLP领域数据增强的方法,读完感觉收益颇多,所以周末花了一上午时间翻译了一下全文。.原文地址:A...
2016硕士论文迟迟无法定题,偶然听到隔壁室友在做机器翻译的研究,那是我第一次了解到NLP2017阴差阳错,拒绝了某厂的Sp走进了另一所大学开始攻博,方向NLP2018有了第一篇关于NER的论文2019还缺一本好书YHT同学留言:
吴恩达老师曾经说过,看一篇论文的关键,是复现作者的算法。然而,很多论文根本就复现不了,这是为什么呢?一、数据关系因为作者使用的数据比较私密,一般人拿不到,这种情况下,即使作者提供了源代码,但是读者却拿不到数据,也就没法复现算法。
2019年对自然语言处理(NLP)来说是令人印象深刻的一年。本文将着重讲述一些2019年我在机器学习和自然语言处理领域有所见闻的重要事件。我会把重点主要放...
前言:离上一次写博文已经快半年了,这半年我主要在忙两件事,一个是组里的企业项目,一个是我的第一篇学术论文。时间飞逝,转眼半年过去,从项目中诞生的一个想法最终转换成了我的第一篇学术论文,成功被AAAI接收,这对于刚刚开始博士生涯的我是莫大的鼓励。
第16届NAACL(NAACL2018)将于今年6月1日至6月6日在美国路易斯安那州新奥尔良市举行,接受论文名单已经公布,共收到长论文投稿647篇,其中接受207篇,接受率32%;短论文投稿425篇,接受125篇,接受率29%。
#好久没更新博客了,有时候随手在本上写写,或者Evernote上记记,零零散散的笔记带来零零散散的记忆o(╥﹏╥)o。。还是整理到博客上比较有整体性,也方便查阅~自google在2018年10月底
1人赞同了该回答.1.有一个好的服务器.2.熟悉GitHub的使用.3.下载模型,训练模型,调参实践,慢慢的你就找到文的方向,然后就可以开始水论文了。.发布于10-02.继续浏览内容.
一文了解NLP中的数据增强方法.简枫.慢慢学NLP.366人赞同了该文章.最近研究了一阵文本数据增强的方法,看到国外有一个小哥写了一篇很不错的博客来总结NLP领域数据增强的方法,读完感觉收益颇多,所以周末花了一上午时间翻译了一下全文。.原文地址:A...
2016硕士论文迟迟无法定题,偶然听到隔壁室友在做机器翻译的研究,那是我第一次了解到NLP2017阴差阳错,拒绝了某厂的Sp走进了另一所大学开始攻博,方向NLP2018有了第一篇关于NER的论文2019还缺一本好书YHT同学留言:
吴恩达老师曾经说过,看一篇论文的关键,是复现作者的算法。然而,很多论文根本就复现不了,这是为什么呢?一、数据关系因为作者使用的数据比较私密,一般人拿不到,这种情况下,即使作者提供了源代码,但是读者却拿不到数据,也就没法复现算法。
2019年对自然语言处理(NLP)来说是令人印象深刻的一年。本文将着重讲述一些2019年我在机器学习和自然语言处理领域有所见闻的重要事件。我会把重点主要放...
前言:离上一次写博文已经快半年了,这半年我主要在忙两件事,一个是组里的企业项目,一个是我的第一篇学术论文。时间飞逝,转眼半年过去,从项目中诞生的一个想法最终转换成了我的第一篇学术论文,成功被AAAI接收,这对于刚刚开始博士生涯的我是莫大的鼓励。
第16届NAACL(NAACL2018)将于今年6月1日至6月6日在美国路易斯安那州新奥尔良市举行,接受论文名单已经公布,共收到长论文投稿647篇,其中接受207篇,接受率32%;短论文投稿425篇,接受125篇,接受率29%。
#好久没更新博客了,有时候随手在本上写写,或者Evernote上记记,零零散散的笔记带来零零散散的记忆o(╥﹏╥)o。。还是整理到博客上比较有整体性,也方便查阅~自google在2018年10月底