首页

职称论文知识库

首页 职称论文知识库 问题

机器学习论文发表

发布时间:

发表机器学习论文

一般是会的。在之前国内学术界“唯论文”的大背景下,国内高校在科研论文的奖励上也不吝啬。学校层次不同,奖励的标准和额度也有差异。举个例子,在双非大学一篇中科院一区的SCI论文可奖励3-5万元,而在985高校同样期刊的一篇论文也许只奖励1万元。部分冲刺“ESI1%或1‰”学科的专业,对于论文还有额外30%的奖励提升,引用则是一次50元。硕士生、博士生在读期间发表的论文,和老师的科研奖励不同,得看学校是否有相应政策。就我熟悉的部分院校,没有单独发布针对在读硕士或博士的奖励。但是,研究生发放高水平的论文后,可以评选高一层级的学业奖学金。同时,可申报学校各类奖学金,比如985高校的校长拔尖奖学金博士生特等是9.6万元/年。硕士生、博士生在读期间发表的论文,和老师的科研奖励不同,得看学校是否有相应政策。就我熟悉的部分院校,没有单独发布针对在读硕士或博士的奖励。但是,研究生发放高水平的论文后,可以评选高一层级的学业奖学金。同时,可申报学校各类奖学金,比如985高校的校长拔尖奖学金博士生特等是9.6万元/年。

这是一篇关于机器学习上的算法创新和运用创新方面的论文。 他们将人在循环引入到结构预测领域,这是一种算法上的创新,他们将这种创新的算法通过对ML(机器学习)和DL(深度学习)的综合应用,实现了对电影票房预测准确度的提高,能够给发行商和投资商提供更好的参考价值。 现在的高中生真的很优秀。

arXiv.org,这个不能发中文论文,而且2009后发英文论文也很困难。无名研究者只能挂主流杂志发表过的文章,arXiv.org拒绝非主流杂志比如GALILEAN ELECTRODYNAMICS和PHYSICS ESSAYS等的论文。可能因为名气搞大了,万一你有个大成果抢先欧美研究人员发表在上面了,以后你就是第一发现者了,那是他们不愿意的;另一方面的原因是后来出现很多与主流观点不一致的论文也往那儿投,arXiv.org推崇主流观点,不欢迎任何与主流观点不一致的东西。中国研究者对现在欧美所谓SCITOP期刊和预印服务器必须有一个清醒的认识,开创性的论文提交给那些期刊或预印服务,作用仅仅是启发他们的研究人员抢先写出论文发表,你的论文必然被退回来。这不仅仅因为学术上的小利益,更重要的是科学意识形态称霸世界的政治大利益。arXiv.org原本是挂尚未发表的论文的预印服务器,2009后就升级成为欧美霸权的重要意识形态工具之一了。中科院极力推崇欧美TOP期刊,分什么一、二、三、四区,或因对国际政治斗争认识水平过低所致,抑或欧美培养的学术汉奸推波助澜。我读过nature和pr系列某个领域的大量文章,nature基本上不讲究计算论证,只讲究像写文学作品样写得很好地介绍一些东西,prl很多数学计算是完全错误的。考古方面我无发言权,与理论物理相关的我可以负责任告诉你,作为中国研究人员,如果你写什么光子纠缠量子通信那样有可能消耗很大国力而实际上属于纯粹胡扯的非开创性文章,nature和science或arXiv有可能发表。

会查重,为了规范人工智能学院本科生毕业论文的管理,杜绝学术不端的行为,现对“查重”工作规定如下:第一条 拟申请本科毕业论文答辩的学生,经指导教师同意,在答辩前一个月须向学院提交论文的电子版(具体时间以当年学院规定为准),进行论文的文字复制比比对,逾期未交者不能参加答辩。同时,指导教师需对学生提交的论文版本进行备案。第二条 经比对,论文总文字复制比超过30%(含30%)的,须重新完成论文,下一年重修;论文总文字复制比超过20%(含20%)但未超过30%的,须修改,经指导教师同意后重新提交论文,进行第二次文字复制比比对。第三条 经第二次对比,论文总文字复制比超过 15%(含 15%)的,须重新完成论文,下一年重修;总文字复制比低于 15%(不含15%)的论文允许进入申请答辩程序。指导教师需对进入申请答辩程序的论文版本进行备案。第四条 进入申请答辩程序的论文,以及最后提交给学院的论文,需要与通过文字复制比比对的论文内容基本保持一致。如果有较大修改,需要在指导教师的指导下进行,并需要提交论文的电子版进行再一次的文字复制比比对,总文字复制比低于 20%(不含 20%)的论文允许提交给学院,指导教师需要保存最后提交给学院的论文版本。第五条 如果学生提交的论文不满足第四条条件,本科毕业论文工作领导小组有权取消其答辩资格及成绩。第六条 如果学生对文字复制比的比对结果有异议,经指导教师同意,可以向学院提出申诉,学院将提交给院学术委员会进行评议,其评议结果将为最终结果。

机器学习论文发表

着急吃不着热豆腐!这是我奶奶告诉我滴,这一次不能盲目,不要盲目!

宁波中学三名高中生的论文在国际核心期刊上发表,这是一篇关于机器学习上的算法创新和运用创新方面的论文。

宁波中学三名高中生的论文在国际核心期刊上发表

在看到这篇热搜的时候,让我感到这真是一个人才辈出的时代,不知道大家有没有看到这样一个热搜,宁波中学的三名高中生的论文在国际核心期刊上发表了,这则消息出来的时候,有很多人都和我是一样的感慨,他们感慨的是现在的高中生都如此的厉害了,高中阶段就能够有这样的学习成果,真的令人欣慰。

这三名高中生发表的是关于什么方面的论文

在对这三位高中生能够在国际核心期刊上发表论文惊叹的同时,大家一定也非常好奇这到底是一篇关于什么方面的论文吧,据其中的一位同学介绍,他们的这篇论文主要是关于机器学习上的算法创新和运用创新方面的,他们将人在循环引入到结构预测领域,这是一种算法上的创新,他们将这种创新的算法通过对ML(机器学习)和DL(深度学习)的综合应用,实现了对电影票房预测准确度的提高,能够给发行商和投资商提供更好的参考价值。

这项研究成果不仅能够把人在循环引入数据预测方面,还能够对其他领域的数据进行预测,从而在其他研究上给予启发作用。很多网友都不仅感叹,这三位学生,在高中时期就能够取得这样具有研究性的学习成果,真的是令人既惊喜又欣慰。

这三位高中生就是一个时代的缩影,现在的新生代青少年有着过去人们不曾拥有的优越的学习条件,这些条件为他们创造了更好的学习环境,也让这些孩子们有了更加开阔眼界的机会,希望这些有志的青少年们对自己的特长和未来的方向有更加清晰的认知,将来为祖国建设出一份力。

【1950-1956年是人工智能的诞生年】图灵测试1950Dartmouth 会议1956(1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。)【1956-1974 年是人工智能的黄金年】第一个人工智能程序LT逻辑理论家1958(西蒙和纽维尔)LISP编程语言1958(约翰麦卡锡)用于机器翻译的语义网1960(马斯特曼和剑桥大学同事)模式识别-第一个机器学习论文发表(1963)Dendral 专家系统1965基于规则的Mycin医学诊断程序1974【1974-1980年是人工智能第一个冬天】人工智能:综合调查1973(来特希尔)项目失败,列强削减科研经费【1980-1987年是人工智能繁荣期】AAAI在斯坦福大学召开第一届全国大会1980日本启动第五代计算机用于知识处理1982决策树模型带动机器学习复苏1980中期ANN及多层神经网络1980中期【1987-1993年是人工智能第二个冬天】Lisp机市场崩溃1987列强再次取消科研经费1988专家系统滑翔谷底1993日本第五代机退场1990年代【1993-现在突破期】IBM深蓝战胜卡斯帕罗夫1997斯坦福大学Stanley 赢得无人驾驶汽车挑战赛2005深度学习论文发表2006IBM的沃森机器人问答比赛夺魁2011谷歌启动谷歌大脑2011苹果公司的Siri上线2012微软通用实时翻译系统2012微软Cortana 上线2014百度度秘2015IBM发布truenorth芯片2014阿尔法狗打败人类棋手2016

人工智能1

机器学习发表sci论文

医刊汇觉得在SCI论文写作中一项科研工作基本完成之后,动手写作之前,先要缜密构思,尽力做到条理清晰,准确生动。在写作SCI论文之前应做好如下准备:1.明确论文的主题:采用何种思路、观点和方法,解决了什么问题,尤其是,确认应突出的创新点,想清楚怎样用鲜明的观点统领材料;2.整理所获得的成果。对原始材料进行去粗取精、去伪存真的精加工;把公式、数据、图表等整理成可发表的形式;3.确定拟写作SCI论文类别:快报(letter),普通文章(ordinaryarticle),还是评述(reviewarticle);4.选定拟投稿的目标刊物,熟悉该刊物的“投稿须知”;5.拟定SCI论文大纲,考虑好成果的最佳表述形式。熟悉这些之后就可以快速上手,减少整个周期的时间,希望能帮到你

international journal of machine learning and cybernetics指的是国际机器学习与控制论杂志,是SCI,2015年影响因子是1.11。SCI(《科学引文索引》,英文全称是Science Citation Index)是美国科学情报研究所出版的一个世界著名的期刊文献检索工具。被SCI收录可能通过直接进入SCI-E数据库检索来确定。如查某人第一作者发表的所有论文,可以直接用其姓名查找,遵照姓全称,名首字母缩写的原则。它收录全世界出版的数、理、化、农、林、医、生命科学、天文、地理、环境、材料、工程技术等自然科学各学科的核心期刊3700多种。通过其严格的选刊标准和评估程序来挑选刊源,使得SCI收录的文献能够全面覆盖全世界最重要和最有影响力的研究成果。SCI从来源期刊数量划分为SCI和SCI-E。SCI指来源刊为3700多种的SCI印刷版和SCI光盘版(SCI Compact Disc Edition, 简称SCI CDE),SCI-E(SCI Expanded)是SCI的扩展库,收录了5600多种来源期刊,可通过国际联机或因特网进行检索。

国际机器学习与控制论杂志

是SCI,2015年最新IF:1.11是13年后进入SCI核心库,16年第一次公布IF(2015的IF 和近5年的IF)。

机器学习期刊投稿

appliedintelligence的proof需要具体看应用的类型,一般来说,appliedintelligence的proof需要花费一些时间来完成,可能需要几天或者几周。

关于期刊录用难易程度的问题,很难有一个一概而论的答案。不同的期刊在录用方面有自己的标准和要求,而且各个领域的期刊对于文章的难度及录用标准也是不同的。就Intelligent Data Analysis这个期刊而言,它是专门发表数据分析领域高质量研究论文的国际性期刊。Intelligent Data Analysis作为一个学术水平较高的期刊,对于文章的质量、原创性和实用性等方面都有较高的要求。因此,能否被该期刊录用取决于申稿文章的质量和是否符合该期刊的审稿标准。如果你想在该期刊发表文章,建议你花时间研究该期刊发表的论文类型、引用规则等,精心制作论文并根据该期刊的官方要求进行修改。同时,你可以通过阅读该期刊发表的其他优秀论文,了解该期刊的审稿标准和要求,提高自己的写作水平和论文质量,从而增加文章被录用的机会。

应用智能(Applied Intelligence)的proof一般指的是把技术应用到实际的场景中,以验证其可行性和有效性。一般来说,这个proof的时间取决于项目的复杂程度,以及所需要的数据量和计算量。

对于普通学者而言,想要在Intelligent data analysis (IDA)期刊上发表文章是比较具有挑战性的。因为该期刊越来越受到国内外科研人员的关注和认可,已经成为数据挖掘、、机器学习等领域的重要刊物之一,因此被录用是非常困难的。IDA期刊对论文质量和创新性的要求非常高,只有那些切实做出重大贡献并且具有深入思考和独特见解的论文才能被录用。而且,IDA期刊的审稿非常严格,需要通过多轮评审才能决定是否可以发表,所以投稿作者需要耐心等待。总的来说,如果想要在IDA期刊上发表文章,需要具备深刻的学术研究背景、独特的研究观点、对当前研究热点问题有自己的独特见解,并且有良好的写作技巧和高质量的实验结果支撑才有可能被录用。

机器学习论文发表时间

【1950-1956年是人工智能的诞生年】图灵测试1950Dartmouth 会议1956(1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。)【1956-1974 年是人工智能的黄金年】第一个人工智能程序LT逻辑理论家1958(西蒙和纽维尔)LISP编程语言1958(约翰麦卡锡)用于机器翻译的语义网1960(马斯特曼和剑桥大学同事)模式识别-第一个机器学习论文发表(1963)Dendral 专家系统1965基于规则的Mycin医学诊断程序1974【1974-1980年是人工智能第一个冬天】人工智能:综合调查1973(来特希尔)项目失败,列强削减科研经费【1980-1987年是人工智能繁荣期】AAAI在斯坦福大学召开第一届全国大会1980日本启动第五代计算机用于知识处理1982决策树模型带动机器学习复苏1980中期ANN及多层神经网络1980中期【1987-1993年是人工智能第二个冬天】Lisp机市场崩溃1987列强再次取消科研经费1988专家系统滑翔谷底1993日本第五代机退场1990年代【1993-现在突破期】IBM深蓝战胜卡斯帕罗夫1997斯坦福大学Stanley 赢得无人驾驶汽车挑战赛2005深度学习论文发表2006IBM的沃森机器人问答比赛夺魁2011谷歌启动谷歌大脑2011苹果公司的Siri上线2012微软通用实时翻译系统2012微软Cortana 上线2014百度度秘2015IBM发布truenorth芯片2014阿尔法狗打败人类棋手2016

【1950-1956年是人工智能的诞生年】图灵测试1950Dartmouth 会议1956(1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。)【1956-1974 年是人工智能的黄金年】第一个人工智能程序LT逻辑理论家1958(西蒙和纽维尔)LISP编程语言1958(约翰麦卡锡)用于机器翻译的语义网1960(马斯特曼和剑桥大学同事)模式识别-第一个机器学习论文发表(1963)Dendral 专家系统1965基于规则的Mycin医学诊断程序1974【1974-1980年是人工智能第一个冬天】人工智能:综合调查1973(来特希尔)项目失败,列强削减科研经费【1980-1987年是人工智能繁荣期】

2019 年可以说是「预训练模型」流行起来的一年。自 BERT 引发潮流以来,相关方法的研究不仅获得了 EMNLP 大会最佳论文等奖项,更是在 NLP、甚至图像领域里引领了风潮。

去年也有很多 游戏 AI 取得了超越人类的水平。人工智能不仅已经玩转德州扑克、星际争霸和 Dota2 这样复杂的 游戏 ,还获得了 Nature、Science 等顶级期刊的肯定。

机器之心整理了去年全年 在人工智能、量子计算等领域里最为热门的七项研究 。让我们以时间的顺序来看:

第一个重磅研究出现在 2 月,继发布刷新 11 项 NLP 任务记录的 3 亿参数量语言模型 BERT 之后,谷歌 OpenAI 于 2019 年 2 月再次推出了一种更为强大的模型,而这次的模型参数量达到了 15 亿。这是一种 大型无监督语言模型 ,能够生产连贯的文本段落,在许多语言建模基准上取得了 SOTA 表现。此外,在没有任务特定训练的情况下,该模型能够做到初步的阅读理解、机器翻译、问答和自动摘要。

该模型名为 GPT-2,它是基于 Transformer 的大型语言模型,包含 15 亿参数、在一个 800 万网页数据集上训练而成。训练 GPT-2 有一个简单的目标:给定一个文本中前面的所有单词,预测下一个单词。GPT-2 是对 GPT 模型的直接扩展,在超出 10 倍的数据量上进行训练,参数量也多出了 10 倍。

GPT-2 展示了一系列普适而强大的能力,包括生成当前最佳质量的条件合成文本,其中我们可以将输入馈送到模型并生成非常长的连贯文本。此外,GPT-2 优于在特定领域(如维基百科、新闻或书籍)上训练的其它语言模型,而且还不需要使用这些特定领域的训练数据。在 知识问答、阅读理解、自动摘要和翻译等任务 上,GPT-2 可以从原始文本开始学习,无需特定任务的训练数据。虽然目前这些下游任务还远不能达到当前最优水平,但 GPT-2 表明如果有足够的(未标注)数据和计算力,各种下游任务都可以从无监督技术中获益。

最后,基于大型通用语言模型可能会产生巨大的 社会 影响,也考虑到模型可能会被用于恶意目的,在发布 GPT-2 时,OpenAI 采取了以下策略: 仅发布 GPT-2 的较小版本和示例代码,不发布数据集、训练代码和 GPT-2 模型权重 。

机器学习顶会的最佳论文,总会引起人们的广泛讨论。在今年 6 月于美国加州举办的 ICML 2019(国际机器学习大会)上,由苏黎世联邦理工学院(ETH)、德国马普所、谷歌大脑共同完成的《Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations》获得了其中一篇最佳论文。研究者在论文中提出了一个与此前学界普遍预测相反的观点:对于任意数据,拥有相互独立表征(解耦表征)的无监督学习是不可能的。

论文链接:

在这篇论文中,研究者冷静地审视了该领域的最新进展,并对一些常见的假设提出了质疑。

首先,研究者表示从理论上来看,如果不对模型和数据进行归纳偏置,无监督学习解耦表征基本是不可能的;然后他们在七个不同数据集进行了可复现的大规模实验,并训练了 12000 多个模型,包括一些主流方法和评估指标;最后,实验结果表明,虽然不同的方法强制执行了相应损失「鼓励」的属性,但如果没有监督,似乎无法识别完全解耦的模型。此外,增加的解耦似乎不会导致下游任务学习的样本复杂度的下降。

研究者认为,基于这些理论,机器学习从业者对于超参数的选择是没有经验法则可循的,而在已有大量已训练模型的情况下, 无监督的模型选择仍然是一个很大的挑战 。

去年 6 月,来自德国波恩-莱茵-锡格应用技术大学和谷歌大脑的研究者发表了一篇名为《Weight Agnostic Neural Networks》的论文,进而引爆了机器学习圈。在该论文中,他们提出了一种神经网络架构搜索方法, 这些网络可以在不进行显式权重训练的情况下执行各种任务 。

论文链接:

通常情况下,权重被认为会被训练成 MNIST 中边角、圆弧这类直观特征,而如果论文中的算法可以处理 MNIST,那么它们就不是特征,而是函数序列/组合。对于 AI 可解释性来说,这可能是一个打击。很容易理解,神经网络架构并非「生而平等」,对于特定任务一些网络架构的性能显著优于其他模型。但是相比架构而言,神经网络权重参数的重要性到底有多少?

来自德国波恩-莱茵-锡格应用技术大学和谷歌大脑的一项新研究提出了一种神经网络架构搜索方法,这些网络可以在不进行显式权重训练的情况下执行各种任务。

为了评估这些网络,研究者使用从统一随机分布中采样的单个共享权重参数来连接网络层,并评估期望性能。结果显示,该方法可以找到少量神经网络架构,这些架构可以在没有权重训练的情况下执行多个强化学习任务,或 MNIST 等监督学习任务。

BERT 带来的影响还未平复,CMU 与谷歌大脑 6 月份提出的 XLNet 在 20 个任务上超过了 BERT 的表现,并在 18 个任务上取得了当前最佳效果。

来自卡耐基梅隆大学与谷歌大脑的研究者提出新型预训练语言模型 XLNet,在 SQuAD、GLUE、RACE 等 20 个任务上全面超越 BERT。

作者表示, BERT 这样基于去噪自编码器的预训练模型可以很好地建模双向语境信息,性能优于基于自回归语言模型的预训练方法 。然而,由于需要 mask 一部分输入,BERT 忽略了被 mask 位置之间的依赖关系,因此出现预训练和微调效果的差异(pretrain-finetune discrepancy)。

基于这些优缺点,该研究提出了一种泛化的自回归预训练模型 XLNet。XLNet 可以:1)通过最大化所有可能的因式分解顺序的对数似然,学习双向语境信息;2)用自回归本身的特点克服 BERT 的缺点。此外,XLNet 还融合了当前最优自回归模型 Transformer-XL 的思路。

延伸阅读:

2019 年 7 月,在无限制德州扑克六人对决的比赛中,德扑 AI Pluribus 成功战胜了五名专家级人类玩家。Pluribus 由 Facebook 与卡耐基梅隆大学(CMU)共同开发,实现了前辈 Libratus(冷扑大师)未能完成的任务,该研究已经登上了当期《科学》杂志。

据介绍,Facebook 和卡内基梅隆大学设计的比赛分为两种模式:1 个 AI+5 个人类玩家和 5 个 AI+1 个人类玩家,Pluribus 在这两种模式中都取得了胜利。如果一个筹码值 1 美元,Pluribus 平均每局能赢 5 美元,与 5 个人类玩家对战一小时就能赢 1000 美元。职业扑克玩家认为这些结果是决定性的胜利优势。 这是 AI 首次在玩家人数(或队伍)大于 2 的大型基准 游戏 中击败顶级职业玩家 。

在论文中,Pluribus 整合了一种新的在线搜索算法,可以通过搜索前面的几步而不是只搜索到 游戏 结束来有效地评估其决策。此外,Pluribus 还利用了速度更快的新型 Self-Play 非完美信息 游戏 算法。综上所述,这些改进使得使用极少的处理能力和内存来训练 Pluribus 成为可能。 训练所用的云计算资源总价值还不到 150 美元 。这种高效与最近其他人工智能里程碑项目形成了鲜明对比,后者的训练往往要花费数百万美元的计算资源。

Pluribus 的自我博弈结果被称为蓝图策略。在实际 游戏 中,Pluribus 使用搜索算法提升这一蓝图策略。但是 Pluribus 不会根据从对手身上观察到的倾向调整其策略。

在人工智能之外的量子计算领域,去年也有重要的研究突破。2019 年 9 月,谷歌提交了一篇名为《Quantum supremacy using a programmable superconducting processor》的论文自 NASA 网站传出,研究人员首次在实验中证明了量子计算机对于传统架构计算机的优越性:在世界第一超算 Summit 需要计算 1 万年的实验中,谷歌的量子计算机只用了 3 分 20 秒。因此,谷歌宣称实现「量子优越性」。之后,该论文登上了《自然》杂志 150 周年版的封面。

这一成果源自科学家们不懈的努力。谷歌在量子计算方向上的研究已经过去了 13 年。2006 年,谷歌科学家 Hartmut Neven 就开始 探索 有关量子计算加速机器学习的方法。这项工作推动了 Google AI Quantum 团队的成立。2014 年,John Martinis 和他在加利福尼亚大学圣巴巴拉分校(UCSB)的团队加入了谷歌的工作,开始构建量子计算机。两年后,Sergio Boixo 等人的论文发表,谷歌开始将工作重点放在实现量子计算优越性任务上。

如今,该团队已经构建起世界上第一个超越传统架构超级计算机能力的量子系统,可以进行特定任务的计算。

量子优越性实验是在一个名为 Sycamore 的 54 量子比特的完全可编程处理器上运行的。该处理器包含一个二维网格,网格中的每个量子比特与其他四个相连。量子优越性实验的成功归功于谷歌改进了具有增强并行性的双量子比特门,即使同时操作多个门,也能可靠地实现记录性能。谷歌使用一种新型的控制旋钮来实现这一性能,该旋钮能够关闭相邻量子比特之间的交互。此举大大减少了这种多连通量子比特系统中的误差。此外,通过优化芯片设计来降低串扰,以及开发避免量子比特缺陷的新控制校准,谷歌进一步提升了性能。

虽然 AI 没有打败最强人类玩家 Serral,但其研究的论文仍然登上了 Nature。2019 年 10 月底,DeepMind 有关 AlphaStar 的论文发表在了当期《Nature》杂志上,这是人工智能算法 AlphaStar 的最新研究进展,展示了 AI 在「没有任何 游戏 限制的情况下」已经达到星际争霸Ⅱ人类对战天梯的顶级水平,在 Battle.net 上的排名已超越 99.8%的活跃玩家 。

回顾 AlphaStar 的发展历程,DeepMind 于 2017 年宣布开始研究能进行即时战略 游戏 星际争霸Ⅱ的人工智能——AlphaStar。2018 年 12 月 10 日,AlphaStar 击败 DeepMind 公司里的最强玩家 Dani Yogatama;12 月 12 日,AlphaStar 已经可以 5:0 击败职业玩家 TLO 了(TLO 是虫族玩家,据 游戏 解说们认为,其在 游戏 中的表现大概能有 5000 分水平);又过了一个星期,12 月 19 日,AlphaStar 同样以 5:0 的比分击败了职业玩家 MaNa。至此,AlphaStar 又往前走了一步,达到了主流电子竞技 游戏 顶级水准。

根据《Nature》论文描述,DeepMind 使用通用机器学习技术(包括神经网络、借助于强化学习的自我博弈、多智能体学习和模仿学习)直接从 游戏 数据中学习。AlphaStar 的 游戏 方式令人印象深刻——这个系统非常擅长评估自身的战略地位,并且准确地知道什么时候接近对手、什么时候远离。此外,论文的中心思想是将 游戏 环境中虚构的自我博弈扩展到一组智能体,即「联盟」。

联盟这一概念的核心思想是:仅仅只是为了赢是不够的。相反,实验需要主要的智能体能够打赢所有玩家,而「压榨(exploiter)」智能体的主要目的是帮助核心智能体暴露问题,从而变得更加强大。这不需要这些智能体去提高它们的胜率。通过使用这样的训练方法,整个智能体联盟在一个端到端的、完全自动化的体系中学到了星际争霸Ⅱ中所有的复杂策略。

2019 年在 AI 领域的各个方向上都出现了很多技术突破。新的一年,我们期待更多进展。

此外,机器之心于 2019 年 9 月底推出了自己的新产品 SOTA 模型,读者可以根据自己的需要寻找机器学习对应领域和任务下的 SOTA 论文,平台会提供论文、模型、数据集和 benchmark 的相关信息。

人工智能1

相关百科

热门百科

首页
发表服务