首页

职称论文知识库

首页 职称论文知识库 问题

deepmind近期发表论文

发布时间:

deepmind近期发表论文

2021年,信息技术发展突飞猛进。人工智能、大数据、开源、虚拟现实(VR)、增强现实(AR)……每个领域的发展几乎都可圈可点。 在人工智能领域,人工智能的语言大模型、图文大模型乃至多模态大模型的基本能力已得到了充分展现。例如,阿里巴巴达摩院公布多模态大模型M6最新进展,参数从万亿跃迁至10万亿;鹏城实验室与百度联合发布全球首个知识增强千亿大模型——鹏城—百度·文心,参数规模达到2600亿。 不仅如此,人工智能与其他科学领域的交叉融合也擦出火花。在《科学》近日公布的2021年度科学突破榜单上,AlphaFold和RoseTTA-fold两种基于人工智能预测蛋白质结构的技术位列榜首。 在人机交互领域,扎克伯格将Facebook公司更名为“Meta”时,特斯拉和SpaceX首席执行官埃隆·马斯克则将注意力放在脑机接口上。马斯克认为脑机接口装置将更有可能改变世界,帮助四肢瘫痪或有身体缺陷的人更好地生活和工作,“复杂的脑机接口装置可以让你完全沉浸在虚拟现实中”。此外,今年5月,斯坦福大学开发出一套皮质内脑机接口系统,可以从运动皮层的神经活动中解码瘫痪患者想象中的手写动作,并将其转换为文本。 在超算领域,最值得一提的是,今年11月,我国超算应用团队凭借“超大规模量子随机电路实时模拟”成果斩获国际高性能计算应用领域的最高奖项“戈登贝尔奖”。 在开源方面,RISC-V开源指令集及其生态快速崛起;由华为公司牵头,中国科学院软件研究所、麒麟软件等参与的openEuler操作系统开源社区业已汇聚了7000名活跃开发者,完成8000多个自主维护的开源软件包,催生了10多家厂商的商业发行版…… 回望2021年,信息技术版邀请业内专家梳理上述四个领域的发展脉络,展望未来发展趋势。 作者 张双虎AlphaFold或是2021年人工智能(AI)领域的“一哥”。 近日,《科学》杂志公布了 2021 年度科学突破榜单,AlphaFold 和 RoseTTA-fold 两种基于人工智能预测蛋白质结构的技术位列榜首。 此前几天,由中国工程院院刊评选的“2021全球十大工程成就(近5年全球实践验证有效、有全球影响力的工程科学和技术重大成果)”中,AlphaGo和AlphaFold亦榜上有名。 在接受《中国科学报》采访时,数位专家回望今年人工智能领域取得的成就时,均谈到了AlphaFold。 “面向科学发现的AlphaFold和中国正在构建的人工智能发展生态不能不说。” 浙江大学人工智能研究所所长吴飞对《中国科学报》说。 中科院自动化研究所模式识别国家重点实验室研究员王金桥则提名“用AI进行新冠诊断”“人工智能与生物、制药、材料等科学融合(AI for Science)”和“三模态大模型紫东太初”。 在医学领域,AI识别咳嗽声早已用于肺炎、哮喘、阿尔茨海默氏症等疾病检测。美国麻省理工学院研究人员研发出可以通过分析咳嗽录音识别新冠患者的AI模型,识别出新冠患者咳嗽的准确率为98.5%,其中识别无症状感染者的准确度高达100%。日前,有报道称该模型已用于识别奥密克戎病毒。 “紫东太初首次实现了图—文—音语义统一表达,兼具跨模态理解和生成能力。” 王金桥说,“目前与新华社共同发布的‘全媒体多模态大模型研发计划’,实现对全媒体数据理解与生成的统一建模,打造全栈国产化媒体人工智能平台,已 探索 性地应用于纺织业和 汽车 行业质检等场景。” 12月7日, 科技 部官网公布3份函件,支持哈尔滨、沈阳、郑州3地建设国家新一代人工智能创新发展试验区。至此,我国已经有18个国家新一代人工智能创新发展试验区,这将引领带动中国人工智能创新发展。 “我国正在推动人工智能生态发展,构建良好生态。”吴飞说,“目前已有15个国家新一代人工智能开发创新平台、18个国家新一代人工智能创新发展试验区、8个人工智能创新应用先导区和高等学校设置的人工智能本科专业和交叉学科等人才培养载体。” “一是大模型,二是人工智能和基础学科的结合。”孙茂松对《中国科学报》说,“语言大模型、图文大模型乃至多模态大模型的基本能力已得到了充分展现,确定了它作为智能信息处理基础软设施的地位。同时,它并非简单地扩大规模,而是对数字资源整合能力和计算能力都提出了挑战。虽然它的局限性也很明显,但它所表现出的某些‘奇特’性质(如少样本学习、深度双下降、基于提示的任务调整等),使学者产生了超大参数规模或会引发质变的期待,从而为新的突破埋下了伏笔。” 今年,人工智能领域从“大炼模型”走向“炼大模型”阶段,从千亿量级到万亿量级,在大模型领域,似乎没有最大,只有更大。 3月,北京智源人工智能研究院发布我国首个超大规模人工智能模型“悟道1.0”。6月,智源就改写了自己的纪录,发布悟道2.0,参数规模达到1.75万亿;9月,浪潮人工智能研究院推出了中文巨量语言模型——源 1.0,参数量达2457亿;11 月,阿里巴巴达摩院公布多模态大模型 M6 最新进展,参数从万亿跃迁至 10 万亿;12月,鹏城实验室与百度联合发布全球首个知识增强千亿大模型——鹏城—百度·文心,参数规模达到2600亿。 与此相应,最近快手和苏黎世联邦理工学院提出了一个新的推荐系统Persia,最高支持100万亿级参数的模型训练。 另一方面,人工智能在基础学科领域不断攻城略地。 7月,DeepMind公司人工智能程序Alphafold2研究成果又登顶《自然》,在结构生物学研究领域,人工智能或带领生物学、医学和药学挺进新天地;11月,美国南加利福尼亚大学研究人员通过脑机连接设备,让猴子玩 游戏 和跑步机,从而进行神经活动数据研究;12月,DeepMind开发的机器学习框架,已帮助人们发现了纯数学领域的两个新猜想,展示了机器学习支持数学研究的潜力。 “今年人工智能在各行业应用方面也取得不小的成绩。”孙茂松说,“人工智能与基础学科结合已显示出巨大潜力,发表了多篇顶级论文,已展露出某种较强的趋势性,即‘人工智能+基础科学’大有可为。” 作者 张双虎脑机接口、AR眼镜、智能语音、肌电手环、隔空手势识别……2021年,从基础研究到应用落地,人机交互领域风起云涌。不管是智能 健康 、元宇宙,还是自动驾驶领域的蓬勃发展,似乎都表明,人机交互正站在产业化落地的门口。 “我们研发的高通量超柔性神经电极已通过科研临床伦理审批,即将开展脑机接口人体临床试验。”中科院上海微系统所副所长、传感技术联合国家重点实验室副主任陶虎对《中国科学报》说,“安全稳定地大规模采集人体大脑的神经元信号并进行闭环调控,将实现病人感知和运动功能的修复。” 脑机接口技术给患者带来越来越多的便利。今年5月,斯坦福大学研究人员在《自然》发表封面论文,开发出一套皮质内脑机接口系统,可以从运动皮层的神经活动中解码瘫痪患者想象中的手写动作,并将其转换为文本。借助该系统,受试者(因脊髓损失瘫痪)每分钟可以打出近百个字符,且自动更正后的离线准确率超过了 99%。 不久前,马斯克表示,希望明年能在人类身上使用Neuralink 的微芯片装置。该芯片将用于治疗脊髓损伤、帕金森氏症等脑部疾病和神经系统疾病。目前,相关技术正在等待美国食品药品监督管理局的批准。 “脑机接口领域已经蓄积了相当的技术,有望成为解决大脑疾病的利器。”陶虎说,“大家都在抢占临床应用的先机,明年可能会实现技术落地应用。预计两三年内,国内会出现可媲美马斯克Neuralink的独角兽企业。” “人机交互将引申出新的万亿级市场。”福州大学特聘教授严群这句判断,也囊括了元宇宙这个巨大的市场。 有人称2021年是“元宇宙元年”,也有人认为这不过是“旧瓶装新酒”。但无论如何,元宇宙已是今年人机交互领域绕不开的话题。 “元宇宙是虚拟现实、增强现实和混合现实的综合,它实际上并非新的东西。”北京邮电大学人机交互与认知工程实验室主任刘伟告诉《中国科学报》,“元宇宙是现实世界和虚拟世界跨越未来的发展方向,但还有些技术问题未能很好地解决。” 在真实世界里,人机交互问题和人机环境系统的混合问题未能很好地解决。真实世界的人机交互中,不管是输入、处理还是输出过程中,客观数据、主观信息和知识依然不能完美融合。 刘伟认为,无论真实世界还是虚拟世界,人类和机器决策都有“快决策”和“慢决策”过程。人类决策有时依靠逻辑决策多些,有时直觉决策多些,这种“混合决策”不断变换,而且很难找到变化规律。这方面的问题机器决策目前还未能解决。 “元宇宙还处在画饼的前期阶段。”刘伟说,“因为它的底层机理没有解决——人在真实世界里未能完美解决人机交互的问题,带到元宇宙里同样不能解决。” 谈到人机交互,刘伟认为第二个不能不说的问题是“复杂领域”。 “今年的诺贝尔物理学奖,也给了复杂系统预测气候变化模型的提出者。”刘伟说,“人机交互也是一个复杂系统,它既包括重复的问题,还包括杂乱的、跨域协同的问题。” 刘伟认为,从智能的角度说,复杂系统包括三个重要组成部分,一是人,二是装备(人造物),三是环境。这其实是多个事物之间相互作用,交织在一起、既纠缠又重叠的“人机环系统”问题。 “在人机交互中,机器强在处理‘复’的问题,人擅长管‘杂’的事——跨域协同、事物间平衡等。因为人们还没找到复杂事物的简单运行规律,所以解决所有智能产品、智能系统问题,要从人、机、环这个系统里找它们的结合、融合和交互点。而且,人要在这个系统中处于主导地位。” 人机交互领域引起刘伟重视的第三个现象,是“人工智能帮数学家发现了一些定律”。“最近,DeepMind研发了一个机器学习框架,能帮助数学家发现新的猜想和定理。”刘伟说,“人工智能是一个基本的数学工具,同时,数学又反映了一些基本规律。如果人工智能可以帮助数学家处理一些数学问题,那么,人们将更好地认识复杂系统的简单规律,人机交互方面就可能会取得新突破。” 作者 张云泉(中国科学院计算技术研究所研究员) 今年是我国超算应用实现丰收的一年。 11月中旬在美国举行的全球超算大会(SC21)上,中国超算应用团队凭借基于一台神威新系统对量子电路开创性的模拟(“超大规模量子随机电路实时模拟”),一举摘得国际上高性能计算应用领域的最高学术奖——“戈登贝尔奖”。 同时,在SC 21大学生超算竞赛总决赛上,清华大学超算团队再次夺得总冠军,实现SC竞赛四连冠。这些大规模应用软件可扩展性和性能调优方面的成绩表明,我国在并行软件方面的发展方兴未艾。 回到超算对产业的驱动来看,我们要重提“算力经济”一词。早在2018年,我们提出“算力经济”概念,认为以超级计算为核心的算力经济将成为衡量一个地方数字经济发展程度的代表性指标和新旧动能转换的主要手段。 综合近几年的发展趋势,我们认为高性能计算当前发展趋势已充分表明,随着超算与云计算、大数据、AI的融合创新,算力已成为当前整个数字信息 社会 发展的关键,算力经济已经登上 历史 舞台。 通过对2021年中国高性能计算机发展现状综合分析,可以总结出当前高性能计算正呈现出以下几个特点。 首先,高性能计算与云计算已经深度结合。高性能计算通常是以MPI、高效通信、异构计算等技术为主,偏向独占式运行,而云计算有弹性部署能力与容错能力,支持虚拟化、资源统一调度和弹性系统配置。 随着技术发展,超级计算与容器云正融合创新,高性能云成为新的产品服务,AWS、阿里云、腾讯、百度以及商业化超算的代表“北龙超云”,都已基于超级计算与云计算技术推出了高性能云服务和产品。 其次,超算应用从过去的高精尖向更广、更宽的方向发展。随着超级计算机的发展,尤其是使用成本的不断下降,其应用领域也从具有国家战略意义的精密研制、信息安全、石油勘探、航空航天和“高冷”的科学计算领域向更广泛的国民经济主战场快速扩张,比如制药、基因测序、动漫渲染、数字电影、数据挖掘、金融分析及互联网服务等,可以说已经深入到国民经济的各行各业。 从近年中国高性能计算百强排行榜(HPC TOP100)来看,超算系统过去主要集中于科学计算、政府、能源、电力、气象等领域,而近5年互联网公司部署的超算系统占据了相当大比例,主要应用为云计算、机器学习、人工智能、大数据分析以及短视频等。这些领域对于计算需求的急剧上升表明,超算正与互联网技术进行融合。 从HPC TOP100榜单的Linpack性能份额看,算力服务以46%的比例占据第一;超算中心占24%,排名第二;人工智能、云计算和短视频分别以9%、5%和4%紧随其后。 可以看出,人工智能占比的持续增加与机器学习等算法和应用的快速崛起,以及大数据中的深度学习算法的广泛应用有很大关系。互联网公司通过深度学习算法重新发现了超级计算机,特别是GPU加速的异构超级计算机的价值,纷纷投入巨资建设新系统。 综合来看,目前的算力服务、超算中心、人工智能、科学计算等领域是高性能计算的主要用户,互联网、大数据,特别是AI领域增长强劲。 再次,国家层面已经制订了战略性的算力布局计划。今年5月,国家发展改革委等四部门联合发布《全国一体化大数据中心协同创新体系算力枢纽实施方案》,提出在京津冀、长三角、粤港澳大湾区、成渝以及贵州、内蒙古、甘肃、宁夏建设全国算力网络国家枢纽节点,启动实施“东数西算”工程,力促把东部的数据送到西部进行存储和计算,同时在西部建立算力节点,改善数字基础设施不平衡的布局,有效优化数据中心的布局结构,实现算力升级,构建国家算力网络体系。 最后,人工智能的算力需求已成为算力发展主要动力。机器学习、深度学习等算法革新和通过物联网、传感器、智能手机、智能设备、互联网技术搜集的大数据,以及由超级计算机、云计算等组成的超级算力,被公认为是人工智能时代的“三驾马车”,共同掀起最新一轮的人工智能革命。 在人工智能蓬勃发展这一背景下,虚拟化云计算向高性能容器云计算演进,大数据与并行计算、机器学习融合创新就成为了产业发展的最新方向。 此外,在智能计算评测方面,我国已经提出了包括AIPerf 500在内的众多基准测试程序,这是对传统Linpack测试标准的有力补充。 这些发展表明超算技术向产业渗透的速度加快,我们已经进入一个依靠算力的人工智能时代,这也是未来发展的必然趋势之一。随着用户对算力需求的不断增长,算力经济必将在未来 社会 发展中占据重要地位。 作者 武延军(中国科学院软件研究所研究员)开源发展可圈可点并非只是今年的事。最近几年,开源领域发生了很多重要的事情。 例如,RISC-V开源指令集及其生态的快速崛起。这与上世纪90年代初Linux诞生一样。当时,UNIX和Windows是主流,很少有人能够预料到今天以Linux为内核的操作系统已经遍及人们生活的方方面面。 如今,人们每天使用的App,超过80% 概率是运行在以Linux为内核的安卓操作系统上,而且,支撑其业务的后端服务器上运行的操作系统很大概率也是Linux发行版。 所以,今天的RISC-V也同样可能被低估,认为其不成熟,很难与ARM和X86抗衡。但也许未来RISC-V就像Linux一样,最终成为全球范围内的主流指令集生态,产品遍及方方面面。 仅2020年,RISC-V International(RVI,RISC-V基金会迁入瑞士之后的新名称)的会员数增长了133%。其实RVI迁入瑞士这件事情本身也意义重大,是一次开源领域面对大国竞争保持初心不“选边站”的经典案例,值得全球其他开源基金会参考。 在国内,2019年底,华为公司牵头,中国科学院软件研究所、麒麟软件等参与的openEuler操作系统开源社区正式成立。在短短的两年内,社区已经汇聚了7000名活跃开发者,完成8000多个自主维护的开源软件包,催生了10多家厂商的商业发行版。 这是中国基础软件领域第一个真正意义上的“根社区”,虽然与20多年 历史 的Debian、Fedora还有差距,但迈出了重要一步,对学术研究、技术研发、产业创新来说,终于有了国内主导的、可以长期积淀的新平台。 同时,华为在遭遇安卓操作系统GMS(谷歌移动服务)海外断供之后,推出了鸿蒙操作系统HarmonyOS,并在开放原子开源基金会下启动开源项目OpenHarmony。 目前OpenHarmony短时间内已经吸引了国内众多厂商参与,也侧面反映了国内产业界对新一代万物互联操作系统的旺盛需求。尽管其在生态规模和技术完整程度方面与安卓仍有差距,但毕竟迈出了打造自主生态的第一步。 这相当于为源代码合理使用划定了一个边界,即合理使用仅限于接口,一旦深入到接口的实现代码,则需要遵守相关许可。这对开源知识产权的法律界定具有重要参考意义。 今年5月,《2021中国开源发展蓝皮书》重磅发布。它不仅系统梳理了我国开源人才、项目、社区、组织、教育、商业的现状,并给出发展建议,而且为国家政府相关管理部门制定开源政策、布局开源战略提供参考,为科研院所、 科技 企业以及开源从业者提供更多的案例参考和数据支撑。 而不论是开源软件向围绕开放指令集的开源软硬件生态发展,还是开源有严格的法律边界约束,抑或是国内龙头企业正尝试通过开源 探索 解决“卡脖子”问题,且已经取得了一定的效果……众多案例都指向一个方向——开源趋势不可阻挡。因为它源自人类分享知识、协同创造的天性,也是人类文明在数字时代薪火相传的重要模式。 当然,不可否认的是,开源还存在很多问题,例如,开源软件供应链安全的问题。这里的安全既有传统意义上软件质量、安全漏洞的问题,也有开源软件无法得到持续有效维护的问题(如OpenSSL在出现HeartBleed问题时只有两位兼职维护者,log4j出现问题时只有三位兼职维护者),更有大国竞争导致的“断供”问题(如GitHub曾限制伊朗开发者访问)。 随着开源软件向GitHub这类商业平台的集中,这一问题会更加突出,甚至演变为重大风险。开源软件这一本应属于全人类的智慧资产,可能变为实施“长臂管辖”的武器。为了避免这一问题,开源代码托管平台、开源软件构建发布平台等公共基础设施需要“去中心化”。世界需要多个开源软件基础设施,以最大程度消除政治力量对开源社区的威胁。 对于中国来说,随着开源软件成为众多科研、工业等重大基础设施的重要支撑部分,开源软件本身也要有一个基础设施,具备代码托管、编译、构建、测试、发布、运维等功能,保证开源软件供应的安全性和连续性,进而增强各行各业使用开源软件的信心。 未来,核心技术创新与开源贡献引领将成为国内企业发展的新动力,或将我国开源事业推向另一个高潮。

本文将介绍如何利用深度学习技术生成3D模型,使用了PyTorch和PolyGen。

有一个新兴的深度学习研究领域专注于将 DL 技术应用于 3D 几何和计算机图形应用程序,这一长期研究的集合证明了这一点。对于希望自己尝试一些 3D 深度学习的 PyTorch 用户,Kaolin 库值得研究。对于 TensorFlow 用户,还有TensorFlow Graphics。一个特别热门的子领域是 3D 模型的生成。创造性地组合 3D 模型、从图像快速生成 3D 模型以及为其他机器学习应用程序和模拟创建合成数据只是 3D 模型生成的无数用例中的一小部分。

然而,在 3D 深度学习研究领域,为你的数据选择合适的表示是成功的一半。在计算机视觉中,数据的结构非常简单:图像由密集的像素组成,这些像素整齐均匀地排列成精确的网格。3D 数据的世界没有这种一致性。3D 模型可以表示为体素、点云、网格、多视图图像集等。这些输入表示也都有自己的一组缺点。例如,体素尽管计算成本很高,但输出分辨率很低。点云不编码表面或其法线的概念,因此不能仅从点云唯一地推断出拓扑。网格也不对拓扑进行唯一编码,因为任何网格都可以细分以产生相似的表面。PolyGen,一种用于网格的神经生成模型,它联合估计模型的面和顶点以直接生成网格。DeepMind GitHub 上提供了官方实现。

现在经典的PointNet论文为点云数据建模提供了蓝图,例如 3D 模型的顶点。它是一种通用算法,不对 3D 模型的面或占用进行建模,因此无法单独使用 PointNet 生成独特的防水网格。3D-R2N2采用的体素方法将我们都熟悉的 2D 卷积扩展到 3D,并自然地从 RGB 图像生成防水网格。然而,在更高的空间分辨率下,体素表示的计算成本很高,有效地限制了它可以产生的网格的大小。

Pixel2Mesh可以通过变形模板网格(通常是椭圆体)从单个图像预测 3D 模型的顶点和面。目标模型必须与模板网格同胚,因此使用凸模板网格(例如椭圆体)会在椅子和灯等高度非凸的物体上引入许多假面。拓扑修改网络(TMN) 通过引入两个新阶段在 Pixel2Mesh 上进行迭代:拓扑修改阶段用于修剪会增加模型重建误差的错误面,以及边界细化阶段以平滑由面修剪引入的锯齿状边界。如果你有兴趣,我强烈建议同时查看AtlasNet和Hierarchical Surface Prediction。

虽然变形和细化模板网格的常用方法表现良好,但它始于对模型拓扑的主要假设。就其核心而言,3D 模型只是 3D 空间中的一组顶点,通过各个面进行分组和连接在一起。是否可以避开中间表示并直接预测这些顶点和面?

PolyGen 通过将 3D 模型表示为顶点和面的严格排序序列,而不是图像、体素或点云,对模型生成任务采取了一种相当独特的方法。这种严格的排序使他们能够应用基于注意力的序列建模方法来生成 3D 网格,就像 BERT 或 GPT 模型对文本所做的那样。

PolyGen 的总体目标有两个:首先为 3D 模型生成一组合理的顶点(可能以图像、体素或类标签为条件),然后生成一系列面,一个接一个,连接顶点在一起,并为此模型提供一个合理的表面。组合模型将网格上的分布 p(M) 表示为两个模型之间的联合分布:顶点模型 p(V) 表示顶点,面模型 p(F|V) 表示以顶点为条件的面。

顶点模型是一个解码器,它试图预测以先前标记为条件的序列中的下一个标记(并且可选地以图像、体素字段或类标签为条件)。人脸模型由一个编码器和一个解码器指针网络组成,该网络表示顶点序列上的分布。该指针网络一次有效地“选择”一个顶点,以添加到当前面序列并构建模型的面。该模型以先前的人脸序列和整个顶点序列为条件。由于 PolyGen 架构相当复杂并且依赖于各种概念,因此本文将仅限于顶点模型。

流行的ShapeNetCore数据集中的每个模型都可以表示为顶点和面的集合。每个顶点由一个 (x, y, z) 坐标组成,该坐标描述了 3D 网格中的一个点。每个面都是一个索引列表,指向构成该面角的顶点。对于三角形面,此列表长 3 个索引。对于 n 边形面,此列表是可变长度的。原始数据集非常大,因此为了节省时间,我在此处提供了一个更轻量级的预处理数据集子集供你进行实验。该子集仅包含来自 5 个形状类别的模型,并且在转换为 n 边形后少于 800 个顶点(如下所述)。

为了使序列建模方法发挥作用,数据必须以一种受约束的、确定性的方式表示,以尽可能多地消除可变性。出于这个原因,作者对数据集进行了一些简化。首先,他们将所有输入模型从三角形(连接 3 个顶点的面)转换为 n 边形(连接 n 个顶点的面),使用Blender 的平面抽取修改器合并面。这为相同的拓扑提供了更紧凑的表示,并减少了三角剖分中的歧义,因为大型网格并不总是具有唯一的三角剖分。为了篇幅的缘故,我不会在这篇文章中讨论 Blender 脚本,但有很多资源,包括官方文档和GitHub 上的这套优秀示例,很好地涵盖了这个主题。我提供的数据集已经预先抽取。

要继续进行,请下载此示例 cube.obj 文件。这个模型是一个基本的立方体,有 8 个顶点和 6 个面。以下简单代码片段从单个 .obj 文件中读取所有顶点。

其次,顶点首先从它们的 z 轴(在这种情况下为垂直轴)按升序排序,然后是 y 轴,最后是 x 轴。这样,模型顶点是自下而上表示的。在 vanilla PolyGen 模型中,然后将顶点连接成一维序列向量,对于较大的模型,该向量最终会得到一个非常长的序列向量。作者在论文的附录 E 中描述了一些减轻这种负担的修改。

要对一系列顶点进行排序,我们可以使用字典排序。这与对字典中的单词进行排序时采用的方法相同。要对两个单词进行排序,您将查看第一个字母,然后如果有平局,则查看第二个字母,依此类推。对于“aardvark”和“apple”这两个词,第一个字母是“a”和“a”,所以我们移动到第二个字母“a”和“p”来告诉我“aardvark”在“apple”之前。在这种情况下,我们的“字母”是按顺序排列的 z、y 和 x 坐标。

最后,顶点坐标被归一化,然后被量化以将它们转换为离散的 8 位值。这种方法已在像素递归神经网络和WaveNet中用于对音频信号进行建模,使它们能够对顶点值施加分类分布。在最初的WaveNet论文中,作者评论说“分类分布更灵活,并且可以更容易地对任意分布进行建模,因为它不对它们的形状做任何假设。” 这种质量对于建模复杂的依赖关系很重要,例如 3D 模型中顶点之间的对称性。

顶点模型由一个解码器网络组成,它具有变压器模型的所有标准特征:输入嵌入、18 个变压器解码器层的堆栈、层归一化,最后是在所有可能的序列标记上表示的 softmax 分布。给定一个长度为 N 的扁平顶点序列 Vseq ,其目标是在给定模型参数的情况下最大化数据序列的对数似然:

与 LSTM 不同的是,transformer 模型能够以并行方式处理顺序输入,同时仍使来自序列一部分的信息能够为另一部分提供上下文。这一切都归功于他们的注意力模块。3D 模型的顶点包含各种对称性和远点之间的复杂依赖关系。例如,考虑一个典型的桌子,其中模型对角的腿是彼此的镜像版本。注意力模块允许对这些类型的模式进行建模。

嵌入层是序列建模中用于将有限数量的标记转换为特征集的常用技术。在语言模型中,“国家”和“民族”这两个词的含义可能非常相似,但与“苹果”这个词却相距甚远。当单词用唯一的标记表示时,就没有相似性或差异性的固有概念。嵌入层将这些标记转换为矢量表示,可以对有意义的距离感进行建模。

PolyGen 将同样的原理应用于顶点。该模型使用三种类型的嵌入层:坐标表示输入标记是 x、y 还是 z 坐标,值表示标记的值,以及位置编码顶点的顺序。每个都向模型传达有关令牌的一条信息。由于我们的顶点一次在一个轴上输入,坐标嵌入为模型提供了基本的坐标信息,让它知道给定值对应的坐标类型。

值嵌入对我们之前创建的量化顶点值进行编码。我们还需要一些序列控制点:额外的开始和停止标记分别标记序列的开始和结束,并将标记填充到最大序列长度。

由于并行化而丢失的给定序列位置 n的位置信息通过位置嵌入来恢复。 也可以使用位置编码,一种不需要学习的封闭形式的表达。在经典的 Transformer 论文“ Attention Is All You Need ”中,作者定义了一种由不同频率的正弦和余弦函数组成的位置编码。他们通过实验确定位置嵌入的性能与位置编码一样好,但编码的优势在于比训练中遇到的序列更长。有关位置编码的出色视觉解释,请查看此博客文章。

生成所有这些标记序列后,最后要做的是创建一些嵌入层并将它们组合起来。每个嵌入层都需要知道期望的输入字典的大小和输出的嵌入维度。每层的嵌入维数为 256,这意味着我们可以将它们与加法相结合。字典大小取决于输入可以具有的唯一值的数量。对于值嵌入,它是量化值的数量加上控制标记的数量。对于坐标嵌入,对于每个坐标 x、y 和 z,它是一个,对于上述任何一个(控制标记)都不是一个。最后,位置嵌入对于每个可能的位置或最大序列长度都需要一个。

PolyGen 还广泛使用无效预测掩码来确保其生成的顶点和面部序列编码有效的 3D 模型。例如,必须强制执行诸如“z 坐标不递减”和“停止标记只能出现在完整顶点(z、y 和 x 标记的三元组)之后”之类的规则,以防止模型产生无效的网格. 作者在论文的附录 F 中提供了他们使用的掩蔽的广泛列表。这些约束仅在预测时强制执行,因为它们实际上会损害训练性能。

与许多序列预测模型一样,该模型是自回归的,这意味着给定时间步的输出是下一个时间步的可能值的分布。整个序列一次预测一个标记,模型在每一步都会查看先前时间步骤中的所有标记以选择其下一个标记。解码策略决定了它如何从这个分布中选择下一个Token。

如果使用次优解码策略,生成模型有时会陷入重复循环或产生质量较差的序列。我们都看到生成的文本看起来像是胡说八道。PolyGen 采用称为 核采样 的解码策略来生成高质量序列。原始论文在文本生成上下文中应用了这种方法,但它也可以应用于顶点。前提很简单:仅从 softmax 分布中共享 top-p 概率质量的标记中随机抽取下一个标记。这在推理时应用以生成网格,同时避免序列退化。有关核采样的 PyTorch 实现,请参阅此要点。

除了无条件生成模型外,PolyGen 还支持使用类标签、图像和体素进行输入调节。这些可以指导生成具有特定类型、外观或形状的网格。类标签通过嵌入投影,然后添加到每个注意力块中的自注意力层之后。对于图像和体素,编码器创建一组嵌入,然后用于与转换器解码器的交叉注意。

PolyGen 模型描述了一个强大、高效和灵活的框架,用于有条件地生成 3D 网格。序列生成可以在各种条件和输入类型下完成,从图像到体素到简单的类标签,甚至只是一个起始标记。表示网格顶点分布的顶点模型只是联合分布难题的一部分。我打算在以后的文章中介绍面部模型。同时,我鼓励你查看DeepMind 的 TensorFlow 实现,并尝试生成条件模型!

原文链接:

Android以Java为编程语言,使接口到功能,都有层出不穷的变化,其中Activity等同于J2ME的MIDlet,一个 Activity 类(class)负责创建视窗(window),一个活动中的Activity就是在 foreground(前景)模式,背景运行的程序叫做Service。两者之间.

Google's artificial intelligence-driven AlphaGo sofare program will challenge Ke Jie, the world's top professional Go player, at China's Future of Go Summit in May. The prospect of this petition beeen human and artificial intelligence has captured the attention of the Chinese public, where the game was invented more than 2,500 years ago, and driven interest in Google's DeepMind machine learning method that developed AlphaGo.We believe a machine could never replace a person as an adversary in future.It's a cold machine without blood, while we have spiritual power.

谷歌非常有谋略,先让阿尔法狗连赢三次,奠定胜利的事实,展示人工智能的厉害!让人恐慌! 然后,谷歌让阿尔法狗输棋给李世石,以明白无误的方式告诉恐慌的人们:不要害怕,我们掌控着人工智能的! 如果人工智能把人逼上绝路,人工智能产业就会遭到人们的封杀! 谷歌输一局,缓和局面。

中日韩还有成千上万围棋学习者和相关从业人员,Google是商业公司,当然不会把事情做绝,肯定会考量这方面的因素。

比赛结束,alphago四比一完胜李世石,仅胜利的一局有很多人认为是谷歌为了让alphago有世界排名而故意输的一局,因为如果一个棋手一直连胜,是没有世界排名的,输了一局才有排名,按照官方发布目前alphago排名世界第二,中国小将柯杰世界第一。

AlphaGo能够战胜李世石的确证明了他是有职业顶尖的水平,也就是的职业九段,其计算能力与局部分析能力超越职业九段!可是,AlphaGo要想拿到职业冠军是基本不可能的,因为它不会自主学习,需要输入对方的棋谱才能占优优势。

此外,在局部与大局的判断上,AlphaGo是有缺陷的,如果是遇到巅峰时期的李昌镐或是聂老聂卫平先生,折现缺点就会被无限放大。

总而言之,现在它的对局还是太少了,需要更多的对局与研究,看不同的棋风与派别对它的胜率的影响,究竟综合实力是多少,还需要考究!

机器人还是不一样,完全不受外界与情绪的任何干扰,坐下便拼杀起来。

它的芯片经历了十年换代,几乎对所有围棋套路了如指掌,面对我的每一步棋,都能识破我的意图,找到最合适的解决方法,更别提失误了,而我却并不急躁,慢慢悠悠,心中早已打好了算盘。

这盘棋下得出奇得慢,半个月,1个月,我也并不着急,AlphaGo作为一个高智商机器人也能准确捕捉到我的所有需求,我们不仅棋下得有条不紊,它更是端茶倒水,冷风热气,无微不至。

这棋转眼便下了三个月,我打定主意,心中不急,这AlphaGo作为机器人便更不知着急了,倒是观众们耐心早已磨完,他们催促也好,咒骂也罢,我自不动,每日只想一步棋,每日只下一步棋,但我内心却从未平静。

我等待着机会,更等待着灵感,后来已无人有心再关注这场比赛,我的心中也越发平静了。

直到那一天,我依如往常早早起床,一边诵读着道德经,一边在园中散步。

突然,一个灵感穿过我的头脑,一个阴阳卦象图转变为了一幅棋盘,“我若击杀这个未曾关注过的棋点,他岂不再无机会?”我哈哈大笑,回到棋盘前,下了这一步我等了许久的棋,不出所料,AlphaGo一筹莫展,投子认输。

世界轰动,人们重新将关注点拉到了我身上,我也不过多解释,手放背后:“道可道,非常道……”我先人一盘棋能下几个月,参悟世间之道,下的是道,而非棋,这岂是一个机器人能理解的?”从此之后,人们不再挑战AlphaGo,亦不再过度追求棋中胜负,他们好像也沉静了下来,回归了这项运动最本质的精髓,思考人生,思考自然,思考世界,找到了心中的那片桃花源。

柯洁经历了英雄般的战斗后,依然第二局输给AlphaGo。

最有价值的信息可能来自AlphaGo之父萨比斯,中盘阶段他评论说:“不可思议,根据AlphaGo的评估,柯洁现在下得很完美。

”赛后萨比斯则评论:“这是一场惊心动魄的令人惊奇的比赛,柯洁几乎把AlphaGo逼到了极限。

”柯洁今天的最大收获是测出阿法狗的真实水平。

期望这次比赛能够验证。

当然它有两个前提条件,一是柯洁把最好水平发挥出来,二是AlphaGo能够经受真正的考验,而不是表面看它只赢一两个子,实际上后台胜率显示根本没有机会。

前天的第一局,AlphaGo赢了1.5目。

这是一个很小的差距,但柯洁下得谈不上多出色,因为从头到尾他基本没什么机会。

AlphaGo并不是一个赌徒,能赢100目绝不赢99;它是根据胜率估算来行棋的,如果赢1目而它认为胜率是100%,就没必要去下赢100目而胜率只有99%的棋。

所以,第一局柯洁远远没有逼出AlphaGo的真正实力。

昨天AlphaGo方面的消息,认为这次虽然只是一个单机版,但棋力已经比去年赢李世石的时候提高了三子。

这是一个挺吓人的消息,因为它会让人类棋手觉得,目前这个版本至少比人类强三子以上。

老实讲这挺绝望的,三子以上,四子。

那等于彻底宣布人类棋手跟AlphaGo已经是天壤之别。

知道,面对一个可以让四子的对手,这是职业和业余的差距,比赛已经失去意义,准确地说那叫戏耍。

它可以只赢1目甚至半目,但不说明任何问题,就像柯洁也可以让只输半目,但那又能说明什么。

难道会跑大街上喊,快看,柯洁只赢了半目。

谁都知道,柯洁想怎么赢就怎么赢,半目和100目没差别。

今天的比赛,由于“几乎把AlphaGo逼到了极限”,虽然不是让子棋,但基本可以猜出,在人类棋手高水平发挥的前提下,目前AlphaGo让不到人类三子,可能是二子或者略多。

挂盘讲解的李世石也做出这种判断:AlphaGo并没有提升三子的实力,估计大概有二子。

至此,本次比赛人类棋手的目标或者说心愿已经达到:测试出AlphaGo的真正实力。

否则,AlphaGo就永远是上帝般的存在。

知道它强,但不知道它到底多强,所以它就是上帝。

知道,没有上帝。

如果由于无法评测AI(人工智能)的水平,而把它视为上帝一样的存在,这不是人类进化或者说发展的方向。

等于把命运交给未知,哪怕这个未知是人类创造出来的,也有理由疑虑甚至恐惧。

所以要感谢柯杰,不愧围棋第一人,他今天的勇气和表现,至少让暂时可以从外部角度了解到AlphaGo的真实水平。

这是比胜负更重要的事情。

题目:《人工智能》3月15日,举世瞩目的“人机大战”尘埃落定,人工智能“阿尔法狗围棋”(AlphaGo)以4:1的比分战胜人类围棋顶尖高手李世石九段,为世人留下一个不愿接受又不得不接受的事实。

面对“阿尔法狗围棋”(AlphaGo),有人不服,如中国的超级围棋新星柯洁九段,就公开向“阿尔法狗围棋”(AlphaGo)叫板:“你赢不了我!”有人叹息:人类智慧最后的尊严在一只“小狗”面前丢失。

有人甚至悲观地认为,机器统治人类的时代即将来临。

其实,所谓人类尊严、所谓机器人的统治时代,只是我们一些人的臆想,“阿尔法狗围棋”(AlphaGo)的胜利,说到底就是一次技术革命的胜利,是人类对自身的一次超越。

正如西安交通大学副校长、国家重点基础研究计划(973)“基于视认知的非结构化信息处理基础理论与关键技术”首席科学家徐宗本说的:“任何人工智能技术的成功一定是当代最新技术综合运用的成功,片面说成谁战胜谁是不公平的,也是无意义的,说人类智慧的最后壁垒被攻破,这都是无稽之谈。

”“阿尔法狗围棋”(AlphaGo)的胜利,背后的最大价值在于,它激励人们持续不断地探索过去人工智能领域一直看似难以实现的人类智能级别。

从这一点上看,人工智能的胜利也有非凡的意义,甚至可以说具有划时代的意义。

是的,翻开人类历史,哪一次技术革命不带来人类社会翻天覆地的变化?蒸汽机的发明、使用,使人类从农业手工业时代进入了工业社会;电动机的诞生,使人类从工业社会跨入了现代化。

而以原子能、电子计算机、空间技术和生物工程的发明与应用为主要标志的信息技术革命,更让人类从此进入了自动化、信息化时代。

每一次技术革命,伴随的都是生产力的发展和人类自身的解放。

“阿尔法狗围棋”(AlphaGo)的 胜利,是不是会掀起又一次技术革命,我们还需拭目以待。

然而,人工智能的进步,却可以让我们展望到人类美妙无比的前景。

我们似乎可以看到,不久的将来,到 处都是机器人在人们的指令下为人们服务;我们似乎可以看到,那些对于目前医术来说几乎无解的人类大脑和神经疾病,如自闭症、老年痴呆症这样的国际医学难 题,随着人工智能的进步,一切都会迎刃而解;我们似乎可以看到,有了人工智能的协助,人类真正步入了大同的理想社会。

是的,“阿尔法狗围棋”(AlphaGo)的胜利,是人类的智慧向前迈出的又一步,有了这一步,我们的世界将更加美好。

当然,面对这些进步,我们不能只是围观、娱乐和敬仰,我们应该用我们的智慧,去促成人工智能更大的进步!

AlphaGo一般指阿尔法围棋阿尔法围棋(AlphaGo)是第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能程序。

其主要工作原理是“深度学习”。

阿尔法围棋(AlphaGo)是一款围棋人工智能程序。

其主要工作原理是“深度学习”。

“深度学习”是指多层的人工神经网络和训练它的方法。

一层神经网络会把大量矩阵数字作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出。

这就像生物神经大脑的工作机理一样,通过合适的矩阵数量,多层组织链接一起,形成神经网络“大脑”进行精准复杂的处理,就像人们识别物体标注图片一样。

最强AlphaGo Zero怎样炼成刚刚,Deepmind在Reddit的Machine Learning板块举办了在线答疑活动AMA,Deepmind强化学习组负责人David Silver和其同事热情地回答了网友们提出的各种问题。

由于在AMA前一天Deepmind刚刚发表了《Mastering the game of Go without human knowledge》(不使用人类知识掌握围棋)的论文,相关的提问和讨论也异常热烈。

什么是AMA?AMA(Ask Me Anything)是由Reddit的特色栏目,你也可以将其理解为在线的“真心话大冒险”。

AMA一般会约定一个时间,并提前若干天在Reddit上收集问题,回答者统一解答。

本次Deepmind AMA的回答人是:David Silver:Deepmind强化学习组负责人,AlphaGo首席研究员。

David Silver1997年毕业于剑桥大学,获得艾迪生威斯利奖。

David于2004年在阿尔伯塔大学获得计算机博士学位,2013年加盟DeepMind,是AlphaGo项目的主要技术负责人。

Julian Schritieser:Deepmind高级软件工程师。

此前有多位机器学习界的大牛/公司在Reddit Machine Learning版块开设AMA,包括:Google Brain Team、OpenAI Research Team 、Andrew Ng and Adam Coates、Jürgen Schmidhuber、Geoffrey Hinton、Michael Jordan 、Yann LeCun、Yoshua Bengio等。

我们从今天Deepmind的AMA中选取了一些代表性的问题,整理如下:关于论文与技术细节Q: Deepmind Zero的训练为什么如此稳定?深层次的增强学习是不稳定和容易遗忘的,自我对局也是不稳定和容易遗忘的,如果没有一个好的基于模仿的初始化状态和历史检查点,二者结合在一起应该是一个灾难...但Zero从零开始,我没有看到论文中有这部分的内容,你们是怎么做到的呢?David Silver:在深层增强学习上,AlphaGo Zero与典型的无模式算法(如策略梯度或者Q学习)采用的是完全不同的算法。

通过使用AlphaGo搜索,我们可以极大改进策略和自我对局的结果,然后我们会用简单的、基于梯度的更新来训练下一个策略及价值网络。

比起基于简便的基于梯度的策略改进,这样的做法会更加稳定。

Q:我注意到ELO等级分增长的数据只与到第40天,是否是因为论文截稿的原因?或者说之后AlphaGo的数据不再显著改善?David Silver:AlphaGo已经退役了!这意味着我们将人员和硬件资源转移到其他AI问题中,我们还有很长的路要走呐。

Q:关于论文的两个问题:Q1:您能解释为什么AlphaGo的残差块输入尺寸为19x19x17吗?我不知道为什么每个对局者需要用8个堆叠的二进制特征层来描述?我觉得1、2个层就够了啊。

虽然我不是100%理解围棋的规则,但8个层看起来也多了点吧?Q2:由于整个通道使用自我对局与最近的/最好的模型进行比较,你们觉得这对于采用参数空间的特定SGD驱动轨迹对否会有过拟合的风险?David Silver:说起来使用表征可能比现在用的8层堆叠的做法更好!但我们使用堆叠的方式观察历史数据有三个原因:1)它与其他领域的常见输入一致;2)我们需要一些历史状态来表示被KO;3)如果有一些历史数据,我们可以更好地猜测对手最近下的位置,这可以作为一种关注机制(注:在围棋中,这叫“敌之要点即我之要点”),而第17层用于标注我们现在究竟是执黑子还是白子,因为要考虑贴目的关系。

Q:有了强大的棋类引擎,我们可以给玩家一个评级——例如Elo围棋等级分就是通过棋手对局的分析逐步得出的,那么AlphaGo是否可以对过去有等级分前的棋手的实力进行分析?这可能为研究人类的认知提供一个平台。

Julian Schritieser:感谢分享,这个主意很棒!我认为在围棋中这完全可以做到,或许可以用最佳应对和实际应对的价值差异或者政策网络给每一手位置评估得到的概率来进行?我有空的时候试一下。

Q: 既然AlphaGo已经退役了,是否有将其开源的计划?这将对围棋社区和机器学习研究产生巨大的影响。

还有,Hassabis在乌镇宣称的围棋工具将会什么时候发布?David Silver:现在这个工具正在准备中。

不久后你就能看到新的消息。

Q:AlphaGo开发过程中,在系统架构上遇到的最大障碍是什么?David Silver:我们遇到的一个重大挑战是在和李世石比赛的时候,当时我们意识到AlphaGo偶尔会受到我们所谓的“妄想”的影响,也就是说,程序可能会错误理解当前盘面局势,并在错误的方向上持续许多步。

我们尝试了许多方案,包括引入更多的围棋知识或人类元知识来解决这个问题。

但最终我们取得了成功,从AlphaGo本身解决了这个问题,更多地依靠强化学习的力量来获得更高质量的解决方案。

围棋爱好者的问题Q:1846年,在十四世本因坊迹目秀策与十一世井上幻庵因硕的一盘对局中,秀策下的第127手让幻庵因硕一时惊急两耳发赤,该手成为扭转败局的“耳赤一手”。

如果是AlphaGo,是否也会下出相同的一首棋?Julian Schritieser:我问了樊麾,他的回答是这样的:当时的围棋不贴目,而AlphaGo的对局中,黑棋需贴7.5目。

贴目情况不同造成了古今棋局的差异,如果让AlphaGo穿越到当年下那一手,很有可能下的是不同的另一个地方。

Q:从已发布的AlphaGo相互对局看,执白子的时间更为充裕,因...

AlphaGo这个系统主要由几个部分组成:走棋网络(Policy Neork),给定当前局面,预测/采样下一步的走棋。

快速走子(Fast rollout),目标和1一样,但在适当牺牲走棋质量的条件下,速度要比1快1000倍。

估值网络(Value Neork),给定当前局面,估计是白胜还是黑胜。

蒙特卡罗树搜索(Monte Carlo Tree Search,MCTS),把以上这三个部分连起来,形成一个完整的系统。

我们的DarkForest和AlphaGo同样是用4搭建的系统。

DarkForest较AlphaGo而言,在训练时加强了1,而少了2和3,然后以开源软件Pachi的缺省策略 (default policy)部分替代了2的功能。

以下介绍下各部分。

1、走棋网络走棋网络把当前局面作为输入,预测/采样下一步的走棋。

它的预测不只给出最强的一手,而是对棋盘上所有可能的下一着给一个分数。

棋盘上有361个点,它就给出361个数,好招的分数比坏招要高。

DarkForest在这部分有创新,通过在训练时预测三步而非一步,提高了策略输出的质量,和他们在使用增强学习进行自我对局后得到的走棋网络(RL neork)的效果相当。

当然,他们并没有在最后的系统中使用增强学习后的网络,而是用了直接通过训练学习到的网络(SL neork),理由是RL neork输出的走棋缺乏变化,对搜索不利。

有意思的是在AlphaGo为了速度上的考虑,只用了宽度为192的网络,而并没有使用最好的宽度为384的网络(见图2(a)),所以要是GPU更快一点(或者更多一点),AlphaGo肯定是会变得更强的。

所谓的0.1秒走一步,就是纯粹用这样的网络,下出有最高置信度的合法着法。

这种做法一点也没有做搜索,但是大局观非常强,不会陷入局部战斗中,说它建模了“棋感”一点也没有错。

我们把DarkForest的走棋网络直接放上KGS就有3d的水平,让所有人都惊叹了下。

可以说,这一波围棋AI的突破,主要得益于走棋网络的突破。

这个在以前是不可想像的,以前用的是基于规则,或者基于局部形状再加上简单线性分类器训练的走子生成法,需要慢慢调参数年,才有进步。

当然,只用走棋网络问题也很多,就我们在DarkForest上看到的来说,会不顾大小无谓争劫,会无谓脱先,不顾局部死活,对杀出错,等等。

有点像高手不经认真思考的随手棋。

因为走棋网络没有价值判断功能,只是凭“直觉”在下棋,只有在加了搜索之后,电脑才有价值判断的能力。

2、快速走子那有了走棋网络,为什么还要做快速走子呢?有两个原因,首先走棋网络的运行速度是比较慢的,AlphaGo说是3毫秒,我们这里也差不多,而快速走子能做到几微秒级别,差了1000倍。

所以在走棋网络没有返回的时候让CPU不闲着先搜索起来是很重要的,等到网络返回更好的着法后,再更新对应的着法信息。

其次,快速走子可以用来评估盘面。

由于天文数字般的可能局面数,围棋的搜索是毫无希望走到底的,搜索到一定程度就要对现有局面做个估分。

在没有估值网络的时候,不像国象可以通过算棋子的分数来对盘面做比较精确的估值,围棋盘面的估计得要通过模拟走子来进行,从当前盘面一路走到底,不考虑岔路地算出胜负,然后把胜负值作为当前盘面价值的一个估计。

这里有个需要权衡的地方:在同等时间下,模拟走子的质量高,单次估值精度高但走子速度慢;模拟走子速度快乃至使用随机走子,虽然单次估值精度低,但可以多模拟几次算平均值,效果未必不好。

所以说,如果有一个质量高又速度快的走子策略,那对于棋力的提高是非常有帮助的。

为了达到这个目标,神经网络的模型就显得太慢,还是要用传统的局部特征匹配(local pattern matching)加线性回归(logistic regression)的方法,这办法虽然不新但非常好使,几乎所有的广告推荐,竞价排名,新闻排序,都是用的它。

与更为传统的基于规则的方案相比,它在吸纳了众多高手对局之后就具备了用梯度下降法自动调参的能力,所以性能提高起来会更快更省心。

AlphaGo用这个办法达到了2微秒的走子速度和24.2%的走子准确率。

24.2%的意思是说它的最好预测和围棋高手的下子有0.242的概率是重合的,相比之下,走棋网络在GPU上用2毫秒能达到57%的准确率。

这里,我们就看到了走子速度和精度的权衡。

和训练深度学习模型不同,快速走子用到了局部特征匹配,自然需要一些围棋的领域知识来选择局部特征。

对此AlphaGo只提供了局部特征的数目(见Extended Table 4),而没有说明特征的具体细节。

我最近也实验了他们的办法,达到了25.1%的准确率和4-5微秒的走子速度,然而全系统整合下来并没有复现他们的水平。

我感觉上24.2%并不能完全概括他们快速走子的棋力,因为只要走错关键的一步,局面判断就完全错误了;而图2(b)更能体现他们快速走子对盘面形势估计的精确度,要能达到他们图2(b)这样的水准,比简单地匹配24.2%要做更多的工作,而他们并未在文章中强调这一点。

在AlphaGo有了快速走子之后,不需要走棋网络和估值网络,不借助任何深度学习和GPU的帮助,不使用增强学习,在单机上就已经达到了3d的水平(见Extended Table 7倒数第二行),这是相当厉害的了。

任何使用传统方法在单机上达...

转载请注明出处作文大全网 » alphago是什么语言开发的

deepmind发表论文

深度学习是可以开发游戏,不适合用来打网游。游戏开发是一个复杂且劳动密集型的工作。游戏的环境、故事线和人物个性都需要被仔细地构建。这需要视觉艺术家、编故事的人和软件工程师一起密切协作才能完成。通常,在传统编程的形式下,游戏会有一套专门编写的行为;或是在有大量规则组合的形式下,会以更加有反馈的行为来构成。在过去的几年间,数据密集的机器学习解决方案已经在企业(比如Amazon、Netflix和Uber)里消灭掉了基于规则的系统。已经在探索使用这样的一些机器学习的技术,比如用深度增强学习来进行游戏开发。我们已经看到这一波的机器学习和人工智能在游戏领域的巨大潜力。对于一些数据驱动的大型企业而言,机器学习并不是什么新东西。在过去的这些年里,机器学习技术已经成熟并扩散到非常多的行业。在2015年初,DeepMind将上下文老虎机算法进一步发展,并发表了一篇论文。其中介绍了一个把深度神经网络和增强学习组合起来的大规模系统。这个系统可以精通Atari的2600个游戏里的很多个,还仅仅只是依靠原始像素和得分作为输入就能取得超越人类的水平。

去年年末,人工智能研究实验室DeepMind的AlphaFold在国际蛋白质结构预测竞赛(CASP)上一骑绝尘,首次将蛋白三维结构预测的分数提升至90分。不到8个月后,DeepMind又为生物学界带来了两个重磅消息。7月15日,他们在《自然》杂志上发布了关于AlphaFold算法的新论文,实现了原子层面上的蛋白质结构精确预测。仅仅一周之后,他们又和欧洲生物信息学研究所(EMBL-EBI)合作发表了一篇《自然》论文。这次,他们想要完成的是一个更大的目标——破解人类蛋白组中所有蛋白质的三维结构。

从人类首次解析出构成蛋白质的氨基酸序列,到如今可以模拟和解析人体蛋白组中绝大多数蛋白的三维结果,科学家已努力了超过70年。1949年,英国生物化学家弗雷德里克·桑格(Frederick Sanger)通过水解胰岛素,首次确定了组成牛胰岛素的氨基酸序列,这也是人类确定的首个蛋白质的氨基酸序列。这些氨基酸序列是牛胰岛素的一级结构,如果我们只按照这个序列合成胰岛素,得到的产物不会有活性。氨基酸序列需要通过数步折叠过程,形成复杂的3级结构后,才能成为具有功能的蛋白质。

1965年,中国科学家首次解析出胰岛素的精确结构,人工合成出了具有活性的胰岛素。在人类的蛋白组中,胰岛素是一种结构简单的小型蛋白质,它含有两条肽链,有51个氨基酸。对人类等真核生物来说,一个蛋白质中平均含有400多个氨基酸残基,其中绝大部分蛋白质的空间结构远比胰岛素复杂。

人类基因组草图公布后,科学界对蛋白质的研究进入了快车道。经过数十年的努力,研究人员通过解析蛋白质的氨基酸序列、提取纯净和高质量的蛋白质,再加上冷冻电子显微镜的应用,至今已经解析出了超过5万个人源蛋白质的三维结构。无疑,我们获得蛋白三维结构的速度正在不断变快。

不过,实验解析蛋白质也受到诸多限制。由于这一过程过于繁琐,且稍有不慎就无法获得较好的蛋白质空间结构,因此仍有大量人源蛋白质结构有待破解。与此同时,一些科学家开始尝试另一种工具——借助人工智能(AI)技术来预测蛋白的空间结构。

1994年,计算生物学家约翰·莫尔特(John Moult)等人创立了CASP比赛,让AI加入到蛋白质三维结构的研究中。不过在此之后的20多年中,各个AI实验室在这项比赛中的始终缺乏实质性突破。直到DeepMind的加入,彻底改变了这一局面。

2020年,DeepMind开发的一款蛋白质三维结构预测算法“AlphaFold”一举夺得了当年CASP比赛的最高分(GDT分数为90分),比第二名的分数高出了15%。GDT分数主要用来评估算法预测三维结构中氨基酸的位置与实际空间结构的差距,分数越高,预测越准。当时AlphaFold就像是一枚投在生物学界的炸弹,当时《自然》《科学》等相继发文,强调了这是人工智能的一次重大胜利。

在细胞中,蛋白质的折叠过程需要分子蛋白或辅助蛋白的帮助。而我们能看到的是,一些氨基酸序列通过一系列变化,形成了一个具有三维结构和活性的蛋白质。在蛋白质中,具有相同特性的氨基酸通过特殊的共价键(例如二硫键)聚集到一起,形成一些特定的螺旋结构,比化学键更加微弱的分子间作用力维系着蛋白质的三维结构。

但是,依靠这些理论还远远不足以准确预测蛋白质的三维结构,这也是很多参与CASP比赛的算法分数不高的原因。在今年7月15日一项公布于《自然》的论文中,DeepMind的研究团队详细介绍了AlphaFold成功的原因。这一算法采取了多序列比对和一种新型的神经网络架构,将重点放在一些关键的氨基酸上。此外,这一算法还纳入了结构模块(Structure Module),用于评估预测的蛋白质结构的每个氨基酸残基与其真实位点的差异。DeepMind的研究团队还强调,AlphaFold是首个在不知道相似蛋白的结构时,也可以在原子层面上精确预测蛋白质结构的算法。

昨日,在发表于《自然》期刊的一项研究中,他们和EMBL-EBI合作利用AlphaFold做出了一项更有突破性和实用性的研究—— 直接对人类蛋白组中98.5%的蛋白质完整三维的结构进行了预测 。根据他们的估计,虽然蛋白质资料库(PDB)中公布的人源蛋白质三维结构占到了目前人类蛋白组的35%,但是很多蛋白质的空间结构并不完整。实际上,完整的三维蛋白质结构只占17%。

类似于CASP比赛中的GDT分数,研究人员也为AlphaFold设置了一个可以评估预测可信度的数值—— pLDDT (每个残基位点的可信度测评,per-residue confidence metric)。当pLDDT值大于90,表示对蛋白质中某个氨基酸残基位置的预测具有很高的可信度;当pLDDT值大于70,表明预测结果是基本准确的。

在对人体蛋白质组三维结构的预测中, AlphaFold精确预测了35.7%的氨基酸残基的位点,基本准确地预测了58.0%的氨基酸的位点。 在蛋白质水平上,这一算法也能较为准确地预测人类蛋白组中43.8%的蛋白质至少3/4序列的空间结构。在1290个没有没有参考结构的蛋白质中,AlphaFold能较为准确预测每个蛋白中近200个氨基酸残基的空间结构(pLDDT 70)。

在这次实验中,AlphaFold还 准确预测出由于许多和药物靶点相关的酶和膜蛋白的三维结构 。由于膜蛋白的结构复杂,一直以来,通过实验方法来解析这类蛋白的结构都极具挑战性。除此之外,AlphaFold还能较为准确地预测出此前没有接受过训练或不熟悉的蛋白质的三维结构。

除了人源的蛋白质,他们还利用AlphaFold对其他20种模式生物(包括小鼠、玉米和疟原虫)蛋白组中的蛋白进行了预测。根据《自然》官网的消息,这些预测的蛋白质三维结构数据已通过EMBL-EBI托管的 公用数据库 免费向公众开放, 目前有近36.5万个蛋白质结构已在该数据库中发布 ,而到今年年底,这一数值有望增长到1.3亿。DeepMind和EMBL-EBI的研究人员强调,目前这部分工作还只是一个开始。他们想要进一步验证这些预测的结果,更重要的是,将它们应用到迄今为止不可能实现的实验中。

近70年来,解析蛋白质的空间结构一直是一项极具科学意义的难题。如果基因组是一个“指令官”,那么蛋白质就是基因功能的“执行者”,可以说蛋白质几乎参与人体内所有的生理过程和疾病过程。如果我们能掌握蛋白质的精确结构,就像解析了一把精密的锁的内部结构。对于人类来说,也更容易开发出一把甚至多把能打开这些“锁”的钥匙,而这将会改变我们在分子水平上对自身的认知,治疗现今绝大多数的人类疾病。

DeepMind联合创始人兼首席执行官杰米斯·哈萨比斯(Demis Hassabis)认为,这是人工智能系统迄今为止对推进科学发展作出的最大贡献。此外,对于一些AlphaFold无法准确预测的蛋白结构,一些科学家也发表了自己的见解。一部分人认为,在人类等真核生物中,相当一部分蛋白质区域本身就是无序的,这或许是为了与其他的蛋白分子相互作用,也可能还有一些我们还不知道的作用。

值得一提的是,在《自然》于上周发表AlphaFold论文的次日,《科学》杂志也公布了另一项蛋白质预测算法——RoseTTAFold。这个算法由华盛顿大学医学院蛋白质设计研究所和哈佛大学、剑桥大学等机构联合开发。它采用和AlphaFold2不同的深度学习算法,但具有AlphaFold2可媲美的超高准确率,而且速度更快、对计算机处理能力的需求也较少,能在短短的10分钟内计算出一个蛋白的结构。目前,研究人员正在用这一算法研究一些和人类 健康 直接相关的蛋白质的结构。

这两项算法的出现无疑标志着在结构生物学领域,AI的时代已经到来。

撰文 | 石云雷

审校 | 吴非

参考链接:

在之前的人机对决中完胜人类围棋冠军,据介绍,人工智能阿尔法狗每天都在模拟对阵,学习更多的方法,而且能积累对手的下棋棋谱。每下一步都经过数以千万计算量获取最佳步骤。可以说现在所向披靡。是目前人工智能中的一个杰作。

deepmind发表的论文

数据精准营销的七个关键要素说到大数据精准营销,不得不先提个性化的用户画像,我们针对每一类数据实体,进一步分解可落地的数据维度,刻画TA的每一个特征,在聚集起来形成人群画像。 01用户画像用户画像是根据用户社会属性、生活习惯和消费行为等信息而抽象出的一个标签化的用户模型。具体包含以下几个维度:用户固定特征:性别,年龄,地域,教育水平,生辰八字,职业,星座用户兴趣特征:兴趣爱好,使用APP,网站,浏览/收藏/评论内容,品牌偏好,产品偏好用户社会特征:生活习惯,婚恋,社交/信息渠道偏好,宗教信仰,家庭成分用户消费特征:收入状况,购买力水平,商品种类,购买渠道喜好,购买频次用户动态特征:当下时间,需求,正在前往的地方,周边的商户,周围人群,新闻事件如何生成用户精准画像大致分成三步。1.采集和清理数据:用已知预测未知首先得掌握繁杂的数据源。包括用户数据、各式活动数据、电子邮件订阅数、线上或线下数据库及客户服务信息等。这个是累积数据库;这里面最基础的就是如何收集网站/APP用户行为数据。比如当你登陆某网站,其Cookie就一直驻留在浏览器中,当用户触及的动作,点击的位置,按钮,点赞,评论,粉丝,还有访问的路径,可以识别并记录他/她的所有浏览行为,然后持续分析浏览过的关键词和页面,分析出他的短期需求和长期兴趣。还可以通过分析朋友圈,获得非常清晰获得对方的工作,爱好,教育等方面,这比个人填写的表单,还要更全面和真实。我们用已知的数据寻找线索,不断挖掘素材,不但可以巩固老会员,也可以分析出未知的顾客与需求,进一步开发市场。2.用户分群:分门别类贴标签描述分析是最基本的分析统计方法,描述统计分为两大部分:数据描述和指标统计。数据描述:用来对数据进行基本情况的刻画,包括数据总数,范围,数据来源。指标统计:把分布,对比,预测指标进行建模。这里常常是Data mining的一些数学模型,像响应率分析模型,客户倾向性模型,这类分群使用Lift图,用打分的方法告诉你哪一类客户有较高的接触和转化的价值。在分析阶段,数据会转换为影响指数,进而可以做"一对一"的精准营销。举个例子,一个80后客户喜欢在生鲜网站上早上10点下单买菜,晚上6点回家做饭,周末喜欢去附近吃日本料理,经过搜集与转换,就会产生一些标签,包括"80后""生鲜""做饭""日本料理"等等,贴在消费者身上。3.制定策略:优化再调整有了用户画像之后,便能清楚了解需求,在实际操作上,能深度经营顾客关系,甚至找到扩散口碑的机会。例如上面例子中,若有生鲜的打折券,日本餐馆最新推荐,营销人员就会把适合产品的相关信息,精准推送这个消费者的手机中;针对不同产品发送推荐信息,同时也不断通过满意度调查,跟踪码确认等方式,掌握顾客各方面的行为与偏好。除了顾客分群之外,营销人员也在不同时间阶段观察成长率和成功率,前后期对照,确认整体经营策略与方向是否正确;若效果不佳,又该用什么策略应对。反复试错并调整模型,做到循环优化。这个阶段的目的是提炼价值,再根据客户需求精准营销,最后追踪客户反馈的信息,完成闭环优化。我们从数据整合导入开始,聚合数据,在进行数据的分析挖掘。数据分析和挖掘还是有一些区别。数据分析重点是观察数据,单纯的统计,看KPI的升降原因。而数据挖掘从细微和模型角度去研究数据,从学习集、训练集发现知识规则,除了一些比较商业化的软件SAS,WEKA功能强大的数据分析挖掘软件,这边还是更推荐使用R,Python,因为SAS,SPSS本身比较昂贵,也很难做页面和服务级别的API,而Python和R有丰富的库,可以类似WEKA的模块,无缝交互其他API和程序,这里还需要熟悉数据库,Hadoop等。02数据细分受众“颠覆营销”书中提到一个例子,可以引述一下,大家思考一个问题:如果你打算搜集200份有效问卷,依照以往的经验,你需要发多少份问卷,才能达到这个目标?预计用多少预算和时间来执行?以往的方法是这样的:评估网络问卷大约是5%的回收率,想要保证收到200份的问卷,就必须有20倍的发送量,也就是发出4000份问卷,一个月内如果可以回收,就是不错的表现。但现在不一样了,在执行大数据分析的3小时内,就可以轻松完成以下的目标:精准挑选出1%的VIP顾客发送390份问卷,全部回收问卷寄出3小时内回收35%的问卷5天内就回收了超过目标数86%的问卷数所需时间和预算都在以往的10%以下这是怎么做到在问卷发送后的3个小时就回收35%?那是因为数据做到了发送时间的"一对一定制化",利用数据得出,A先生最可能在什么时间打开邮件就在那个时间点发送问卷。举例来说,有的人在上班路上会打开邮件,但如果是开车族,并没有时间填写答案,而搭乘公共交通工具的人,上班路上的时间会玩手机,填写答案的概率就高,这些都是数据细分受众的好处。03预 测“预测”能够让你专注于一小群客户,而这群客户却能代表特定产品的大多数潜在买家。当我们采集和分析用户画像时,可以实现精准营销。这是最直接和最有价值的应用,广告主可以通过用户标签来发布广告给所要触达的用户,这里面又可以通过上图提到的搜索广告,展示社交广告,移动广告等多渠道的营销策略,营销分析,营销优化以及后端CRM/供应链系统打通的一站式营销优化,全面提升ROI。我们再说一说营销时代的变迁,传统的企业大多还停留在“营销1.0”时代,以产品为中心,满足传统的消费者需求,而进入“营销2.0”,以社会价值与品牌为使命,也不能完全精准对接个性化需求。进入营销3.0的数据时代,我们要对每个消费者进行个性化匹配,一对一营销,甚至精确算清楚成交转化率,提高投资回报比。 大数据下的营销颠覆经典的营销4P理论,Product,Price,Place,Promotion,取而代之的是新的4P,People,Performance,Process,Prediction。在大数据时代,线下地理的竞争边界早就不存在,比的是早一步的先知能力,利用大数据,从顾客真实交易数据中,预测下一次的购买时间。 营销3.0时代关键词就是“预测”。预测营销能够让你专注于一小群客户,而这群客户却能代表特定产品的大多数潜在买家。以上图为例,你可以将营销活动的目标受众锁定为20万潜在客户或现有客户,其中包括特定产品的大多数买家(4万人)。你还可以拨出部分预算用于吸引更小的客户群(比如20% 的客户),而不是整个客户群,进而优化你的支出。过去我们看数据可能是被动的方式,但预测营销强调是决策价值,比如购买时间,你该看的不是她最后的购买日期,而是下次购买的时间,看未来的存活概率,最后生成客户终身价值(CLV)。预测营销催生了一种新的数据驱动营销方式,就是以客户为中心,核心在于帮助公司完成从以产品或渠道为中心到以客户为中心的转变。04精准推荐大数据最大的价值不是事后分析,而是预测和推荐,我就拿电商举例,"精准推荐"成为大数据改变零售业的核心功能。譬如服装网站Stitch fix例子,在个性化推荐机制方面,大多数服装订购网站采用的都是用户提交身形、风格数据+编辑人工推荐的模式,Stitch Fix不一样的地方在于它还结合了机器算法推荐。这些顾客提供的身材比例,主观数据,加上销售记录的交叉核对,挖掘每个人专属的服装推荐模型。 这种一对一营销是最好的服务。数据整合改变了企业的营销方式,现在经验已经不是累积在人的身上,而是完全依赖消费者的行为数据去做推荐。未来,销售人员不再只是销售人员,而能以专业的数据预测,搭配人性的亲切互动推荐商品,升级成为顾问型销售。05技术工具关于预测营销的技术能力,有几种选择方案:1、使用预测分析工作平台,然后以某种方法将模型输入活动管理工具;2、以分析为动力的预测性活动外包给市场服务提供商;3、评估并购买一个预测营销的解决方案,比如预测性营销云和多渠道的活动管理工具。但无论哪条路,都要确定三项基本能力:1)连接不同来源的客户数据,包括线上,线下,为预测分析准备好数据 ;2)分析客户数据,使用系统和定制预测模型,做高级分析 ;3)在正确时间,正确客户,正确的场景出发正确行为,可能做交叉销售,跨不同营销系统。06预测模型预测客户购买可能性的行业标准是RFM模型(最近一次消费R,消费频率F,消费金额M),但模型应用有限,本质是一个试探性方案,没有统计和预测依据。“过去的成绩不能保证未来的表现”,RFM只关注过去,不去将客户当前行为和其他客户当前行为做对比。这样就无法在购买产品之前识别高价值客户。我们聚焦的预测模型,就是为了在最短时间内对客户价值产生最大影响。这里列举一些其他模型参考:参与倾向模型,预测客户参与一个品牌的可能性,参与定义可以多元,比如参加一个活动,打开电子邮件,点击,访问某页面。可以通过模型来确定EDM的发送频率。并对趋势做预测,是增加还是减少活动。钱包模型,就是为每个客户预测最大可能的支出,定义为单个客户购买产品的最大年度支出。然后看增长模型,如果当前的总目标市场比较小,但未来可能很大,就需要去发现这些市场。价格优化模型,就是能够去最大限度提升销售,销量或利润的架构,通过价格优化模型为每个客户来定价,这里需要对你想要的产品开发不同的模型,或者开发通用,可预测的客户价格敏感度的模型,确定哪一块报价时对客户有最大的影响。关键字推荐模型,关键字推荐模型可以基于一个客户网络行为和购买记录来预测对某个内容的喜爱程度,预测客户对什么热点,爆款感兴趣,营销者使用这种预测结果为特定客户决定内容营销主题。预测聚集模型,预测聚集模型就是预测客户会归为哪一类。07AI在营销领域的应用去年人工智能特别火,特别是深度学习在机器视觉,语言识别,游戏AI上的突飞猛进,以至于人们开始恐慌人工智能是不是已经可以接管人类工作,我个人是对新技术有着强烈的兴趣,也非常看好新科技,数据与现实的关联。我以前在国外零售店买单的时候经常被询问“你有没有购物卡”,当我说没有收银员会赶紧劝我免费开通,有打折优惠,只需要填个手机号和邮箱,后面就可以针对我的购买记录做营销活动,而当我下次进来,他们就让我报出电话号码做消费者识别,当时我想如果做到人脸识别,岂不是更方便,刷脸就可以买单。而这个场景在去年也有了实验,蚂蚁金服研发出了一个生物识别机器人,叫蚂可Mark,据说其认脸能力已经超越了人类肉眼的能力。还有VR购物,Amazon推出的无收银员商店Amazon Go,通过手势识别,物联网和后续数据挖掘等技术实现购物体验。针对营销领域,主要有以下三种预测营销技术:1、无监督的学习技术无监督学习技术能识别数据中的隐藏模式,也无须明确预测一种结果。比如在一群客户中发现兴趣小组,也许是滑雪,也许是长跑,一般是放在聚类算法,揭示数据集合中 真实的潜在客户。所谓聚类,就是自动发现重要的客户属性,并据此做分类。2、 有监督的学习技术通过案例训练机器,学习并识别数据,得到目标结果,这个一般是给定输入数据情况下预测,比如预测客户生命周期价值,客户与品牌互动的可能性,未来购买的可能性。3、强化学习技术这种是利用数据中的潜质模式,精准预测最佳的选择结果,比如对某用户做促销应该提供哪些产品。这个跟监督学习不同,强化学习算法无须仅需输入和输出训练,学习过程通过试错完成。从技术角度看,推荐模型应用了协同过滤,贝叶斯网络等算法模型。强化学习是被Google Brain团队的负责人Jeff Dean认为是最有前途的AI研究方向之一。最近Google的一个AI团队DeepMind发表了一篇名为《学会强化学习》的论文。按团队的话来说,叫做“学会学习”的能力,或者叫做能解决类似相关问题的归纳能力。除了强化学习,还在迁移学习。迁移学习就是把一个通用模型迁移到一个小数据上,使它个性化,在新的领域也能产生效果,类似于人的举一反三、触类旁通。强化学习加上迁移学习,能够把小数据也用起来,我认为是很激动人心的,通过AI来创造AI,数据科学家的部分工作也可以让机器来实现了。

天才!AlphaGo的创始人戴密斯·哈萨比斯2016-06-01 22:11 | 迪哥说事AlphaGo近日表现出色,AlphaGo的创始人戴密斯·哈萨比斯也引发关注。媒体称,放在大街上,哈萨比斯相貌平平,你可能不会想再看第二眼。不过互联网之父蒂姆·伯纳斯-李(Tim Berners-Lee)曾表示,哈萨比斯是这个星球上最聪明的人物之一。 综合英国《卫报》、科技媒体爱范儿报道,哈萨比斯1976年出生于伦敦,拥有1/4中国血统,父亲有着希腊和塞浦路斯血统,母亲则出身自新加坡和中国人的家庭。他们都是老师,曾经开过玩具店,有着“像波西米亚人”般的性格。在这么个家庭,走出继承父母衣钵或者从事艺术的孩子应该是一件大概率事件。 事实也正是如此。哈萨比斯的妹妹是一名作曲家和钢琴演奏家,而弟弟则专注于创造性写作。“很明显,我就是家中的那只黑天鹅。”哈萨比斯曾这样开玩笑地表示。 他4岁时开始下国际象棋,到了13岁,Elo等级分为2300分(国际棋联使用的等级分制度,拿到2300分到2399分的人的水平大概是棋联大师),是有史以来14岁以下组别分数第二高的孩子。 但哈萨比斯的天才并不只限于国际象棋领域。在使用国际象棋比赛赢得的奖金买了电脑后,他在计算机上一发不可收拾:8岁编写自己的计算机游戏;16岁完成“英国高考”后加入Bullfrog Productions游戏开发公司,在游戏《Syndicate》负责关卡设计;17 岁作为联合设计者和主力程序员开发出包含AI元素的经典电子游戏《主题公园》。/也就是说戴密斯·哈萨比斯 在上大学之前就已经会AI了/不过,哈萨比斯并没有过早地把游戏开发作为自己的事业,而是在这个时候选择到剑桥大学学**计算机科学。这大概就是神童的人生。 从游戏创业者到神经科学博士 1997年,当20岁的哈萨比斯以计算机科学双重一级荣誉学位(double first)的成绩从剑桥毕业后,他和几年前一样选择了一家游戏公司任职,但很快他就独立门户了:1998年创立了Elixir工作室,成为一名独立开发者。 在Elixir的几年中,虽然哈萨比斯设计的两款游戏被提名“英国奥斯卡”BAFTA奖,但都没有得到大众的高评价。这并不是哈萨比斯想要的结果。他当时认为:“是时候做一些以智能为首要任务的事情了。” 2005年,他将游戏的知识产权和专利卖给了几个游戏出版商,关闭了工作室,重新回到了校园。而这一次,他把目光放在了认知神经科学上。 为什么是认知神经科学?因为大脑——人类智慧的象征——正是哈萨比斯可以为人工智能找到新算法的灵感源泉。在伦敦大学学院攻读博士学位时,他的主要研究领域是自传体记忆和海马体。前者指的是对个人复杂生活事件的混合记忆,后者则是人脑中负责储存短期记忆的部分。 经过几年的研究,哈萨比斯提出了关于情节记忆系统的新理论:场景构建是掩藏在回忆和想象中的关键过程。该理论在2007年被《科学》杂志评为年度十大科学突破之一。 建人工通用智能自称登月计划 从神童成为创业者,再变成科学家,哈萨比斯的下一步没有多少人能看透。 2010 年,他与在伦敦大学学院读博士遇到的施恩·莱格(Shane Legg)共同创办了DeepMind并担任CEO,研究人工通用智能(AGI),而哈萨比斯把它形容为“21 世纪的阿波罗登月计划”。 大多数人工智能系统(AI)都是“狭隘” 的,训练事前编写好程序的代理来掌握某种特定的任务,它们并没有太多其他的能力了。哈萨比斯站在另一边:他从人类大脑获取灵感,试图创造第一台“通用用途的学**机器”,一组灵活的、适应性强的算法,能够像生物系统那样只利用原始数据来学**如何从头开始掌握任何一种任务。 2014年,谷歌以4亿美元收购DeepMind,当时的他们没有产品只有论文,技术人员也仅仅有20位。不过很快DeepMind 就证明了它的价值:2015年2月,DeepMind在另一本一流科学杂志《自然》发表论文,介绍了能够通过学**成为雅达利(现代游戏机始祖)游戏高手的人工主体。 然后在2016年1月DeepMind再次发表论文,称他们的新算法AlphaGo在最困难的游戏——围棋——上也取得了巨大突破。而后,就是公众耳熟能详的事了。 哈萨比斯是个天才,这个论断即使只知道他是那台在围棋比赛中下赢人类的机器背后的男人,相信也不会有很大的异议。不过,看着他谈到自己的理想、自己的童年、自己的孩子,你就会知道,他并不是什么企图溃灭人类的疯狂科学家,也不是木讷的“极客”。不管哈萨比斯自己是否认同,他肩上担负的可能就是人类未来的某种希望。 哈萨比斯希望人工智能能够在医疗、气候变化、金融等等领域发挥作用。每晚,他都会回到家里和家人一起吃饭聊天,之后陪两个儿子写作业玩游戏。在带完两个孩子**睡觉之后,他会开始工作电话会议直至凌晨1时,之后用几个小时来进行思考。而在这些深夜的思考中,诞生的可能就是下一个颠覆全人类的想法。

Android以Java为编程语言,使接口到功能,都有层出不穷的变化,其中Activity等同于J2ME的MIDlet,一个 Activity 类(class)负责创建视窗(window),一个活动中的Activity就是在 foreground(前景)模式,背景运行的程序叫做Service。两者之间.

Google's artificial intelligence-driven AlphaGo sofare program will challenge Ke Jie, the world's top professional Go player, at China's Future of Go Summit in May. The prospect of this petition beeen human and artificial intelligence has captured the attention of the Chinese public, where the game was invented more than 2,500 years ago, and driven interest in Google's DeepMind machine learning method that developed AlphaGo.We believe a machine could never replace a person as an adversary in future.It's a cold machine without blood, while we have spiritual power.

谷歌非常有谋略,先让阿尔法狗连赢三次,奠定胜利的事实,展示人工智能的厉害!让人恐慌! 然后,谷歌让阿尔法狗输棋给李世石,以明白无误的方式告诉恐慌的人们:不要害怕,我们掌控着人工智能的! 如果人工智能把人逼上绝路,人工智能产业就会遭到人们的封杀! 谷歌输一局,缓和局面。

中日韩还有成千上万围棋学习者和相关从业人员,Google是商业公司,当然不会把事情做绝,肯定会考量这方面的因素。

比赛结束,alphago四比一完胜李世石,仅胜利的一局有很多人认为是谷歌为了让alphago有世界排名而故意输的一局,因为如果一个棋手一直连胜,是没有世界排名的,输了一局才有排名,按照官方发布目前alphago排名世界第二,中国小将柯杰世界第一。

AlphaGo能够战胜李世石的确证明了他是有职业顶尖的水平,也就是的职业九段,其计算能力与局部分析能力超越职业九段!可是,AlphaGo要想拿到职业冠军是基本不可能的,因为它不会自主学习,需要输入对方的棋谱才能占优优势。

此外,在局部与大局的判断上,AlphaGo是有缺陷的,如果是遇到巅峰时期的李昌镐或是聂老聂卫平先生,折现缺点就会被无限放大。

总而言之,现在它的对局还是太少了,需要更多的对局与研究,看不同的棋风与派别对它的胜率的影响,究竟综合实力是多少,还需要考究!

机器人还是不一样,完全不受外界与情绪的任何干扰,坐下便拼杀起来。

它的芯片经历了十年换代,几乎对所有围棋套路了如指掌,面对我的每一步棋,都能识破我的意图,找到最合适的解决方法,更别提失误了,而我却并不急躁,慢慢悠悠,心中早已打好了算盘。

这盘棋下得出奇得慢,半个月,1个月,我也并不着急,AlphaGo作为一个高智商机器人也能准确捕捉到我的所有需求,我们不仅棋下得有条不紊,它更是端茶倒水,冷风热气,无微不至。

这棋转眼便下了三个月,我打定主意,心中不急,这AlphaGo作为机器人便更不知着急了,倒是观众们耐心早已磨完,他们催促也好,咒骂也罢,我自不动,每日只想一步棋,每日只下一步棋,但我内心却从未平静。

我等待着机会,更等待着灵感,后来已无人有心再关注这场比赛,我的心中也越发平静了。

直到那一天,我依如往常早早起床,一边诵读着道德经,一边在园中散步。

突然,一个灵感穿过我的头脑,一个阴阳卦象图转变为了一幅棋盘,“我若击杀这个未曾关注过的棋点,他岂不再无机会?”我哈哈大笑,回到棋盘前,下了这一步我等了许久的棋,不出所料,AlphaGo一筹莫展,投子认输。

世界轰动,人们重新将关注点拉到了我身上,我也不过多解释,手放背后:“道可道,非常道……”我先人一盘棋能下几个月,参悟世间之道,下的是道,而非棋,这岂是一个机器人能理解的?”从此之后,人们不再挑战AlphaGo,亦不再过度追求棋中胜负,他们好像也沉静了下来,回归了这项运动最本质的精髓,思考人生,思考自然,思考世界,找到了心中的那片桃花源。

柯洁经历了英雄般的战斗后,依然第二局输给AlphaGo。

最有价值的信息可能来自AlphaGo之父萨比斯,中盘阶段他评论说:“不可思议,根据AlphaGo的评估,柯洁现在下得很完美。

”赛后萨比斯则评论:“这是一场惊心动魄的令人惊奇的比赛,柯洁几乎把AlphaGo逼到了极限。

”柯洁今天的最大收获是测出阿法狗的真实水平。

期望这次比赛能够验证。

当然它有两个前提条件,一是柯洁把最好水平发挥出来,二是AlphaGo能够经受真正的考验,而不是表面看它只赢一两个子,实际上后台胜率显示根本没有机会。

前天的第一局,AlphaGo赢了1.5目。

这是一个很小的差距,但柯洁下得谈不上多出色,因为从头到尾他基本没什么机会。

AlphaGo并不是一个赌徒,能赢100目绝不赢99;它是根据胜率估算来行棋的,如果赢1目而它认为胜率是100%,就没必要去下赢100目而胜率只有99%的棋。

所以,第一局柯洁远远没有逼出AlphaGo的真正实力。

昨天AlphaGo方面的消息,认为这次虽然只是一个单机版,但棋力已经比去年赢李世石的时候提高了三子。

这是一个挺吓人的消息,因为它会让人类棋手觉得,目前这个版本至少比人类强三子以上。

老实讲这挺绝望的,三子以上,四子。

那等于彻底宣布人类棋手跟AlphaGo已经是天壤之别。

知道,面对一个可以让四子的对手,这是职业和业余的差距,比赛已经失去意义,准确地说那叫戏耍。

它可以只赢1目甚至半目,但不说明任何问题,就像柯洁也可以让只输半目,但那又能说明什么。

难道会跑大街上喊,快看,柯洁只赢了半目。

谁都知道,柯洁想怎么赢就怎么赢,半目和100目没差别。

今天的比赛,由于“几乎把AlphaGo逼到了极限”,虽然不是让子棋,但基本可以猜出,在人类棋手高水平发挥的前提下,目前AlphaGo让不到人类三子,可能是二子或者略多。

挂盘讲解的李世石也做出这种判断:AlphaGo并没有提升三子的实力,估计大概有二子。

至此,本次比赛人类棋手的目标或者说心愿已经达到:测试出AlphaGo的真正实力。

否则,AlphaGo就永远是上帝般的存在。

知道它强,但不知道它到底多强,所以它就是上帝。

知道,没有上帝。

如果由于无法评测AI(人工智能)的水平,而把它视为上帝一样的存在,这不是人类进化或者说发展的方向。

等于把命运交给未知,哪怕这个未知是人类创造出来的,也有理由疑虑甚至恐惧。

所以要感谢柯杰,不愧围棋第一人,他今天的勇气和表现,至少让暂时可以从外部角度了解到AlphaGo的真实水平。

这是比胜负更重要的事情。

题目:《人工智能》3月15日,举世瞩目的“人机大战”尘埃落定,人工智能“阿尔法狗围棋”(AlphaGo)以4:1的比分战胜人类围棋顶尖高手李世石九段,为世人留下一个不愿接受又不得不接受的事实。

面对“阿尔法狗围棋”(AlphaGo),有人不服,如中国的超级围棋新星柯洁九段,就公开向“阿尔法狗围棋”(AlphaGo)叫板:“你赢不了我!”有人叹息:人类智慧最后的尊严在一只“小狗”面前丢失。

有人甚至悲观地认为,机器统治人类的时代即将来临。

其实,所谓人类尊严、所谓机器人的统治时代,只是我们一些人的臆想,“阿尔法狗围棋”(AlphaGo)的胜利,说到底就是一次技术革命的胜利,是人类对自身的一次超越。

正如西安交通大学副校长、国家重点基础研究计划(973)“基于视认知的非结构化信息处理基础理论与关键技术”首席科学家徐宗本说的:“任何人工智能技术的成功一定是当代最新技术综合运用的成功,片面说成谁战胜谁是不公平的,也是无意义的,说人类智慧的最后壁垒被攻破,这都是无稽之谈。

”“阿尔法狗围棋”(AlphaGo)的胜利,背后的最大价值在于,它激励人们持续不断地探索过去人工智能领域一直看似难以实现的人类智能级别。

从这一点上看,人工智能的胜利也有非凡的意义,甚至可以说具有划时代的意义。

是的,翻开人类历史,哪一次技术革命不带来人类社会翻天覆地的变化?蒸汽机的发明、使用,使人类从农业手工业时代进入了工业社会;电动机的诞生,使人类从工业社会跨入了现代化。

而以原子能、电子计算机、空间技术和生物工程的发明与应用为主要标志的信息技术革命,更让人类从此进入了自动化、信息化时代。

每一次技术革命,伴随的都是生产力的发展和人类自身的解放。

“阿尔法狗围棋”(AlphaGo)的 胜利,是不是会掀起又一次技术革命,我们还需拭目以待。

然而,人工智能的进步,却可以让我们展望到人类美妙无比的前景。

我们似乎可以看到,不久的将来,到 处都是机器人在人们的指令下为人们服务;我们似乎可以看到,那些对于目前医术来说几乎无解的人类大脑和神经疾病,如自闭症、老年痴呆症这样的国际医学难 题,随着人工智能的进步,一切都会迎刃而解;我们似乎可以看到,有了人工智能的协助,人类真正步入了大同的理想社会。

是的,“阿尔法狗围棋”(AlphaGo)的胜利,是人类的智慧向前迈出的又一步,有了这一步,我们的世界将更加美好。

当然,面对这些进步,我们不能只是围观、娱乐和敬仰,我们应该用我们的智慧,去促成人工智能更大的进步!

AlphaGo一般指阿尔法围棋阿尔法围棋(AlphaGo)是第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能程序。

其主要工作原理是“深度学习”。

阿尔法围棋(AlphaGo)是一款围棋人工智能程序。

其主要工作原理是“深度学习”。

“深度学习”是指多层的人工神经网络和训练它的方法。

一层神经网络会把大量矩阵数字作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出。

这就像生物神经大脑的工作机理一样,通过合适的矩阵数量,多层组织链接一起,形成神经网络“大脑”进行精准复杂的处理,就像人们识别物体标注图片一样。

最强AlphaGo Zero怎样炼成刚刚,Deepmind在Reddit的Machine Learning板块举办了在线答疑活动AMA,Deepmind强化学习组负责人David Silver和其同事热情地回答了网友们提出的各种问题。

由于在AMA前一天Deepmind刚刚发表了《Mastering the game of Go without human knowledge》(不使用人类知识掌握围棋)的论文,相关的提问和讨论也异常热烈。

什么是AMA?AMA(Ask Me Anything)是由Reddit的特色栏目,你也可以将其理解为在线的“真心话大冒险”。

AMA一般会约定一个时间,并提前若干天在Reddit上收集问题,回答者统一解答。

本次Deepmind AMA的回答人是:David Silver:Deepmind强化学习组负责人,AlphaGo首席研究员。

David Silver1997年毕业于剑桥大学,获得艾迪生威斯利奖。

David于2004年在阿尔伯塔大学获得计算机博士学位,2013年加盟DeepMind,是AlphaGo项目的主要技术负责人。

Julian Schritieser:Deepmind高级软件工程师。

此前有多位机器学习界的大牛/公司在Reddit Machine Learning版块开设AMA,包括:Google Brain Team、OpenAI Research Team 、Andrew Ng and Adam Coates、Jürgen Schmidhuber、Geoffrey Hinton、Michael Jordan 、Yann LeCun、Yoshua Bengio等。

我们从今天Deepmind的AMA中选取了一些代表性的问题,整理如下:关于论文与技术细节Q: Deepmind Zero的训练为什么如此稳定?深层次的增强学习是不稳定和容易遗忘的,自我对局也是不稳定和容易遗忘的,如果没有一个好的基于模仿的初始化状态和历史检查点,二者结合在一起应该是一个灾难...但Zero从零开始,我没有看到论文中有这部分的内容,你们是怎么做到的呢?David Silver:在深层增强学习上,AlphaGo Zero与典型的无模式算法(如策略梯度或者Q学习)采用的是完全不同的算法。

通过使用AlphaGo搜索,我们可以极大改进策略和自我对局的结果,然后我们会用简单的、基于梯度的更新来训练下一个策略及价值网络。

比起基于简便的基于梯度的策略改进,这样的做法会更加稳定。

Q:我注意到ELO等级分增长的数据只与到第40天,是否是因为论文截稿的原因?或者说之后AlphaGo的数据不再显著改善?David Silver:AlphaGo已经退役了!这意味着我们将人员和硬件资源转移到其他AI问题中,我们还有很长的路要走呐。

Q:关于论文的两个问题:Q1:您能解释为什么AlphaGo的残差块输入尺寸为19x19x17吗?我不知道为什么每个对局者需要用8个堆叠的二进制特征层来描述?我觉得1、2个层就够了啊。

虽然我不是100%理解围棋的规则,但8个层看起来也多了点吧?Q2:由于整个通道使用自我对局与最近的/最好的模型进行比较,你们觉得这对于采用参数空间的特定SGD驱动轨迹对否会有过拟合的风险?David Silver:说起来使用表征可能比现在用的8层堆叠的做法更好!但我们使用堆叠的方式观察历史数据有三个原因:1)它与其他领域的常见输入一致;2)我们需要一些历史状态来表示被KO;3)如果有一些历史数据,我们可以更好地猜测对手最近下的位置,这可以作为一种关注机制(注:在围棋中,这叫“敌之要点即我之要点”),而第17层用于标注我们现在究竟是执黑子还是白子,因为要考虑贴目的关系。

Q:有了强大的棋类引擎,我们可以给玩家一个评级——例如Elo围棋等级分就是通过棋手对局的分析逐步得出的,那么AlphaGo是否可以对过去有等级分前的棋手的实力进行分析?这可能为研究人类的认知提供一个平台。

Julian Schritieser:感谢分享,这个主意很棒!我认为在围棋中这完全可以做到,或许可以用最佳应对和实际应对的价值差异或者政策网络给每一手位置评估得到的概率来进行?我有空的时候试一下。

Q: 既然AlphaGo已经退役了,是否有将其开源的计划?这将对围棋社区和机器学习研究产生巨大的影响。

还有,Hassabis在乌镇宣称的围棋工具将会什么时候发布?David Silver:现在这个工具正在准备中。

不久后你就能看到新的消息。

Q:AlphaGo开发过程中,在系统架构上遇到的最大障碍是什么?David Silver:我们遇到的一个重大挑战是在和李世石比赛的时候,当时我们意识到AlphaGo偶尔会受到我们所谓的“妄想”的影响,也就是说,程序可能会错误理解当前盘面局势,并在错误的方向上持续许多步。

我们尝试了许多方案,包括引入更多的围棋知识或人类元知识来解决这个问题。

但最终我们取得了成功,从AlphaGo本身解决了这个问题,更多地依靠强化学习的力量来获得更高质量的解决方案。

围棋爱好者的问题Q:1846年,在十四世本因坊迹目秀策与十一世井上幻庵因硕的一盘对局中,秀策下的第127手让幻庵因硕一时惊急两耳发赤,该手成为扭转败局的“耳赤一手”。

如果是AlphaGo,是否也会下出相同的一首棋?Julian Schritieser:我问了樊麾,他的回答是这样的:当时的围棋不贴目,而AlphaGo的对局中,黑棋需贴7.5目。

贴目情况不同造成了古今棋局的差异,如果让AlphaGo穿越到当年下那一手,很有可能下的是不同的另一个地方。

Q:从已发布的AlphaGo相互对局看,执白子的时间更为充裕,因...

AlphaGo这个系统主要由几个部分组成:走棋网络(Policy Neork),给定当前局面,预测/采样下一步的走棋。

快速走子(Fast rollout),目标和1一样,但在适当牺牲走棋质量的条件下,速度要比1快1000倍。

估值网络(Value Neork),给定当前局面,估计是白胜还是黑胜。

蒙特卡罗树搜索(Monte Carlo Tree Search,MCTS),把以上这三个部分连起来,形成一个完整的系统。

我们的DarkForest和AlphaGo同样是用4搭建的系统。

DarkForest较AlphaGo而言,在训练时加强了1,而少了2和3,然后以开源软件Pachi的缺省策略 (default policy)部分替代了2的功能。

以下介绍下各部分。

1、走棋网络走棋网络把当前局面作为输入,预测/采样下一步的走棋。

它的预测不只给出最强的一手,而是对棋盘上所有可能的下一着给一个分数。

棋盘上有361个点,它就给出361个数,好招的分数比坏招要高。

DarkForest在这部分有创新,通过在训练时预测三步而非一步,提高了策略输出的质量,和他们在使用增强学习进行自我对局后得到的走棋网络(RL neork)的效果相当。

当然,他们并没有在最后的系统中使用增强学习后的网络,而是用了直接通过训练学习到的网络(SL neork),理由是RL neork输出的走棋缺乏变化,对搜索不利。

有意思的是在AlphaGo为了速度上的考虑,只用了宽度为192的网络,而并没有使用最好的宽度为384的网络(见图2(a)),所以要是GPU更快一点(或者更多一点),AlphaGo肯定是会变得更强的。

所谓的0.1秒走一步,就是纯粹用这样的网络,下出有最高置信度的合法着法。

这种做法一点也没有做搜索,但是大局观非常强,不会陷入局部战斗中,说它建模了“棋感”一点也没有错。

我们把DarkForest的走棋网络直接放上KGS就有3d的水平,让所有人都惊叹了下。

可以说,这一波围棋AI的突破,主要得益于走棋网络的突破。

这个在以前是不可想像的,以前用的是基于规则,或者基于局部形状再加上简单线性分类器训练的走子生成法,需要慢慢调参数年,才有进步。

当然,只用走棋网络问题也很多,就我们在DarkForest上看到的来说,会不顾大小无谓争劫,会无谓脱先,不顾局部死活,对杀出错,等等。

有点像高手不经认真思考的随手棋。

因为走棋网络没有价值判断功能,只是凭“直觉”在下棋,只有在加了搜索之后,电脑才有价值判断的能力。

2、快速走子那有了走棋网络,为什么还要做快速走子呢?有两个原因,首先走棋网络的运行速度是比较慢的,AlphaGo说是3毫秒,我们这里也差不多,而快速走子能做到几微秒级别,差了1000倍。

所以在走棋网络没有返回的时候让CPU不闲着先搜索起来是很重要的,等到网络返回更好的着法后,再更新对应的着法信息。

其次,快速走子可以用来评估盘面。

由于天文数字般的可能局面数,围棋的搜索是毫无希望走到底的,搜索到一定程度就要对现有局面做个估分。

在没有估值网络的时候,不像国象可以通过算棋子的分数来对盘面做比较精确的估值,围棋盘面的估计得要通过模拟走子来进行,从当前盘面一路走到底,不考虑岔路地算出胜负,然后把胜负值作为当前盘面价值的一个估计。

这里有个需要权衡的地方:在同等时间下,模拟走子的质量高,单次估值精度高但走子速度慢;模拟走子速度快乃至使用随机走子,虽然单次估值精度低,但可以多模拟几次算平均值,效果未必不好。

所以说,如果有一个质量高又速度快的走子策略,那对于棋力的提高是非常有帮助的。

为了达到这个目标,神经网络的模型就显得太慢,还是要用传统的局部特征匹配(local pattern matching)加线性回归(logistic regression)的方法,这办法虽然不新但非常好使,几乎所有的广告推荐,竞价排名,新闻排序,都是用的它。

与更为传统的基于规则的方案相比,它在吸纳了众多高手对局之后就具备了用梯度下降法自动调参的能力,所以性能提高起来会更快更省心。

AlphaGo用这个办法达到了2微秒的走子速度和24.2%的走子准确率。

24.2%的意思是说它的最好预测和围棋高手的下子有0.242的概率是重合的,相比之下,走棋网络在GPU上用2毫秒能达到57%的准确率。

这里,我们就看到了走子速度和精度的权衡。

和训练深度学习模型不同,快速走子用到了局部特征匹配,自然需要一些围棋的领域知识来选择局部特征。

对此AlphaGo只提供了局部特征的数目(见Extended Table 4),而没有说明特征的具体细节。

我最近也实验了他们的办法,达到了25.1%的准确率和4-5微秒的走子速度,然而全系统整合下来并没有复现他们的水平。

我感觉上24.2%并不能完全概括他们快速走子的棋力,因为只要走错关键的一步,局面判断就完全错误了;而图2(b)更能体现他们快速走子对盘面形势估计的精确度,要能达到他们图2(b)这样的水准,比简单地匹配24.2%要做更多的工作,而他们并未在文章中强调这一点。

在AlphaGo有了快速走子之后,不需要走棋网络和估值网络,不借助任何深度学习和GPU的帮助,不使用增强学习,在单机上就已经达到了3d的水平(见Extended Table 7倒数第二行),这是相当厉害的了。

任何使用传统方法在单机上达...

转载请注明出处作文大全网 » alphago是什么语言开发的

近期论文发表

1.高温碘油热栓塞治疗原发性肝癌发表在《中华肝脏病杂志》2002年6月第10卷第3期174-1772.高温碘油热栓塞治疗脾功能亢进发表在《中华肝脏病杂志》2001年12月第9卷第6期375-3763. 经皮肝穿刺胃冠状静脉栓塞治疗肝硬化上消化道出血发表在《中华实用医学杂志》2003年第5卷第18期40-424.肝癌所致恶性布-加综合症发表在《中华国际医药杂志》2003年第2卷第3期172-1745.顽固性肝性腹水的介入治疗即将发表在《中华肝脏病杂志》。6.门静脉穿刺造影改良TIPS治疗门静脉高压消化道出血发表在《中华肝脏病杂志》2006年月6期403-4067.介入开通术治疗门静脉血栓性狭窄临床疗效观察发表在《中华肝胆外科杂志》2006年12月。研究方向:肿瘤微创介入治疗(热灌注介入治疗、冷极射频治疗、体内ý刀治疗等)及门静脉高压介入治疗。 目前正在研究的项目:肝癌门静脉瘤栓双介入治疗。

最近,苏州大学材料与化学化工学部的汪胜教授团队在高水平期刊《Nature Communications》上发表了题为“Hybrid nanogenerator for simultaneously harvesting sun and rain energy”的一篇论文。该研究团队成功地设计并制备了一种新型的混合纳米发电机,可以同时从太阳和雨水中收集能量。该混合纳米发电机采用了多层结构,包括由半导体纳米线、珍珠岩和碳纤维布组成的柔性基板和由钛酸锶、银、氧化锌和聚丙烯腈等复合材料制成的光电极。在实验中,该混合纳米发电机可以同时输出太阳能和雨能电能,达到了不错的能量转换效率。这项研究的成果具有重要的应用价值,可以在实现清洁能源方面发挥重要作用。该研究还证明了科学家们通过将不同技术结合在一起,可以开发出更加高效的能源转换装置。

最近,苏州大学材料与化学化工学部的汪胜研究团队在Advanced Materials和Biomaterials Science上分别发表了两篇论文。这些论文的主题集中在新型纳米材料在生物医学领域的应用。在Advanced Materials上发表的论文中,研究团队设计了一种基于层状双氧水钙钛矿纳米晶体的纳米药物载体。他们发现,这种载体可以有效地抑制癌细胞的增殖和扩散,并对正常细胞没有毒性。在Biomaterials Science上发表的论文中,研究团队探索了一种基于羟基磷灰石的生物活性材料,并将其应用于骨修复。他们发现,这种材料可以促进骨细胞的增殖和分化,从而加速骨的再生和修复。这些研究成果有望为生物医学领域提供新的治疗方法和技术,具有重要的应用价值。

发表论文的平台如下:

1.知网

这里所说的是知网,是清华大学和清华同方共同办的这个数据库。在前些年他也叫中国期刊网,由于后来有人自己建了个网站也叫中国期刊网,自己收录期刊,假李逵装真李逵。玩文字游戏,导致很多作者上当。

所以现在知网对外不称中国期刊网了,就是叫知网。从论文发表来说,知网是最权威的,最有说服力的数据库。

凡是知网收录的期刊,一定是正规的,可以放心大胆的发表的,但是最近这两年知网变得更严格,所以知网收录的期刊发表费用比较贵一些。

2.万方数据库

万方数据库,也是一个比较大的论文数据库,仅次于知网。其权威性和重要性就等于是一个弱化版的知网,但是也是比较大。

从期刊正规性来说,如果一个期刊,知网不收录,但是万方数据库收录,说明还是比较正规的,虽然不如知网收录的那么正规。但是对于一般单位来说够用。

对于大学这样的单位可能必须要求知网。而对于一些企业单位,只要万方数据库能检索到已经发表的论文,就算不错了。所以,万方数据库也是一个必须参考的标准。

3.维普网

维普网在前些年实际上假刊比较多,比较泛滥,这两年所说期刊审核严格,上面审核严格,但是维普网收录的期刊从正规性和权威性上来说,都是严重不如知网和万方数据库。

对于很多要求不高的单位,或者评一些初级职称的单位,只有维普网收录的期刊还能管点用。稍微严格一些的,就不大灵光了。

论文近期发表

最近,苏州大学材料与化学化工学部的汪胜教授发表了一篇题为“钯纳米粒子修饰纳米多孔碳作为高效的氢气传感器”的论文。在这项研究中,汪胜教授和他的团队使用钯纳米粒子修饰纳米多孔碳,并将其用于制造高效的氢气传感器。这种传感器可以快速且准确地检测到氢气,具有高灵敏度和较低的检测限值。与传统的氢气传感器相比,这种传感器具有更快的响应时间和更高的稳定性。据研究人员介绍,这种高效的氢气传感器具有广泛的潜在应用,例如工业生产中的氢气检测、水处理、化学反应等领域。此外,在环境保护和能源领域中,这种传感器也有很好的发展前景。汪胜教授的研究成果得到了国内外同行的高度评价,有望为氢气传感器的研发和应用提供重要的参考和指导。

最近,苏州大学材料与化学化工学部的汪胜教授团队在高水平期刊《Nature Communications》上发表了题为“Hybrid nanogenerator for simultaneously harvesting sun and rain energy”的一篇论文。该研究团队成功地设计并制备了一种新型的混合纳米发电机,可以同时从太阳和雨水中收集能量。该混合纳米发电机采用了多层结构,包括由半导体纳米线、珍珠岩和碳纤维布组成的柔性基板和由钛酸锶、银、氧化锌和聚丙烯腈等复合材料制成的光电极。在实验中,该混合纳米发电机可以同时输出太阳能和雨能电能,达到了不错的能量转换效率。这项研究的成果具有重要的应用价值,可以在实现清洁能源方面发挥重要作用。该研究还证明了科学家们通过将不同技术结合在一起,可以开发出更加高效的能源转换装置。

最近,苏州大学材料与化学化工学部的汪胜研究团队在Advanced Materials和Biomaterials Science上分别发表了两篇论文。这些论文的主题集中在新型纳米材料在生物医学领域的应用。在Advanced Materials上发表的论文中,研究团队设计了一种基于层状双氧水钙钛矿纳米晶体的纳米药物载体。他们发现,这种载体可以有效地抑制癌细胞的增殖和扩散,并对正常细胞没有毒性。在Biomaterials Science上发表的论文中,研究团队探索了一种基于羟基磷灰石的生物活性材料,并将其应用于骨修复。他们发现,这种材料可以促进骨细胞的增殖和分化,从而加速骨的再生和修复。这些研究成果有望为生物医学领域提供新的治疗方法和技术,具有重要的应用价值。

可以通过预定获得某期刊最新发表的论文。

论文是一个汉语词语,拼音是lùn wén,古典文学常见论文一词,谓交谈辞章或交流思想。

当代,论文常用来指进行各个学术领域的研究和描述学术研究成果的文章,简称之为论文。它既是探讨问题进行学术研究的一种手段,又是描述学术研究成果进行学术交流的一种工具。它包括学年论文、毕业论文、学位论文、科技论文、成果论文等。

2020年12月24日,《本科毕业论文(设计)抽检办法(试行)》提出,本科毕业论文抽检每年进行一次,抽检比例原则上应不低于2% 。

相关百科

热门百科

首页
发表服务