Arjovsky M, Bottou L, Gulrajani I, et al. Invariant Risk Minimization[J]. arXiv: Machine Learning, 2019. 该文献为华为人工智能竞赛第一题的参考文献。 本文引入了不变风险最小化的方法(IRM),作为一种学习范例,用于估计多个分布之间的不变相关性。为了实现这一目标,IRM学习了一种数据的表达,使得在这种数据表达之上的最优分类器可以匹配所有的训练分布。通过理论和实验,我们展示了IRM学习到的不变性如何与控制数据的因果结构相关联,并实现了分布外的泛化。 我们考虑数据集 ,该数据集来自不同环境 。这些环境描述不同环境下测得的同一组随机变量。数据集 来自环境e,包含一些独立同分布的样本,分布为 。那么,我们的目标是使用这些多个数据集学习预测器 ,该模型可以很好的应用于相似环境 。也即,我们要最小化下式:其中 是环境e中的风险值。这里 包含了所有可能的实验条件,包括观测的和假设的。考虑下面这个结构模型:通过 预测 ,在环境e中,我们采用最小二乘预测 ,我们回归 ,得到 和 ;回归 ,得到 , ;得到 和 。使用 回归是我们的第一个不变相关性,也即该回归预测效果不依赖于环境e。相反,第二个和第三个回归的预测效果依赖环境的变化。这些变化的(虚假的)相关性不能很好的推广到测试环境中。但并不是所有的不变性都是我们所关心的,比如从空集特征到Y的回归是不变的,但却没有预测效果。 是唯一的在所有环境 中不变的预测规则。进一步,该预测也是跨环境的对目标变量取值的因果解释。换句话说,这对目标变量随输入的变化提供了一种准确的描述。这是令人信服的,因为不变性是一个可检验的量,我们可以通过它发现因果关系。我们将在第4节详细讨论不变性和因果性的关系。但是首先,如何学习得到不变性,因果的回归?我们先回顾现有技术的一些局限性: 第一,我们可以直接使用所有的训练数据进行学习,使用所有特征来最小化训练误差。这就是传统的Empirical Risk Minimization(ERM)方法。在这个例子中,如果训练环境具有很大的 ,那么ERM方法将赋予 一个很大的正系数,这就远离了不变性。 第二,我们可以最小化 ,一种鲁棒性的学习策略,其中 是一个环境基准。设置这些基准为0就表明最小化在不同环境中的最大误差。选择这些基准是为了防止对嘈杂的环境为主导的优化。例如,我们可以选择 ,来最小化不同环境间的最大解释方差。虽然很有价值,但这就等同于鲁棒性的学习会最小化环境训练错误加权平均值。即选择最优的 ,使得 最小化。但是对于混合训练环境具有很大的 ,会给 赋予较大参数,但是测试环境可能具有较小的 。 第三,我们可以采取一种自适应策略来估计在所有环境中具有相同分布的数据表达 。这对于上述例子是不可能的,因为 的分布在不同的环境中是不同的。这就说明了为什么技术匹配的特征分布优势会增加不变性的错误形式。 第四, 我们可以紧跟这种不变性因果预测技术。这些变量的子集用于回归每一个环境,在所有环境中都会产生相同的回归残差。匹配残差分布不适用于上述例子,因为Y的噪声随环境发生变化。 总之,对于这个简单的例子都很难找到不变的预测。为了解决这个问题,我们提出了IRM方法,这是一种学习范式,可以提取跨多个环境的非线性不变预测变量,从而实现OOD泛化。 用统计学的话讲,我们的目标就是学习不同训练环境中不变的相关性。对于预测问题,这就意味这需要找到一种数据表达,使得在该数据表达之上的最佳分类器在不同的环境中都相同。可按如下定义方式: 定义3:考虑一种数据表达 ,如果有一个分类函数 适用于所有环境,则可导出的跨环境 的不变预测器 ,也即对于任意的 ,都有 。 为什么上述定义等价于与目标变量的相关性稳定的学习特征?对于损失函数如均方误差和交叉熵,最优的分类器可以写为条件期望。一种数据表达 可以产生的跨环境不变预测当且仅当对于 的所有焦点h处,对于任意的 ,都有 。 我们认为不变性的概念与科学中常用的归纳法是相抵触的。实际上,一些科学发现都可以追溯到发现一些不同的但潜在的相关现象,一旦用正确的变量描述,它们似乎遵循相同精确的物理定律。严格遵守这些规则表明它们在更广泛的条件下仍有效,如果牛顿的苹果和星球遵循相同方程,那么引力就是一件事。 为了从经验数据中发现这些不变性,我们引入了IRM方法,不仅具有好的预测结果,还是跨环境 的不变预测器。从数学上,可转为为如下优化问题(IRM):这是一个有挑战性的两级优化问题,我们将其转化为另一个版本(IRMv1):其中 是整个不变预测器, 是一个标量和一个固定的虚拟分类器,梯度形式惩罚是用来衡量每个环境e中虚拟分类器的最优性, 是预测能力(ERM)和预测 不变性的平衡调节参数。 我们将(IRM)中的硬性约束转化为如下的惩罚性损失:其中函数 表示了 使得 达到最小化的程度, 是平衡预测能力和不变性的超参数。在实际应用中,我们希望 关于 和 是可微的。 下面我们考虑 为线性分类器这一特殊情况。当给定数据表达 ,我们可以由 写出:且我们希望这两个线性分类器的差异越小越好,即 。我们将该方法用到中的实例中,令 , ,则c控制了这个数据表达多大程度上依赖 。我们做出不变性损失随c的变化图见图1,发现 在 处是不连续的,而当c趋于0而不等于0时,利用最小二乘法计算 的第二个量将趋于无穷,因此出现了图1中蓝线的情况。图1中黄线表明在最小二乘中添加强的正则化不能解决这一问题。 为了解决这些问题,我们将最小二乘求 中的矩阵求逆去除,并按如下方式计算不变性损失:按照这种方式,得到图1绿线所示的情况。可见 是平滑的(它是 和 的多项式函数)。并且,当且仅当 时, 。 我们通过 最小化选择出的 是不唯一的,实际上对于可逆映射 ,我们可以重写不变预测器为:这意味着我们可以任意选择非零 作为不变预测器。因此,我们可以将搜索限制在给定 的所有环境最优分类的数据表达上。即:当 时,对于线性 ,上式的解 将趋于(IRM)的解 。 前文我们提出 是一个有效的分类器选择,这种情况下只有一部分的数据起作用。我们通过给出线性不变预测器的完整特征来说明这个悖论。下面的理论中的矩阵 ,为数据特征函数,向量 为最优分类器, 为预测向量 。 定理4:对于所有 ,令 为损失函数。一个向量 可以写为 ,其中 对于所有环境e,使得 同时达到最小,当且仅当对于所有环境e, 。所以,任何线性不变预测器可以被分解为不同秩的线性表达。特别的,我们研究 的情况,则有:后文将证明,不管我们是否限制IRM搜索秩为1的 ,这种形式的分解将会引入高秩的数据表达矩阵,且是分布外泛化的关键。 通过加入不变性损失和均方误差得到最终的IRMv1模型,可以写出一般的风险方程 ,其中 是一种可能的非线性数据表达。这种表达在任何损失下都最优匹配于常值分类器 。如果 返回的目标空间 具有多个输出,我们将它们全部乘以标量分类器 。 当使用小批量梯度下降估计目标(IRMv1)时,可以得到平方估计范数的无偏估计:其中 和 是环境e中的两个大小为b的随机小批量样本, 为损失函数,PyTorch例子见附件D。 假设不变最优分类器w是线性的有多严格?一种说法是只要给予足够灵活的数据表达 ,就可以将不变预测器写为 。然而,强制执行线性不变性可能使得非不变预测惩罚 等于0。例如,空数据表达 允许任何w为最优值。但是,当 时,这样产生的预测器 不是不变的。ERM项会丢弃这种无效的预测器。通常,最小化ERM项 将驱动 以至于将 在所有预测器中达到最优,尽管 是线性的。 针对这个研究,我们也为未来的的研究提出了几个问题。是否存在不会被ERM和IRM丢弃的非不变预测器?如果将w放宽到可从非线性中选取将有什么好处?我们如何构造非线性不变量不变性的惩罚函数 ? 新提出的IRM方法使得在训练环境 中具有更低的误差和不变特性。什么时候这些条件可以将不变性推广到所有环境中呢?更重要的时,什么时候这些条件可以使得在全部环境 中具有更低的误差,并导致分布外的泛化呢?并且在一个更基础的水平,统计不变性和分布外的泛化如何与因果理论中的概念相关? 到目前为止,我们已经忽略了如何将不同环境应该与分布外的泛化相联系。这个问题的答案要追溯到因果理论。我们假设来自所有环境中的数据共享相同的基础结构方程模型。 定义5:控制生成向量 的结构方程模型 是一组结构方程: 其中 被称为 的双亲, 是独立于噪声的随机变量。如果 ,可记为“ causes ”。我们可以据此来绘制因果图,每个 看作节点,如果 ,则就有从 到 的一条边。我们假设该图是无环的。 根据因果图的拓扑顺序,运行结构方程 ,我们可以从观测分布 的得到一些样本。同样,我们还可以以不同的方式操纵(干预)一个唯一的SEM,以e为指标,来得到不同但相关的 。 定义6:考虑一个 。用干预e作用到 上(包括替换一个或几个方程)以得到干预 ,结构方程为: ,若 或者 ,则变量 是一种干预。 类似的,通过运行干预 的结构方程,我们可以从干预分布 中得到一些样本。例如我们可以考虑在例1中干预 ,控制它为趋于0的常数,因此将 的结构方程替换为 。每个干预e都产生了一个干预分布为 的新环境e。有效的干预e不会损坏太多的目标变量Y的信息,从而形成了大环境 。 先前的工作考虑的是有效的干预不会改变Y的结构方程,因为对方程的任意干预都不可能预测。在这个工作中,我们也允许改变Y的噪声,因为在真实问题中会出现变化的噪声水平,这些并不会影响最优的预测规则。我们将其形式化如下: 定义7:考虑一个 控制随机向量 ,以及基于X预测Y的学习目标。那么,所有的环境集合 由干预产生的所有干预分布 得到。只要(i)因果图是无环的,(ii) ,(iii) 保持有限方差,则该干预 是有效的。 如果在定义 中考虑环境特定的基线,条件(iii)可以去除,与哪些出现在鲁棒性学习目标 相似。我们留下一些分布外泛化的其它量化作为以后的工作。 先前定义了因果性和不变性之间建立的基础联系。另外,可以证明一个预测 是跨环境 的不变预测,当且仅当它能达到最佳的 ,当且仅当它只使用Y的直接因果双亲来预测,也即, 。本节的其它部分将根据这些思想去展示如何利用跨环境的不变性实现所有环境中的分布外的泛化。 IRM的目的就是建立一种可以产生out-of-distribution的预测,也即,实现在整个环境 中具有更低的误差。为此,IRM致力于在环境 中同时减少误差以及保证不变性。这两者之间的桥梁由如下两步实现:第一步,可以证明 环境中更低的误差和不变性将导致 中更低的误差。这是因为,一旦估算出在环境 中数据表达 产生的不变预测 , 的误差将控制在标准误差界中。第二步,我们测试其余条件使得在环境 中具有更低的误差,即在什么条件下,训练环境 中的不变性意味着所有环境 中的不变性? 对于线性IRM,我们回答这个问题的起点是不变因果预测理论(ICP)。这里,作者(书40)证明了只要数据(i)是高斯分布的,(ii)满足线性的SEM,(iii)从特定类型的干预中得到,那么ICP重获目标的不变性。定理9表明即使上述三个假设都不成立,IRM也能学到这种不变性。特别的,我们容许非高斯数据,将观测结果作为稳定和虚假相关性的变量的线性变换来处理。 定理的设定如下。 有一个不变相关性变量 ,它是一个未观察的潜在变量,具有线性关系为 , 独立于 。我们能观测到的是 ,它是 和另一个与 和 任意相关的变量 的干扰组合。简单的使用 回归将不计后果的利用了 (因为它给出了关于 和 额外的虚假的信息)。为了实现分布外的泛化,数据表达必须丢弃 且保留 。 在展示定理9之前,我们需要先做一些假设。为了学习有用的不变性,必须要求训练环境具有一定程度的多样性。一方面,从大数据集中随机抽取两个子集样本并不会导致环境的多样性,因为这两个子集服从相同的分布。另一方面,以任意变量为条件将大数据集分割可以产生多样性的环境,但是可能会引入虚假相关性且破坏我们需要的不变性。因此,我们需要包含足够多样性且满足基本不变性的训练环境。我们将这种多样性需求形式化为需要环境在linear general position。 假设8:训练环境 在linear general position的程度为r, , ,且对于所有的非零 :直观上,这种linear general position的假设限制了训练环境共线性的程度。每个处在linear general position的新环境都将其不变解空间减少一个自由度。幸运的是,理论10表明不满足一个linear general position的叉积 集合为0。使用这种linear general position的假设,我们通过IRM学习的不变性可以从训练环境转化到全部环境。 下面这个定理表明,如果在 中找到一个秩为r的数据表达 导出的不变预测 ,且 在linear general position的程度为r,那么 将是整个环境
人工智能是20世纪计算机科学发展的重大成就,在许多领域有着广泛的应用。以下是我整理的人工智能的毕业论文范文的相关资料,欢迎阅读!
摘要:人工智能是20世纪计算机科学发展的重大成就,在许多领域有着广泛的应用。论述了人工智能的定义,分析了目前在管理、教育、工程、技术、等领域的应用,总结了人工智能研究现状,分析了其发展方向。
关键词:人工智能;计算机科学;发展方向
中图分类号:TP18
文献标识码:A
文章编号:1672-8198(2009)13-0248-02
1人工智能的定义
人工智能(Artificial Intelligence,AI),是一门综合了计算机科学、生理学、哲学的交叉学科。“人工智能”一词最初是在1956年美国计算机协会组织的达特莫斯(Dartmouth)学会上提出的。自那以后,研究者们发展了众多理论和原理,人工智能的概念也随之扩展。由于智能概念的不确定,人工智能的概念一直没有一个统一的标准。著名的美国斯坦福大学人工智能研究中心尼尔逊教授对人工智能下了这样一个定义“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。”而美国麻省理工学院的温斯顿教授认为“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”童天湘在《从“人机大战”到人机共生》中这样定义人工智能:“虽然现在的机器不能思维也没有“直觉的方程式”,但可以把人处理问题的方式编入智能程序,是不能思维的机器也有智能,使机器能做那些需要人的智能才能做的事,也就是人工智能。”诸如此类的定义基本都反映了人工智能学科的基本思想和基本内容。即人工智能是研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何让计算机去完成以往需要人的智力才能胜任的工作,也就是研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。
2人工智能的应用领域
人工智能在管理及教学系统中的应用
人工智能在企业管理中的应用。刘玉然在《谈谈人工智能在企业管理中的应用》一文中提到把人工智能应用于企业管理中,认为要做的工作就是搞清楚人的智能和人工智能的关系,了解人工智能的外延和内涵,搭建人工智能的应用平台,搞好企业智能化软件的开发工作,这样,人工智能就能在企业决策中起到关键的作用。
人工智能在智能教学系统中的应用。焦加麟,徐良贤,戴克昌(2003)在总结国际上相关研究成果的基础上,结合其在开发智能多媒体汉德语言教学系统《二十一世纪汉语》的过程中累积的实践经验,介绍了智能教学系统的历史、结构和主要技术,着重讨论了人工智能技术与方法在其中的应用,并指出了当今这个领域上存在的一些问题。
人工智能专家系统在工程领域的应用
人工智能专家系统在医学中的应用。国外最早将人工智能应用于医疗诊断的是MYCIN专家系统。1982年,美国Pittsburgh大学Miller发表了著名的作为内科医生咨询的Internist 2I内科计算机辅助诊断系统的研究成果,1977年改进为Internist 2Ⅱ,经过改进后成为现在的CAU-CEUS,1991年美国哈佛医学院Barnett等开发的DEX-PLAIN,包含有2200种疾病和8000种症状。我国研制基于人工智能的专家系统始于上世纪70年代末,但是发展很快。早期的有北京中医学院研制成“关幼波肝炎医疗专家系统”,它是模拟著名老中医关幼波大夫对肝病诊治的程序。上世纪80年代初,福建中医学院与福建计算机中心研制的林如高骨伤计算机诊疗系统。其他如厦门大学、重庆大学、河南医科大学、长春大学等高等院校和其他研究机构开发了基于人工智能的医学计算机专家系统,并成功应用于临床。
人工智能在矿业中的应用。与矿业有关的第一个人工智能专家系统是1978年美国斯坦福国际研究所的矿藏勘探和评价专家系统PROSPECTOR,用于勘探评价、区域资源估值和钻井井位选择等。20世纪80年代以来,美国矿山局匹兹堡研究中心与其它单位合作开发了预防煤矿巷道底臌、瓦斯治理和煤尘控制的专家系统;弗尼吉亚理工学院及州立大学研制了模拟连续开采过程中开采、装载、运输、顶板锚固和设备检查专家系统Consim;阿拉斯加大学编写了地下煤矿采矿方法选择专家系统。
人工智能在技术研究中的应用
人工智能在超声无损检测中的应用。在超声无损检测(NDT)与无损评价(NDE)领域中,目前主要广泛采用专家系统方法对超声损伤(UT)中缺陷的性质,形状和大小进行判断和归类;专家在传统超声无损检测与智能超声无损检测之间架起了一座桥梁,它能把一般的探伤人员变成技术熟练。经验丰富的专家。所以在实际应用中这种智能超声无损检测有很大的价值。
人工智能在电子技术方面的应用。沈显庆认为可以把人工智能和仿真技术相结合,以单片机硬件电路为专家系统的知识来源,建立单片机硬件配置专家系统,进行故障诊断,以提高纠错能力。人工智能技术也被引入到了计算机网络领域,计算机网络安全管理的常用技术是防火墙技术,而防火墙的核心部分就是入侵检测技术。随着网络的迅速发展,各种入侵手段也在层出不穷,单凭传统的防范手段已远远不能满足现实的需要,把人工智能技术应用到网络安全管理领域,大大提高了它的安全性。马秀荣等在《简述人工智能技术在网络安全管理中的应用》一文中具体介绍了如何把人工智能技术应用于计算机网络安全管理中,起到了很好的安全防范作用。
3人工智能的发展方向
人工智能的发展现状
国外发展现状。目前,AI技术在美国、欧洲和日本发展很快。在AI技术领域十分活跃的IBM公司。已经为加州劳伦斯・利佛摩尔国家实验室制造了号称具有人脑的千分之一的智力能力的“ASCII White”电脑,而且正在开发的更为强大的新超级电脑――“蓝色牛仔(blue jean)”,据其研究主任保罗・霍恩称,预计“蓝色牛仔”的智力水平将大致与人脑相当。麻省理工学院的AI实验室进行一个的代号为cog的项目。cog计划意图赋予机器人以人类的行为,该实验的一个项目是让机器人捕捉眼睛的移动和面部表情,另一个项目是让机器人抓住从它眼前经过的东西,还有一个项目则是让机器人学会聆听音乐的节奏并将其在鼓上演奏出来。由于人工智能有着广大的发展前景,巨大的发展市场被各国和各公司所看好。除了IBM等公司继续在AI技术上大量投入,以保证其领先地位外,其他公司在人工智能的分支研究方面,也保持着一定的投入比例。微软公司总裁比尔・盖茨在美国华盛顿召开的AI(人工智能)国际会议上进行了主题演讲,称微软研究院目前正致力于AI的基础技术与应用技术的研究,其对象包括自我决定、表达知识与信息、信息检索、机械学习、数据采集、自然语言、语音笔迹识别等。
我国人工智能的研究现状。很长一段时间以来,机械
和自动控制专家们都把研制具有人的行为特征的类人性机器人作为奋斗目标。中国国际科技大学在国家863计划和自然科学基金支持下,一直从事两足步行机器人、类人性机器人的研究开发,在1990年成功研制出我国第一台两足步行机器人的基础上,经过科研10年攻关,于2000年11月,又成功研制成我国第一台类人性机器人。它有人一样的身躯、四肢、头颈、眼睛,并具备了一定的语言功能。它的行走频率从过去的每六秒一步,加快到每秒两步;从只能平静地静态不行,到能快速自如的动态步行;从只能在已知的环境中步行,到可在小偏差、不确定环境中行走,取得了机器人神经网络系统、生理视觉系统、双手协调系统、手指控制系统等多项重大研究成果。
人工智能发展方向
在信息检索中的应用。人工智能在网络信息检索中的应用,主要表现在:①如何利用计算机软硬件系统模仿、延伸与扩展人类智能的理论、方法和技术,包括机器感知、机器思维、机器行为,即知识获取、知识处理、知识利用的过程。②由于网络知识信息既包括规律性的知识,如一般原理概念,也包括大量的经验知识,这些知识不可避免地带有模糊性、随机性、不可靠性等不确定性因素,对其进行推理,需要利用人工智能的研究成果。
基于专家系统的入侵检测方法。入侵检测中的专家系统是网络安全专家对可疑行为的分析后得到的一套推理规则。一个基于规则的专家系统能够在专家的指导下,随着经验的积累而利用自学习能力进行规则的扩充和修正,专家系统对历史记录的依赖性相对于统计方法较小,因此适应性较强,可以较灵活地适应广普的安全策略和检测要求。这是人工智能发展的一个主要方向。
人工智能在机器人中的应用。机器人足球系统是目前进行人工智能体系统研究的热点,其即高科技和娱乐性于一体的特点吸引了国内外大批学者的兴趣。决策系统主要解决机器人足球比赛过程中机器人之间的协作和机器人运动规划问题,在机器人足球系统设计中需要将人工智能中的决策树、神经网络、遗传学的等算法综合运用,随着人工智能理论的进一步发展,将使机器人足球有长足的发展。
4结语
由上述的讨论我们可以看到,目前人工智能的应用领域相当广泛。无论是学术界还是应用领域对人工智能都高度重视。人工智能良好的发展和应用前景,要求我们必须加大研究和投入力度,以使人工智能的发展能为人类服务。
下一页分享更优秀的<<<人工智能的毕业论文范文
1. [期刊论文]产教融合视域下汽车智能技术专业人才需求分析 期刊:《内燃机与配件》 | 2021 年第 002 期 摘要:在国务院印发《国家职业教育改革实施方案2. [期刊论文]汽车智能技术专业群"1+X"课证融通的探索与实践 期刊:《时代汽车》 | 2021 年第 011 期 摘要:职业教育改革中重点关注3. [期刊论文]汽车电子技术中的智能传感器技术分析 期刊:《电子测试》 | 2021 年第 002 期 摘要:现代电子信息技术的大力发展,使得各行各业的
人工智能是20世纪计算机科学发展的重大成就,在许多领域有着广泛的应用。以下是我整理的人工智能的毕业论文范文的相关资料,欢迎阅读!
摘要:人工智能是20世纪计算机科学发展的重大成就,在许多领域有着广泛的应用。论述了人工智能的定义,分析了目前在管理、教育、工程、技术、等领域的应用,总结了人工智能研究现状,分析了其发展方向。
关键词:人工智能;计算机科学;发展方向
中图分类号:TP18
文献标识码:A
文章编号:1672-8198(2009)13-0248-02
1人工智能的定义
人工智能(Artificial Intelligence,AI),是一门综合了计算机科学、生理学、哲学的交叉学科。“人工智能”一词最初是在1956年美国计算机协会组织的达特莫斯(Dartmouth)学会上提出的。自那以后,研究者们发展了众多理论和原理,人工智能的概念也随之扩展。由于智能概念的不确定,人工智能的概念一直没有一个统一的标准。著名的美国斯坦福大学人工智能研究中心尼尔逊教授对人工智能下了这样一个定义“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。”而美国麻省理工学院的温斯顿教授认为“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”童天湘在《从“人机大战”到人机共生》中这样定义人工智能:“虽然现在的机器不能思维也没有“直觉的方程式”,但可以把人处理问题的方式编入智能程序,是不能思维的机器也有智能,使机器能做那些需要人的智能才能做的事,也就是人工智能。”诸如此类的定义基本都反映了人工智能学科的基本思想和基本内容。即人工智能是研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何让计算机去完成以往需要人的智力才能胜任的工作,也就是研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。
2人工智能的应用领域
人工智能在管理及教学系统中的应用
人工智能在企业管理中的应用。刘玉然在《谈谈人工智能在企业管理中的应用》一文中提到把人工智能应用于企业管理中,认为要做的工作就是搞清楚人的智能和人工智能的关系,了解人工智能的外延和内涵,搭建人工智能的应用平台,搞好企业智能化软件的开发工作,这样,人工智能就能在企业决策中起到关键的作用。
人工智能在智能教学系统中的应用。焦加麟,徐良贤,戴克昌(2003)在总结国际上相关研究成果的基础上,结合其在开发智能多媒体汉德语言教学系统《二十一世纪汉语》的过程中累积的实践经验,介绍了智能教学系统的历史、结构和主要技术,着重讨论了人工智能技术与方法在其中的应用,并指出了当今这个领域上存在的一些问题。
人工智能专家系统在工程领域的应用
人工智能专家系统在医学中的应用。国外最早将人工智能应用于医疗诊断的是MYCIN专家系统。1982年,美国Pittsburgh大学Miller发表了著名的作为内科医生咨询的Internist 2I内科计算机辅助诊断系统的研究成果,1977年改进为Internist 2Ⅱ,经过改进后成为现在的CAU-CEUS,1991年美国哈佛医学院Barnett等开发的DEX-PLAIN,包含有2200种疾病和8000种症状。我国研制基于人工智能的专家系统始于上世纪70年代末,但是发展很快。早期的有北京中医学院研制成“关幼波肝炎医疗专家系统”,它是模拟著名老中医关幼波大夫对肝病诊治的程序。上世纪80年代初,福建中医学院与福建计算机中心研制的林如高骨伤计算机诊疗系统。其他如厦门大学、重庆大学、河南医科大学、长春大学等高等院校和其他研究机构开发了基于人工智能的医学计算机专家系统,并成功应用于临床。
人工智能在矿业中的应用。与矿业有关的第一个人工智能专家系统是1978年美国斯坦福国际研究所的矿藏勘探和评价专家系统PROSPECTOR,用于勘探评价、区域资源估值和钻井井位选择等。20世纪80年代以来,美国矿山局匹兹堡研究中心与其它单位合作开发了预防煤矿巷道底臌、瓦斯治理和煤尘控制的专家系统;弗尼吉亚理工学院及州立大学研制了模拟连续开采过程中开采、装载、运输、顶板锚固和设备检查专家系统Consim;阿拉斯加大学编写了地下煤矿采矿方法选择专家系统。
人工智能在技术研究中的应用
人工智能在超声无损检测中的应用。在超声无损检测(NDT)与无损评价(NDE)领域中,目前主要广泛采用专家系统方法对超声损伤(UT)中缺陷的性质,形状和大小进行判断和归类;专家在传统超声无损检测与智能超声无损检测之间架起了一座桥梁,它能把一般的探伤人员变成技术熟练。经验丰富的专家。所以在实际应用中这种智能超声无损检测有很大的价值。
人工智能在电子技术方面的应用。沈显庆认为可以把人工智能和仿真技术相结合,以单片机硬件电路为专家系统的知识来源,建立单片机硬件配置专家系统,进行故障诊断,以提高纠错能力。人工智能技术也被引入到了计算机网络领域,计算机网络安全管理的常用技术是防火墙技术,而防火墙的核心部分就是入侵检测技术。随着网络的迅速发展,各种入侵手段也在层出不穷,单凭传统的防范手段已远远不能满足现实的需要,把人工智能技术应用到网络安全管理领域,大大提高了它的安全性。马秀荣等在《简述人工智能技术在网络安全管理中的应用》一文中具体介绍了如何把人工智能技术应用于计算机网络安全管理中,起到了很好的安全防范作用。
3人工智能的发展方向
人工智能的发展现状
国外发展现状。目前,AI技术在美国、欧洲和日本发展很快。在AI技术领域十分活跃的IBM公司。已经为加州劳伦斯・利佛摩尔国家实验室制造了号称具有人脑的千分之一的智力能力的“ASCII White”电脑,而且正在开发的更为强大的新超级电脑――“蓝色牛仔(blue jean)”,据其研究主任保罗・霍恩称,预计“蓝色牛仔”的智力水平将大致与人脑相当。麻省理工学院的AI实验室进行一个的代号为cog的项目。cog计划意图赋予机器人以人类的行为,该实验的一个项目是让机器人捕捉眼睛的移动和面部表情,另一个项目是让机器人抓住从它眼前经过的东西,还有一个项目则是让机器人学会聆听音乐的节奏并将其在鼓上演奏出来。由于人工智能有着广大的发展前景,巨大的发展市场被各国和各公司所看好。除了IBM等公司继续在AI技术上大量投入,以保证其领先地位外,其他公司在人工智能的分支研究方面,也保持着一定的投入比例。微软公司总裁比尔・盖茨在美国华盛顿召开的AI(人工智能)国际会议上进行了主题演讲,称微软研究院目前正致力于AI的基础技术与应用技术的研究,其对象包括自我决定、表达知识与信息、信息检索、机械学习、数据采集、自然语言、语音笔迹识别等。
我国人工智能的研究现状。很长一段时间以来,机械
和自动控制专家们都把研制具有人的行为特征的类人性机器人作为奋斗目标。中国国际科技大学在国家863计划和自然科学基金支持下,一直从事两足步行机器人、类人性机器人的研究开发,在1990年成功研制出我国第一台两足步行机器人的基础上,经过科研10年攻关,于2000年11月,又成功研制成我国第一台类人性机器人。它有人一样的身躯、四肢、头颈、眼睛,并具备了一定的语言功能。它的行走频率从过去的每六秒一步,加快到每秒两步;从只能平静地静态不行,到能快速自如的动态步行;从只能在已知的环境中步行,到可在小偏差、不确定环境中行走,取得了机器人神经网络系统、生理视觉系统、双手协调系统、手指控制系统等多项重大研究成果。
人工智能发展方向
在信息检索中的应用。人工智能在网络信息检索中的应用,主要表现在:①如何利用计算机软硬件系统模仿、延伸与扩展人类智能的理论、方法和技术,包括机器感知、机器思维、机器行为,即知识获取、知识处理、知识利用的过程。②由于网络知识信息既包括规律性的知识,如一般原理概念,也包括大量的经验知识,这些知识不可避免地带有模糊性、随机性、不可靠性等不确定性因素,对其进行推理,需要利用人工智能的研究成果。
基于专家系统的入侵检测方法。入侵检测中的专家系统是网络安全专家对可疑行为的分析后得到的一套推理规则。一个基于规则的专家系统能够在专家的指导下,随着经验的积累而利用自学习能力进行规则的扩充和修正,专家系统对历史记录的依赖性相对于统计方法较小,因此适应性较强,可以较灵活地适应广普的安全策略和检测要求。这是人工智能发展的一个主要方向。
人工智能在机器人中的应用。机器人足球系统是目前进行人工智能体系统研究的热点,其即高科技和娱乐性于一体的特点吸引了国内外大批学者的兴趣。决策系统主要解决机器人足球比赛过程中机器人之间的协作和机器人运动规划问题,在机器人足球系统设计中需要将人工智能中的决策树、神经网络、遗传学的等算法综合运用,随着人工智能理论的进一步发展,将使机器人足球有长足的发展。
4结语
由上述的讨论我们可以看到,目前人工智能的应用领域相当广泛。无论是学术界还是应用领域对人工智能都高度重视。人工智能良好的发展和应用前景,要求我们必须加大研究和投入力度,以使人工智能的发展能为人类服务。
下一页分享更优秀的<<<人工智能的毕业论文范文
有《会计电算化教程》《管家婆会计电算化简明教程》《会计电算化理论与实务》等等。据查询相关公开信息《会计电算化教程》《管家婆会计电算化简明教程》《会计电算化理论与实务》均属于人工智能与会计电算化参考文献。受时代发展人工智能得以更加便捷系统地处理、呈现财务信息。这意味着人工智能将渐渐取代基层会计人员。
Peter Norvig 的《AI, Modern Approach 2nd》(无争议的领域经典)Bishop, 《Pattern Recognition and Machine Learning》. 没有影印的,但是网上能下到。经典中的经典。Pattern Classification 和这本书是两本必读之书。《Pattern Recognition and Machine Learning》是很新(07年),深入浅出,手不释卷。推荐两本有意思的书,一本是《Simple Heuristics that Makes Us Smart》另一本是《Bounded Rationality: The Adaptive Toolbox》 ---------------------------------------------------------------------<从CSDN上转载的> 机器学习与人工智能学习资源导引 我经常在 TopLanguage 讨论组上推荐一些书籍,也经常问里面的牛人们搜罗一些有关的资料,人工智能、机器学习、自然语言处理、知识发现(特别地,数据挖掘)、信息检索这些无疑是 CS 领域最好玩的分支了(也是互相紧密联系的),这里将最近有关机器学习和人工智能相关的一些学习资源归一个类: 首先是两个非常棒的 Wikipedia 条目,我也算是 wikipedia 的重度用户了,学习一门东西的时候常常发现是始于 wikipedia 中间经过若干次 google ,然后止于某一本或几本著作。 第一个是“人工智能的历史”(History of Artificial Intelligence),我在讨论组上写道: 而今天看到的这篇文章是我在 wikipedia 浏览至今觉得最好的。文章名为《人工智能的历史》,顺着 AI 发展时间线娓娓道来,中间穿插无数牛人故事,且一波三折大气磅礴,可谓"事实比想象更令人惊讶"。人工智能始于哲学思辨,中间经历了一个没有心理学(尤其是认知神经科学的)的帮助的阶段,仅通过牛人对人类思维的外在表现的归纳、内省,以及数学工具进行探索,其间最令人激动的是 Herbert Simon (决策理论之父,诺奖,跨领域牛人)写的一个自动证明机,证明了罗素的数学原理中的二十几个定理,其中有一个定理比原书中的还要优雅,Simon 的程序用的是启发式搜索,因为公理系统中的证明可以简化为从条件到结论的树状搜索(但由于组合爆炸,所以必须使用启发式剪枝)。后来 Simon 又写了 GPS (General Problem Solver),据说能解决一些能良好形式化的问题,如汉诺塔。但说到底 Simon 的研究毕竟只触及了人类思维的一个很小很小的方面 —— Formal Logic,甚至更狭义一点 Deductive Reasoning (即不包含 Inductive Reasoning , Transductive Reasoning (俗称 analogic thinking)。还有诸多比如 Common Sense、Vision、尤其是最为复杂的 Language 、Consciousness 都还谜团未解。还有一个比较有趣的就是有人认为 AI 问题必须要以一个物理的 Body 为支撑,一个能够感受这个世界的物理规则的身体本身就是一个强大的信息来源,基于这个信息来源,人类能够自身与时俱进地总结所谓的 Common-Sense Knowledge (这个就是所谓的 Emboddied Mind 理论。 ),否则像一些老兄直接手动构建 Common-Sense Knowledge Base ,就很傻很天真了,须知人根据感知系统从自然界获取知识是一个动态的自动更新的系统,而手动构建常识库则无异于古老的 Expert System 的做法。当然,以上只总结了很小一部分我个人觉得比较有趣或新颖的,每个人看到的有趣的地方不一样,比如里面相当详细地介绍了神经网络理论的兴衰。所以我强烈建议你看自己一遍,别忘了里面链接到其他地方的链接。 顺便一说,徐宥同学打算找时间把这个条目翻译出来,这是一个相当长的条目,看不动 E 文的等着看翻译吧:) 第二个则是“人工智能”(Artificial Intelligence)。当然,还有机器学习等等。从这些条目出发能够找到许多非常有用和靠谱的深入参考资料。然后是一些书籍 书籍: 1. 《Programming Collective Intelligence》,近年出的入门好书,培养兴趣是最重要的一环,一上来看大部头很容易被吓走的:P 2. Peter Norvig 的《AI, Modern Approach 2nd》(无争议的领域经典)。 3. 《The Elements of Statistical Learning》,数学性比较强,可以做参考了。 4. 《Foundations of Statistical Natural Language Processing》,自然语言处理领域公认经典。 5. 《Data Mining, Concepts and Techniques》,华裔科学家写的书,相当深入浅出。 6. 《Managing Gigabytes》,信息检索好书。 7. 《Information Theory:Inference and Learning Algorithms》,参考书吧,比较深。 相关数学基础(参考书,不适合拿来通读): 1. 线性代数:这个参考书就不列了,很多。 2. 矩阵数学:《矩阵分析》,Roger Horn。矩阵分析领域无争议的经典。 3. 概率论与统计:《概率论及其应用》,威廉·费勒。也是极牛的书,可数学味道太重,不适合做机器学习的。于是讨论组里的 Du Lei 同学推荐了《All Of Statistics》并说到 机器学习这个方向,统计学也一样非常重要。推荐All of statistics,这是CMU的一本很简洁的教科书,注重概念,简化计算,简化与Machine Learning无关的概念和统计内容,可以说是很好的快速入门材料。 4. 最优化方法:《Nonlinear Programming, 2nd》非线性规划的参考书。《Convex Optimization》凸优化的参考书。此外还有一些书可以参考 wikipedia 上的最优化方法条目。要深入理解机器学习方法的技术细节很多时候(如SVM)需要最优化方法作为铺垫。 王宁同学推荐了好几本书: 《Machine Learning, Tom Michell》, 1997.老书,牛人。现在看来内容并不算深,很多章节有点到为止的感觉,但是很适合新手(当然,不能"新"到连算法和概率都不知道)入门。比如决策树部分就很精彩,并且这几年没有特别大的进展,所以并不过时。另外,这本书算是对97年前数十年机器学习工作的大综述,参考文献列表极有价值。国内有翻译和影印版,不知道绝版否。 《Modern Information Retrieval, Ricardo Baeza-Yates et al》. 1999老书,牛人。貌似第一本完整讲述IR的书。可惜IR这些年进展迅猛,这本书略有些过时了。翻翻做参考还是不错的。另外,Ricardo同学现在是Yahoo Research for Europe and Latin Ameria的头头。 《Pattern Classification (2ed)》, Richard O. Duda, Peter E. Hart, David G. Stork大约也是01年左右的大块头,有影印版,彩色。没读完,但如果想深入学习ML和IR,前三章(介绍,贝叶斯学习,线性分类器)必修。 还有些经典与我只有一面之缘,没有资格评价。另外还有两本小册子,论文集性质的,倒是讲到了了不少前沿和细节,诸如索引如何压缩之类。可惜忘了名字,又被我压在箱底,下次搬家前怕是难见天日了。 (呵呵,想起来一本:《Mining the Web - Discovering Knowledge from Hypertext Data》 ) 说一本名气很大的书:《Data Mining: Practical Machine Learning Tools and Techniques》。Weka 的作者写的。可惜内容一般。理论部分太单薄,而实践部分也很脱离实际。DM的入门书已经不少,这一本应该可以不看了。如果要学习了解 Weka ,看文档就好。第二版已经出了,没读过,不清楚。 信息检索方面,Du Lei 同学再次推荐: 信息检索方面的书现在建议看Stanford的那本《Introduction to Information Retrieval》,这书刚刚正式出版,内容当然up to date。另外信息检索第一大牛Croft老爷也正在写教科书,应该很快就要面世了。据说是非常pratical的一本书。 对信息检索有兴趣的同学,强烈推荐翟成祥博士在北大的暑期学校课程,这里有全slides和阅读材料: maximzhao 同学推荐了一本机器学习: 加一本书:Bishop, 《Pattern Recognition and Machine Learning》. 没有影印的,但是网上能下到。经典中的经典。Pattern Classification 和这本书是两本必读之书。《Pattern Recognition and Machine Learning》是很新(07年),深入浅出,手不释卷。最后,关于人工智能方面(特别地,决策与判断),再推荐两本有意思的书, 一本是《Simple Heuristics that Makes Us Smart》 另一本是《Bounded Rationality: The Adaptive Toolbox》 不同于计算机学界所采用的统计机器学习方法,这两本书更多地着眼于人类实际上所采用的认知方式,以下是我在讨论组上写的简介: 这两本都是德国ABC研究小组(一个由计算机科学家、认知科学家、神经科学家、经济学家、数学家、统计学家等组成的跨学科研究团体)集体写的,都是引起领域内广泛关注的书,尤其是前一本,后一本则是对 Herbert Simon (决策科学之父,诺奖获得者)提出的人类理性模型的扩充研究),可以说是把什么是真正的人类智能这个问题提上了台面。核心思想是,我们的大脑根本不能做大量的统计计算,使用fancy的数学手法去解释和预测这个世界,而是通过简单而鲁棒的启发法来面对不确定的世界(比如第一本书中提到的两个后来非常著名的启发法:再认启发法(cognition heuristics)和选择最佳(Take the Best)。当然,这两本书并没有排斥统计方法就是了,数据量大的时候统计优势就出来了,而数据量小的时候统计方法就变得非常糟糕;人类简单的启发法则充分利用生态环境中的规律性(regularities),都做到计算复杂性小且鲁棒。 关于第二本书的简介: 1. 谁是 Herbert Simon 2. 什么是 Bounded Rationality 3. 这本书讲啥的: 我一直觉得人类的决策与判断是一个非常迷人的问题。这本书简单地说可以看作是《决策与判断》的更全面更理论的版本。系统且理论化地介绍人类决策与判断过程中的各种启发式方法(heuristics)及其利弊(为什么他们是最优化方法在信息不足情况下的快捷且鲁棒的逼近,以及为什么在一些情况下会带来糟糕的后果等,比如学过机器学习的都知道朴素贝叶斯方法在许多情况下往往并不比贝叶斯网络效果差,而且还速度快;比如多项式插值的维数越高越容易 overfit,而基于低阶多项式的分段样条插值却被证明是一个非常鲁棒的方案)。 在此提一个书中提到的例子,非常有意思:两个团队被派去设计一个能够在场上接住抛过来的棒球的机器人。第一组做了详细的数学分析,建立了一个相当复杂的抛物线近似模型(因为还要考虑空气阻力之类的原因,所以并非严格抛物线),用于计算球的落点,以便正确地接到球。显然这个方案耗资巨大,而且实际运算也需要时间,大家都知道生物的神经网络中生物电流传输只有百米每秒之内,所以 computational complexity 对于生物来说是个宝贵资源,所以这个方案虽然可行,但不够好。第二组则采访了真正的运动员,听取他们总结自己到底是如何接球的感受,然后他们做了这样一个机器人:这个机器人在球抛出的一开始一半路程啥也不做,等到比较近了才开始跑动,并在跑动中一直保持眼睛于球之间的视角不变,后者就保证了机器人的跑动路线一定会和球的轨迹有交点;整个过程中这个机器人只做非常粗糙的轨迹估算。体会一下你接球的时候是不是眼睛一直都盯着球,然后根据视线角度来调整跑动方向?实际上人类就是这么干的,这就是 heuristics 的力量。 相对于偏向于心理学以及科普的《决策与判断》来说,这本书的理论性更强,引用文献也很多而经典,而且与人工智能和机器学习都有交叉,里面也有不少数学内容,全书由十几个章节构成,每个章节都是由不同的作者写的,类似于 paper 一样的,很严谨,也没啥废话,跟《Psychology of Problem Solving》类似。比较适合 geeks 阅读哈。 另外,对理论的技术细节看不下去的也建议看看《决策与判断》这类书(以及像《别做正常的傻瓜》这样的傻瓜科普读本),对自己在生活中做决策有莫大的好处。人类决策与判断中使用了很多的 heuristics ,很不幸的是,其中许多都是在适应几十万年前的社会环境中建立起来的,并不适合于现代社会,所以了解这些思维中的缺点、盲点,对自己成为一个良好的决策者有很大的好处,而且这本身也是一个非常有趣的领域。 (完)
院士作序推荐的《人工智能基础教程》孙元强,罗继秋编著,该书例子多多,习题有答案,非常实用
没有参考书。想了解的话只有学相关知识
“人工智能”是大学本科自动化专业所开设的一门专业选修课,为了能够调动自动化专业的学生对本课程学习的积极性,对《人工智能》这门专业选修课程的 教学 方法 进行了探索和 总结 。以下是我整理分享的关于人工智能结课论文的相关 文章 ,欢迎阅读!
对《人工智能》专业选修课教学的几点体会
摘要:“人工智能”是大学本科自动化专业所开设的一门专业选修课,为了能够调动自动化专业的学生对本课程学习的积极性,提高《人工智能》专业选修课的教学效果,我们结合近几年的实际教学 经验 ,从优选教材、考核方式、教学内容调整、教学手段的改进和实践教学等方面对《人工智能》这门专业选修课程的教学方法进行了探索和总结。
关键词:人工智能 优选教材 考核方式内容 手段 实践
人工智能(Aritificial Intelligence,英文缩写为AI)是一门综合了应用数学、自动控制、模式识别、系统工程、计算机科学和心理学等多种学科交叉融合而发展起来的的一门新型学科,是21世纪三大尖端技术(基因工程、纳米科学、人工智能)之一。它是研究智能机器所执行的通常与人类智能有关的职能行为,如推理、证明、感知、规划和问题求解等思维活动,来解决人类处理的复杂问题。人工智能紧跟世界社会进步和科技发展的步伐,与时俱进,有关人工智能的许多研究成果已经广泛应用到国防建设、工业生产、国民生活中的各个领域。在信息网络和知识经济时代,人工智能现已成为一个广受重视且有着广阔应用潜能的前沿学科,必将为推动科学技术的进步和产业的发展发挥更大的作用。因此在我国的大中专院校中开展人工智能这门课的教学与科研工作显得十分紧迫。迄今为止,全国绝大多数工科院校中的自动控制、计算机/软件工程、电气工程、机械工程、应用数学等相关专业都开设了人工智能这门课程。南京邮电大学自动化学院自2005年成立至今,一直将“人工智能”列为自动化专业本科生的选修课程,到目前为止已经有八年的历史了。由于南京邮电大学是一所以邮电、通信、电子、计算机、自动化为特色的工科院校,因此,学校所开设的许多专业都迫切需要用人工智能理论和方法解决科研中的实际问题。在问题需求的推动下,南邮人经过多年的努力工作,在人工智能科研方面取得了丰硕的成果,如物联网学院所开发的现代智能物流系统、自动化学院所开发的城市交通流量控制与决策系统,为本课程的开设提供了典型的教学案例。我们结合近几年的实际教学经验,从优选教材、考核方式、教学内容调整、教学手段的改进和实践教学等方面对人工智能课程教学方法进行了总结归纳。
一、优选教材
目前,国内有关人工智能课程的中英版教材种类非常多,遵循实用、简单、够用的原则,再经过授课老师和学生们的共同调研,我们选用由中南大学蔡自兴教授主编的《人工智能及其应用》第三版作为南邮本课程的授课教材。本书覆盖的人工智能知识体系比较全面,包含知识表示、搜索推理、模糊计算、专家系统等。本书主要针对计算机、自动化、电气工程等本科专业的学生所编写,内容基础,难度适中。蔡教授所编写的这本教材全面地介绍了人工智能的研究内容与应用领域,做到了内容新颖、简单易懂、兼顾基础和应用,受到了全国广大师生们的一致好评,多年的教学实践证明我们所选择的教材是恰当的、正确的。
二、考核方式
在全国大部分高等院校,“人工智能”这门课大都选择开卷考试的方式来进行考核。为了强化学生对人工智能这门课基础知识的掌握,南京邮电大学自动化学院选用闭卷考试的方式来进行考核。为了打消部分学生想在期末闭卷考试中通过作弊手段来完成人工智能这门课考核的侥幸心理,我们加强了对学生平时考勤成绩、课下作业成绩和实验成绩的考核,从而杜绝了“一纸定成绩”的现象。我们对人工智能这门课的最后期末成绩是按如下权重来划分的:平时考勤成绩占10%、课下作业成绩占10%、实验成绩占20%、最后的期末考试卷面成绩只占60%。为了克服国家现行 教育 体制的弊端,避免学生“机械式”地的应对教学和考试,我们对考试题型进行了调整,不再是以往的填空、选择、简答等题型,而是改为以解决实际问题为导向的应用题型为主,这样学生只需要在理解授课内容的基础上利用自己的思维来解题就可以了,这也体现了国家目前正在提倡的应用型教学导向。
三、教学内容调整
对于本科生而言,人工智能这门课程所需要讲授的内容实在太多,由于课时所限,我们必须精简教学内容,让学生在掌握基础知识的同时,也能够了解它的具体应用。因此,我们将人工智能这门课程的教学内容分为两个部分:第一部分是基本理论和方法,包括人工智能的概述、知识表示方法、确定性推理方法等;第二部分为人工智能研究成果的具体应用,包括神经元网络计算、模糊智能计算、专家知识库系统、机器语言学习等。通过对教材内容的合理调整和安排,使得授课计划能够比较全面地覆盖了人工智能这门课程的基本知识点,从而满足了学生们的求知需求。
四、教学手段的改进
(一) 激发学生的学习兴趣
经过长时间的教学我们发现,在选修“人工智能”这门课程时,每个学生的心中所想各有不同,这些学生在刚开始学习时兴趣还比较强烈,但随着教学内容变得越来越抽象,学生逐渐对这本课的学习失去了信心,甚至上课时间不去听课,使授课教师对教学也渐渐失去了信心,导致恶性循环,严重影响了教学质量。针对这种现象,我们认为,在开课前充分激发学生的学习兴趣是很有必要的。我们要结合学校的实验条件,开课前给学生演示“机器人医疗服务”实验,通过该实验的演示,让学生们看到机器人能够给病人提供多项人性化的服务,理解人工智能技术在开发医疗服务机器人多项关键技术中的应用,让学生在开课前能够对本课程的学习产生极大的兴趣,实践证明这种方法是有效的。
(二) 借助多媒体教学
多媒体教学是现代教学过程中一种非常重要的形式,它往往根据教学目的和学生们的特点,通过合理的设计、选择教材内容,应用公式、图形、文字、视频等多种媒体信息进行有机组合并通过电脑和投影机显示出来,与传统教学手段相结合,形成合理的教学过程结构,达到最优化的教学效果。人工智能这门课具有针对性强、内容抽象、公式繁琐等特点,学生学习起来比较困难,为了让学生生动、形象地学习该课程,我们在教学过程中充分利用了多媒体技术来组织教学。例如在课堂教学过程中播放南邮自动化学院梁志伟博士带领学生所开发的“智能 足球 机器人”比赛片段;让学生在线观看北京大学工学院谢广明博士带领学生所开发的“自主视觉机器鱼”录像片段等。在讲解某些重要的求解算法时,借助Matlab软件和投影机,直接展现该算法的求解过程,从而改善了课程教学的形式,提高了教学质量。 (三)提倡课堂 辩论
我们在教学过程中打破了传统的“老师讲课学生听课”的教学模式,多次组织课堂辩论,辩论的主题包括人工智能研究过程中出现的技术困惑、人工智能研究成果转化中的市场前景等。如组织了“电脑PK人脑”“电脑是否让电视消失”“电脑的未来发展方向在哪里”等一系列 辩论会 。经过激烈的辩论,无论正方还是反方都感觉自己收获很大,增长了知识,开阔了眼界。在教学过程中通过将学生由“被动听课”角色变换为“主动参与”角色,大大地调动了学生的学习积极性,从而提高了课堂教学质量。
五、实践教学
实践教学是课堂教学不可缺少的重要组成部分,通过让学生亲自动手实验来对理论知识进行检验和应用是目前国内外各个大学提高学生综合素质、增强学生市场竞争力的重要手段。人工智能实验教学的目的是让学生通过亲自动手体会授课中的各种智能控制算法,从而使学生能够更加形象地掌握课本知识。人工智能教学计划安排了4学时实验课,设置了“传教士和野人过河”“机器人路径规划”这两个人工智能问题,要求学生独立完成这2个实验题目的编程,并书写实验 报告 。通过实验,学生动手实践了课堂上所掌握的理论知识,加深了对智能算法的理解。
人工智能是一门实用性较强的课程,我们总结了近几年来的教学经验,从优选教材、考核方式、教学内容调整、教学手段的改进和实践教学五个方面对人工智能课程教学进行了总结。从学生的反馈来看,我们所总结的教学经验对于指导新教师讲授“人工智能”这门课程具有积极的作用,需要指出的是,我们仍有很多不足之处,需要在以后的教学过程中不断努力完善,提高自己的教学能力,争取更好的教学效果。
参考文献
[1]蔡自兴,徐光佑.人工智能及其应用[M].北京:清华大学出版社,2003.
[2]路小英,周桂红,赵艳等.高等农业院校《人工智能》课程的教学研究与实践[J].河北农业大学学报:农林教育版,2007,9(4):66-68.
[3]马建斌,李阅历,高媛. 人工智能课程教学的探索与实践[J].河北农业大学学报:农林教育版,2011,13(3):330-332.
[4]赵海波.人工智能课程教学方法的探讨[J].科技信息,2011,(7):541.
[5]张廷,杨国胜.“人工智能”课程教学的实践与探索[J].课程与教学,2009(11):133-134.
本研究得到了江苏省2011年度研究生双语授课教学试点项目—“模式识别与智能系统”项目经费的资助。
下一页分享更优秀的<<<人工智能结课论文
由人民邮电出版社出版的《人工智能通识》面向我国人工智能的通识教育与专业技术人才的培养。全书共8章,分为3篇,分别为人工智能的基本理论、人工智能的应用以及人工智能的融合拓展,涵盖了目前主流的人工智能技术。《人工智能通识》在介绍人工智能的基本原理时,尽量回避了相关的复杂模型和算法设计,方便读者在社会层面理解人工智能的应用形式和未来的发展路径。此外,书中每章都设计了一些思考与练习的题目,以便读者在课堂练习和研讨中使用。
Peter Norvig 的《AI, Modern Approach 2nd》(无争议的领域经典)Bishop, 《Pattern Recognition and Machine Learning》. 没有影印的,但是网上能下到。经典中的经典。Pattern Classification 和这本书是两本必读之书。《Pattern Recognition and Machine Learning》是很新(07年),深入浅出,手不释卷。推荐两本有意思的书,一本是《Simple Heuristics that Makes Us Smart》另一本是《Bounded Rationality: The Adaptive Toolbox》 ---------------------------------------------------------------------<从CSDN上转载的> 机器学习与人工智能学习资源导引 我经常在 TopLanguage 讨论组上推荐一些书籍,也经常问里面的牛人们搜罗一些有关的资料,人工智能、机器学习、自然语言处理、知识发现(特别地,数据挖掘)、信息检索这些无疑是 CS 领域最好玩的分支了(也是互相紧密联系的),这里将最近有关机器学习和人工智能相关的一些学习资源归一个类: 首先是两个非常棒的 Wikipedia 条目,我也算是 wikipedia 的重度用户了,学习一门东西的时候常常发现是始于 wikipedia 中间经过若干次 google ,然后止于某一本或几本著作。 第一个是“人工智能的历史”(History of Artificial Intelligence),我在讨论组上写道: 而今天看到的这篇文章是我在 wikipedia 浏览至今觉得最好的。文章名为《人工智能的历史》,顺着 AI 发展时间线娓娓道来,中间穿插无数牛人故事,且一波三折大气磅礴,可谓"事实比想象更令人惊讶"。人工智能始于哲学思辨,中间经历了一个没有心理学(尤其是认知神经科学的)的帮助的阶段,仅通过牛人对人类思维的外在表现的归纳、内省,以及数学工具进行探索,其间最令人激动的是 Herbert Simon (决策理论之父,诺奖,跨领域牛人)写的一个自动证明机,证明了罗素的数学原理中的二十几个定理,其中有一个定理比原书中的还要优雅,Simon 的程序用的是启发式搜索,因为公理系统中的证明可以简化为从条件到结论的树状搜索(但由于组合爆炸,所以必须使用启发式剪枝)。后来 Simon 又写了 GPS (General Problem Solver),据说能解决一些能良好形式化的问题,如汉诺塔。但说到底 Simon 的研究毕竟只触及了人类思维的一个很小很小的方面 —— Formal Logic,甚至更狭义一点 Deductive Reasoning (即不包含 Inductive Reasoning , Transductive Reasoning (俗称 analogic thinking)。还有诸多比如 Common Sense、Vision、尤其是最为复杂的 Language 、Consciousness 都还谜团未解。还有一个比较有趣的就是有人认为 AI 问题必须要以一个物理的 Body 为支撑,一个能够感受这个世界的物理规则的身体本身就是一个强大的信息来源,基于这个信息来源,人类能够自身与时俱进地总结所谓的 Common-Sense Knowledge (这个就是所谓的 Emboddied Mind 理论。 ),否则像一些老兄直接手动构建 Common-Sense Knowledge Base ,就很傻很天真了,须知人根据感知系统从自然界获取知识是一个动态的自动更新的系统,而手动构建常识库则无异于古老的 Expert System 的做法。当然,以上只总结了很小一部分我个人觉得比较有趣或新颖的,每个人看到的有趣的地方不一样,比如里面相当详细地介绍了神经网络理论的兴衰。所以我强烈建议你看自己一遍,别忘了里面链接到其他地方的链接。 顺便一说,徐宥同学打算找时间把这个条目翻译出来,这是一个相当长的条目,看不动 E 文的等着看翻译吧:) 第二个则是“人工智能”(Artificial Intelligence)。当然,还有机器学习等等。从这些条目出发能够找到许多非常有用和靠谱的深入参考资料。然后是一些书籍 书籍: 1. 《Programming Collective Intelligence》,近年出的入门好书,培养兴趣是最重要的一环,一上来看大部头很容易被吓走的:P 2. Peter Norvig 的《AI, Modern Approach 2nd》(无争议的领域经典)。 3. 《The Elements of Statistical Learning》,数学性比较强,可以做参考了。 4. 《Foundations of Statistical Natural Language Processing》,自然语言处理领域公认经典。 5. 《Data Mining, Concepts and Techniques》,华裔科学家写的书,相当深入浅出。 6. 《Managing Gigabytes》,信息检索好书。 7. 《Information Theory:Inference and Learning Algorithms》,参考书吧,比较深。 相关数学基础(参考书,不适合拿来通读): 1. 线性代数:这个参考书就不列了,很多。 2. 矩阵数学:《矩阵分析》,Roger Horn。矩阵分析领域无争议的经典。 3. 概率论与统计:《概率论及其应用》,威廉·费勒。也是极牛的书,可数学味道太重,不适合做机器学习的。于是讨论组里的 Du Lei 同学推荐了《All Of Statistics》并说到 机器学习这个方向,统计学也一样非常重要。推荐All of statistics,这是CMU的一本很简洁的教科书,注重概念,简化计算,简化与Machine Learning无关的概念和统计内容,可以说是很好的快速入门材料。 4. 最优化方法:《Nonlinear Programming, 2nd》非线性规划的参考书。《Convex Optimization》凸优化的参考书。此外还有一些书可以参考 wikipedia 上的最优化方法条目。要深入理解机器学习方法的技术细节很多时候(如SVM)需要最优化方法作为铺垫。 王宁同学推荐了好几本书: 《Machine Learning, Tom Michell》, 1997.老书,牛人。现在看来内容并不算深,很多章节有点到为止的感觉,但是很适合新手(当然,不能"新"到连算法和概率都不知道)入门。比如决策树部分就很精彩,并且这几年没有特别大的进展,所以并不过时。另外,这本书算是对97年前数十年机器学习工作的大综述,参考文献列表极有价值。国内有翻译和影印版,不知道绝版否。 《Modern Information Retrieval, Ricardo Baeza-Yates et al》. 1999老书,牛人。貌似第一本完整讲述IR的书。可惜IR这些年进展迅猛,这本书略有些过时了。翻翻做参考还是不错的。另外,Ricardo同学现在是Yahoo Research for Europe and Latin Ameria的头头。 《Pattern Classification (2ed)》, Richard O. Duda, Peter E. Hart, David G. Stork大约也是01年左右的大块头,有影印版,彩色。没读完,但如果想深入学习ML和IR,前三章(介绍,贝叶斯学习,线性分类器)必修。 还有些经典与我只有一面之缘,没有资格评价。另外还有两本小册子,论文集性质的,倒是讲到了了不少前沿和细节,诸如索引如何压缩之类。可惜忘了名字,又被我压在箱底,下次搬家前怕是难见天日了。 (呵呵,想起来一本:《Mining the Web - Discovering Knowledge from Hypertext Data》 ) 说一本名气很大的书:《Data Mining: Practical Machine Learning Tools and Techniques》。Weka 的作者写的。可惜内容一般。理论部分太单薄,而实践部分也很脱离实际。DM的入门书已经不少,这一本应该可以不看了。如果要学习了解 Weka ,看文档就好。第二版已经出了,没读过,不清楚。 信息检索方面,Du Lei 同学再次推荐: 信息检索方面的书现在建议看Stanford的那本《Introduction to Information Retrieval》,这书刚刚正式出版,内容当然up to date。另外信息检索第一大牛Croft老爷也正在写教科书,应该很快就要面世了。据说是非常pratical的一本书。 对信息检索有兴趣的同学,强烈推荐翟成祥博士在北大的暑期学校课程,这里有全slides和阅读材料: maximzhao 同学推荐了一本机器学习: 加一本书:Bishop, 《Pattern Recognition and Machine Learning》. 没有影印的,但是网上能下到。经典中的经典。Pattern Classification 和这本书是两本必读之书。《Pattern Recognition and Machine Learning》是很新(07年),深入浅出,手不释卷。最后,关于人工智能方面(特别地,决策与判断),再推荐两本有意思的书, 一本是《Simple Heuristics that Makes Us Smart》 另一本是《Bounded Rationality: The Adaptive Toolbox》 不同于计算机学界所采用的统计机器学习方法,这两本书更多地着眼于人类实际上所采用的认知方式,以下是我在讨论组上写的简介: 这两本都是德国ABC研究小组(一个由计算机科学家、认知科学家、神经科学家、经济学家、数学家、统计学家等组成的跨学科研究团体)集体写的,都是引起领域内广泛关注的书,尤其是前一本,后一本则是对 Herbert Simon (决策科学之父,诺奖获得者)提出的人类理性模型的扩充研究),可以说是把什么是真正的人类智能这个问题提上了台面。核心思想是,我们的大脑根本不能做大量的统计计算,使用fancy的数学手法去解释和预测这个世界,而是通过简单而鲁棒的启发法来面对不确定的世界(比如第一本书中提到的两个后来非常著名的启发法:再认启发法(cognition heuristics)和选择最佳(Take the Best)。当然,这两本书并没有排斥统计方法就是了,数据量大的时候统计优势就出来了,而数据量小的时候统计方法就变得非常糟糕;人类简单的启发法则充分利用生态环境中的规律性(regularities),都做到计算复杂性小且鲁棒。 关于第二本书的简介: 1. 谁是 Herbert Simon 2. 什么是 Bounded Rationality 3. 这本书讲啥的: 我一直觉得人类的决策与判断是一个非常迷人的问题。这本书简单地说可以看作是《决策与判断》的更全面更理论的版本。系统且理论化地介绍人类决策与判断过程中的各种启发式方法(heuristics)及其利弊(为什么他们是最优化方法在信息不足情况下的快捷且鲁棒的逼近,以及为什么在一些情况下会带来糟糕的后果等,比如学过机器学习的都知道朴素贝叶斯方法在许多情况下往往并不比贝叶斯网络效果差,而且还速度快;比如多项式插值的维数越高越容易 overfit,而基于低阶多项式的分段样条插值却被证明是一个非常鲁棒的方案)。 在此提一个书中提到的例子,非常有意思:两个团队被派去设计一个能够在场上接住抛过来的棒球的机器人。第一组做了详细的数学分析,建立了一个相当复杂的抛物线近似模型(因为还要考虑空气阻力之类的原因,所以并非严格抛物线),用于计算球的落点,以便正确地接到球。显然这个方案耗资巨大,而且实际运算也需要时间,大家都知道生物的神经网络中生物电流传输只有百米每秒之内,所以 computational complexity 对于生物来说是个宝贵资源,所以这个方案虽然可行,但不够好。第二组则采访了真正的运动员,听取他们总结自己到底是如何接球的感受,然后他们做了这样一个机器人:这个机器人在球抛出的一开始一半路程啥也不做,等到比较近了才开始跑动,并在跑动中一直保持眼睛于球之间的视角不变,后者就保证了机器人的跑动路线一定会和球的轨迹有交点;整个过程中这个机器人只做非常粗糙的轨迹估算。体会一下你接球的时候是不是眼睛一直都盯着球,然后根据视线角度来调整跑动方向?实际上人类就是这么干的,这就是 heuristics 的力量。 相对于偏向于心理学以及科普的《决策与判断》来说,这本书的理论性更强,引用文献也很多而经典,而且与人工智能和机器学习都有交叉,里面也有不少数学内容,全书由十几个章节构成,每个章节都是由不同的作者写的,类似于 paper 一样的,很严谨,也没啥废话,跟《Psychology of Problem Solving》类似。比较适合 geeks 阅读哈。 另外,对理论的技术细节看不下去的也建议看看《决策与判断》这类书(以及像《别做正常的傻瓜》这样的傻瓜科普读本),对自己在生活中做决策有莫大的好处。人类决策与判断中使用了很多的 heuristics ,很不幸的是,其中许多都是在适应几十万年前的社会环境中建立起来的,并不适合于现代社会,所以了解这些思维中的缺点、盲点,对自己成为一个良好的决策者有很大的好处,而且这本身也是一个非常有趣的领域。 (完)
人工智能技术无论是在过去。认知心理学和人工智能。使得人工智能和心理学从最初就紧密地联系在一起。以下是我整理的人工智能的期末论文的相关资料,欢迎阅读!
摘要:人工智能技术无论是在过去。认知心理学和人工智能。使得人工智能和心理学从最初就紧密地联系在一起。
关键词:人类智能,人工智能,认知,心理学
人工智能技术无论是在过去,现在还是将来,都作为科学研究的热点问题之一。人类对自己本身的秘密充满好奇,随着生物技术的飞速发展,人类不断破译人体的生命密码。而以生物科学为基础的人工智能技术也得到了长足的发展。人们希望通过某种技术或者某些途径能够创造出模拟人思维和行为的“替代品”,帮助人们从事某些领域的工作。为了让计算机能够从事一些只有人脑才能完成的工作,解脱人的繁重的脑力劳动,人类对自身的思维和智能不断地研究探索。但是,科学技术是一柄双刃剑,人们对人工智能技术的飞速发展存在着恐慌。如果机器真的具有了人类的智能,在未来的某一天,他们会不会取代人类而成为地球的主宰者?人类智能和人工智能,谁才是未来的传奇?
1.你在和谁说话?
“先进的人工智能机器人不但拥有可以乱真的人类外表,而且还能像人类一样感知自己的存在。”这是人工智能发展到高级阶段的目标和任务。那么,我们在不久的未来能否实现这样一个目标呢?人类真的能发明出足以乱真的智能人类吗?隔着一堵墙,我们是否能分辨出正在与我们对话的是一部机器还是人类?
. 人工智能的定义
人工智能(Artificial Intelligence) ,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是相对于人的智能而言的。正是由于意识是一种特殊的物质运动形式,所以根据控制论理论,运用功能模拟的方法心理学,制造电脑模拟人脑的部分功能,把人的部分智能活动机械化,叫人工智能。人工智能的本质是对人思维的信息过程的模拟,是人的智能的物化。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能发展的过程归纳为机器不断取代人的过程。
. 人工智能技术的发展
几个世纪以来,人类依靠智慧,发明了许多机器,使人类能够从许多体力劳动中解放出来。从1956年正式提出人工智能学科算起,40多年来取得长足的发展,成为一门广泛的交叉和前沿科学。科学家发明了汽车,火车,飞机,收音机等等,它们模仿我们身体器官的功能,但是这些不能模仿人类大脑的功能。当计算机出现后,人类开始真正有了一个可以模拟人类思维的工具,在以后的岁月中,无数科学家为这个目标努力着。1997年5月,IBM公司研制的深蓝(Deep Blue)计算机战胜了国际象棋大师卡斯帕洛夫(Kasparov)。在一些地方计算机帮助人进行其它原来只属于人类的工作,计算机以它的高速和准确为人类发挥着它的作用。计算机的出现,使得人工智能有了突破性的进展。计算机不仅能代替人脑的某些功能,而且在速度和准确性上大大超过人脑,它不仅能模拟人脑部分分析和综合的功能,而且越来越显示某种意识的特性。真正成了人脑的延伸和增强。
. 人工智能的研究领域
人工智能是一种外向型的学科,也是一门多领域综合学科。它不但要求研究它的人懂得人工智能的知识,而且要求有比较扎实的数学基础,哲学和生物学基础,只有这样才可能让一台什么也不知道的机器模拟人的思维。而人工智能的最根本目的是模拟人类的思维,因此,它的研究领域与人类活动息息相关。什么地方只要有人在工作,他就可以运用到那个领域。
现阶段主要研究领域有专家系统,机器学习,模式识别,自然语言理解,自动定理证明,自动程序设计心理学,机器人学,博弈,智能决定支持系统和人工神经网络等等。
2.机器真的可以思考吗?
机器真的可以思考吗?机器的思考归根结底还是模仿人类的思维模式,正是“思考”这一人类的本质属性,使得人工智能和心理学从最初就紧密地联系在一起。心理学研究人脑中信息的输入、输出、存储和加工,并研究人脑各个部位的功能。最早的双核计算机模仿人的左右脑,在人脑不同区域主管各个不同功能这一原理的基础上,来设计负责不同功能的芯片。以此为出发点,心理学家和计算机学者进一步合作,通过研究人解决问题的方法来研究开发人工智能。随着人工智能的发展,所要求实现的职能愈加复杂,但最基本的方式还是逻辑推理和归纳,这正是心理学家和逻辑学家的专业领域。心理学家以研究探讨人类逻辑思维方式为人工智能提供了基本原理和原则。
. 人类意识的本质
意识是世界的内在规定、一般规律和组成部分,是具有客观实在性同世界的其它组成部分处在对立统一关系中的事物。意识普遍存于世界和万物之中,世界是包含意识的世界,万物是包含意识的万物。没有意识存在于其中的世界不是我们现实生活中的世界,没有意识存在于其中的万物也不是我们天天眼见手触的万物。有了意识的存在,世界和万物就有了生机和活力。
. 意识是与物质相对应的哲学范畴,与物质既相对立又相统一的精神现象。
意识是自然界长期发展的产物,由无机物的反应特性,到低等生物的刺激感应性,再到动物的感觉和心理这一生物进化过程是意识得以产生的自然条件。意识是社会的产物,人类社会的物质生产劳动在意识的产生过程中起决定的作用。辩证唯物主义在强调物质对意识起决定作用的前提下肯定意识对于物质具有能动的反作用,在意识活动中人们从感性经验抽象出事物的本质、规律形成理性认识,又运用这些认识指导自己有计划、有目的地改造客观世界。
. 从意识的起源看,意识是物质世界发展到一定阶段的产物;从意识的本质来看,意识是客观存在在人脑中的反映。
意识是人脑对客观存在的反映:第一,正确的思想意识与错误的思想意识都是客观存在在人脑中的反映;第二,无论是人的具体感觉还是人的抽象思维,都是人脑对客观事物的反映;第三,无论是人们对现状的感受与认识,还是人们对过去的思考与总结,以至人们对未来的预测,都是人脑对客观事物的反映。 意识的能动作用首先表现在,意识不仅能够正确反映事物的外部现象,而且能够正确反映事物的本质和规律;意识的能动作用还突出表现在,意识能够反作用于客观事物,以正确的思想和理论为指导心理学,通过实践促进客观事物的发展。
. 人类意识与人工智能的关系
认知心理学和人工智能,是认知科学的两个组成部分。人工智能使用了心理学的理论,心理学又借用了人工智能的成果。人类意识与人工智能两者具有以下关系:
l人工智能是研究用机器模拟和扩展人的智能的科学。它撇开了人脑的内在结构和意识的社会性,而只是把人脑作为一种信息处理的过程,包括信息的接收、记忆、分析、控制和输出五部分。现代科学技术用相应的部件来完成着五个过程,就构成了人工智能或电脑。
l人工智能可以代替人的某些脑力劳动,甚至可以超过人的部分思维能力,随着现代科学技术的发展,它发挥着越来越重要的作用。人工智能的出现不仅解放了人的智力,而且为研究人脑的意识活动提供了新的方法和途径。它说明了人的意识活动不管多么复杂,都是以客观物质过程为基础的,而不是什么神秘的超物质的东西,人们完全可以用自然科学的精确方法来加以研究和模拟,它进一步证实了辩证唯物主义意识论的科学性。
l人工智能的产生和发展,深化了我们对意识相对独立性和能动性的认识。机器思维即人工智能表明,思维形式在思维活动中对于思维内容具有相对独立性,它可从人脑中分化出来,物化为机械的、物理的运动形式,部分地代替人的思维活动。
随着科学技术的发展,人工智能将向更高水平发展,反过来推动科学技术、生产力和人类智慧向更高水平发展,对人类社会进步将起着巨大的推动作用。
3. 人工智能的未来
人工智能是为了模拟人类大脑的活动而产生的科学,人类已经可以用许多新技术新材料模拟人体的许多功能,诸如皮肤,毛发,骨骼等等,也就是说,人类可以创造出“类人体”。只要能够模拟人的大脑的功能,人就可以完成人工生命的研究工作,人创造自己,这不但在科学上,而且在哲学上都具有划时代的意义。这就是人工智能承担的历史使命。
在科学技术日新月异的今天,知识爆炸,科技的增长超出了人类承受的速度。各种新科技的出现层出不穷,随之而来的成果简直让人瞠目结舌,克隆、基因芯片、转基因等等,人类自身的秘密开始一层一层的揭开。我们人脑的复杂结构,人体的基因链也逐渐被科学技术解剖。我们希望将来的人工智能机器能将我们从繁重的体力劳动和脑力劳动中解放出来心理学,例如机器人做家务,带孩子,做司机,秘书等等一系列我们不愿意花太多精力或者有太多限制条件的工作。然而,人类由于多种“性能”都不如机器人,反而退化成为机器人的奴隶?他们会不会有一天无法忍受人类对他们的“剥削”和“压迫”,挑战人类的统治?很多的科幻作品和电影中都预言了这样的场景,未来的智能机器人和人类争夺有限的地球资源,并最终打败人类,成为新的地球统治者。这也正是绝大多数心理学家和哲学家对人工智能的发展忧心忡忡的原因。
人工智能的发展,也只能无限接近于人的智能,而不能超越人的智能。因为人工智能技术的本质,是模拟人类的思维过程,是为人类服务的。我们在进行发明创造的同时,担心被我们所发明的物质所毁灭。正如人类发明了原子能,用于取代正在逐渐消逝的矿物能源,然而当原子能用于军事领域的时候,他产生的力量也足以毁灭人类文明。科技本身并不是问题,人类如何运用自己掌握的技术,才是问题的关键。我们最大的敌人不是我们发明的技术,而是我们自己本身。
【参考文献】
1.李建国人工智能与认知心理学[J]. 西南师范大学学报 1986年4月第二期 142-146页
2.郑南宁认知过程的信息处理和新型人工智能系统[J]. 中国基础科学.科学前沿2008年 9-18页
3.蔡自兴,徐光�人工智能及其应用(第三版)[M].北京.清华大学出版社 2004年
4.(美)Sternberg,.认知心理学[M] .北京.中国轻工业出版社 2006年
5.(美)Nils 人工智能[M].北京. 机械工业出版社 2004年
下一页分享更优秀的<<<人工智能的期末论文
清华大学出版社最近推出了两部人工智能新教材?:《人工智能概论》和《人工智能导论》,前者为人工智能通识课教材,后者面向人工智能专业及计算机、自动化和电子信息类专业。也两本书的最大特点就是易读易懂,易教易学。
这个链接你看是不是提纲式的浅谈云计算 摘要云计算是当前计算机领域的一个热点。它的出现宣告了低成本提供超级计算时代的到来。云计算将改变人们获取信息、分享内容和互相沟通的方式。此文阐述了云计算的简史、概念、特点、现状、保护、应用和发展前景,并对云计算的发展及前景进行了分析。关键词: 云计算特点, 云计算保护, 云计算应用.1云计算简史著名的美国计算机科学家、 图灵奖 (Turing Award) 得主麦卡锡 (John McCarthy,1927-) 在半个世纪前就曾思考过这个问题。 1961 年, 他在麻省理工学院 (MIT) 的百年纪念活动中做了一个演讲。 在那次演讲中, 他提出了象使用其它资源一样使用计算资源的想法,这就是时下 IT 界的时髦术语 “云计算” (Cloud Computing) 的核心想法。云计算中的这个 “云” 字虽然是后人所用的词汇, 但却颇有历史渊源。 早年的电信技术人员在画电话网络的示意图时, 一涉及到不必交待细节的部分, 就会画一团 “云” 来搪塞。 计算机网络的技术人员将这一偷懒的传统发扬光大, 就成为了云计算中的这个 “云” 字, 它泛指互联网上的某些 “云深不知处” 的部分, 是云计算中 “计算” 的实现场所。 而云计算中的这个 “计算” 也是泛指, 它几乎涵盖了计算机所能提供的一切资源。麦卡锡的这种想法在提出之初曾经风靡过一阵, 但真正的实现却是在互联网日益普及的上世纪末。 这其中一家具有先驱意义的公司是甲骨文 (Oracle) 前执行官贝尼奥夫 (Marc Benioff, 1964-) 创立的 Salesforce 公司。 1999 年, 这家公司开始将一种客户关系管理软件作为服务提供给用户, 很多用户在使用这项服务后提出了购买软件的意向, 该公司却死活不干, 坚持只作为服务提供, 这是云计算的一种典型模式, 叫做 “软件即服务” (Software as a Service, 简称 SaaS)。 这种模式的另一个例子, 是我们熟悉的网络电子邮箱 (因此读者哪怕是第一次听到 “云计算” 这个术语, 也不必有陌生感, 因为您多半已是它的老客户了)。 除了 “软件即服务” 外, 云计算还有其它几种典型模式, 比如向用户提供开发平台的 “平台即服务” (Platform as a Service, 简称 PaaS), 其典型例子是谷歌公司 (Google) 的应用程序引擎 (Google App Engine), 它能让用户创建自己的网络程序。 还有一种模式更彻底, 干脆向用户提供虚拟硬件, 叫做 “基础设施即服务” (Infrastructure as a Service, 简称 IaaS), 其典型例子是亚马逊公司 (Amazon) 的弹性计算云 (Amazon Elastic Compute Cloud, 简称 EC2), 它向用户提供虚拟主机, 用户具有管理员权限, 爱干啥就干啥, 跟使用自家机器一样。1.2云计算的概念狭义云计算是指计算机基础设施的交付和使用模式,指通过网络以按需、易扩展的方式获得所需的资源(硬件、平台、软件)。提供资源的网络被称为“云”。“云”中的资源在使用者看来是可以无限扩展的,并且可以随时获取,按需使用,随时扩展,按使用付费。广义云计算是指服务的交付和使用模式,指通过网络以按需、易扩展的方式获得所需的服务。这种服务可以是计算机和软件、互联网相关的,也可以是其他的服务。云计算是并行计算(Parallel Computing)、分布式计算(Distributed Computing)和网格计算(Grid Computing)的发展,或者说是这些计算机科学概念的商业实现。云计算是虚拟化(Virtualization)、效用计算(Utility Computing)、IaaS(基础设施即服务)、PaaS(平台即服务)、SaaS(软件即服务)等概念混合演进并跃升的结果。云计算的特点和优势(一)超大规模性。“云”具有相当的规模,Google云计算已经拥有100多万台服务器,Amazon、IBM、微软、Yahoo等的“云”均拥有几十万台服务器。企业私有云一般拥有数百上千台服务器。“云”能赋予用户前所未有的计算能力。(二)虚拟化。云计算支持用户在任意位置、使用各种终端获取应用服务。所请求的资源来自“云”,而不是固定的有形的实体。应用在“云”中某处运行,但实际上用户无需了解、也不用担心应用运行的具体位置。只需要一台笔记本或者一个手机,就可以通过网络服务来实现用户需要的一切,甚至包括超级计算这样的任务。[2](三)高可靠性。“云”使用了数据多副本容错、计算节点同构可互换等措施来保障服务的高可靠性,使用云计算比使用本地计算机可靠。(四)通用性。云计算不针对特定的应用,在“云”的支撑下可以构造出千变万化的应用,同一个“云”可以同时支撑不同的应用运行。(五)高可扩展性。“云”的规模可以动态伸缩,满足应用和用户规模增长的需要。(六)价格合适。由于“云”的特殊容错措施可以采用具有经济性的节点来构成“云”,“云”的自动化集中式管理使大量企业无需负担日益高昂的数据中心管理成本,“云”的通用性使资源的利用率较之传统系统大幅提升,因此用户可以充分享受“云”的低成本优势,经常只要花费几百美元、几天时间就能完成以前需要数万美元、数月时间才能完成的任务。云计算作为一种技术,与其它一些依赖互联网的技术——比如网格计算 (Grid Computing)——有一定的相似之处,但不可混为一谈。拿网格计算来说, 科学爱好者比较熟悉的例子是 SETI@Home,那是一个利用互联网上计算机的冗余计算能力搜索地外文明的计算项目,目前约有来自两百多个国家和地区的两百多万台计算机参与。它在 2009 年底的运算能力相当于当时全世界最快的超级计算机运算能力的三分之一。有些读者可能还知道另外一个例子:ZetaGrid,那是一个研究黎曼 ζ 函数零点分布的计算项目, 曾有过一万多台计算机参与 (但现在已经终止了,原因可参阅拙作 超越 ZetaGrid)。从这两个著名例子中我们可以看到网格计算的特点,那就是计算性质单一,但运算量巨大 (甚至永无尽头,比如 ZetaGrid)。而云计算的特点恰好相反,是计算性质五花八门,但运算量不大[注三],这是它们的本质区别,也是云计算能够面向大众成为服务的根本原因。云计算能够流行,它到底有什么优点呢? 我们举个例子来说明,设想你要开一家网络公司。按传统方法,你得有一大笔启动资金, 因为你要购买计算机和软件,你要租用机房,你还要雇专人来管理和维护计算机。 当你的公司运作起来时,业务总难免会时好时坏,为了在业务好的时候也能正常运转, 你的人力和硬件都要有一定的超前配置, 这也要花钱。 更要命的是, 无论硬件还是软件厂商都会频繁推出新版本, 你若不想被技术前沿抛弃, 就得花钱费力不断更新 (当然, 也别怪人家, 你的公司运作起来后没准也得这么赚别人的钱)。如果用云计算, 情况就不一样了: 计算机和软件都可以用云计算, 业务好的时候多用一点, 业务坏的时候少用一点, 费用就跟结算煤气费一样按实际用量来算, 无需任何超前配置[注四]。 一台虚拟服务器只需鼠标轻点几下就能到位, 不象实体机器, 从下定单, 到进货, 再到调试, 忙得四脚朝天不说, 起码得好几天的时间。虚拟服务器一旦不需要了, 鼠标一点就可以让它从你眼前 (以及账单里)消失。至于软硬件的升级换代,服务器的维护管理等,那都是云计算服务商的事,跟你没半毛钱的关系。更重要的是,开公司总是有风险的, 如果你试了一两个月后发现行不通,在关门大吉的时候,假如你用的是云计算,那你只需支付实际使用过的资源。假如你走的是传统路子,买了硬件、软件,雇了专人,那很多投资可就打水漂了。浅谈云计算的一个核心理念大规模消息通信:云计算的一个核心理念就是资源和软件功能都是以服务的形式进行发布的,不同服务之间经常需要通过消息通信进行协助。由于同步消息通信的低效率,我们只考虑异步通信。如Java Message Service是J2EE平台上的一个消息通信标准,J2EE应用程序可以通过JMS来创建,发送,接收,阅读消息。异步消息通信已经成为面向服务架构中组件解耦合及业务集成的重要技术。大规模分布式存储:分布式存储的目标是利用多台服务器的存储资源来满足单台服务器所不能满足的存储需求。分布式存储要求存储资源能够被抽象表示和统一管理,并且能够保证数据读写操作的安全性,可靠性,性能等各方面要求。下面是几个典型的分布式文件系统:◆Frangipani是一个可伸缩性很好的高兴能分布式文件系统,采用两层的服务体系架构:底层是一个分布式存储服务,该服务能够自动管理可伸缩,高可用的虚拟磁盘;上层运行着Frangipani分布式文件系统。◆JetFile是一个基于P2P的主播技术,支持在Internet这样的异构环境中分享文件的分布式文件系统。◆Ceph是一个高性能并且可靠地分布式文件系统,它通过把数据和对数据的管理在最大程度上分开来获取极佳的I/O性能。◆Google File System(GFS)是Google公司设计的可伸缩的分布式文件系统。GFS能够很好的支持大规模海量数据处理应用程序。在云计算环境中,数据的存储和操作都是以服务的形式提供的;数据的类型多种多样;必须满足数据操作对性能,可靠性,安全性和简单性的要求。在云计算环境下的大规模分布式存储方向,BigTable是Google公司设计的用来存储海量结构化数据的分布式存储系统;Dynamo是Amazon公司设计的一种基于键值对的分布式存储系统,它能提供非常高的可用性;Amazon公司的Simple Storage Service(S3)是一个支持大规模存储多媒体这样的二进制文件的云计算存储服务;Amazon公司的SimpleDB是建立在S3和Amazon EC2之上的用来存储结构化数据的云计算服务。许可证管理与计费:目前比较成熟的云环境计费模型是Amazon公司提供的Elastic Compute Cloud(EC2)和Simple Storage Service(S3)的按量计费模型,用户按占用的虚拟机单元,IP地址,带宽和存储空间付费。云计算的现状云计算是个热度很高的新名词。由于它是多种技术混合演进的结果,其成熟度较高,又有大公司推动,发展极为迅速。Amazon、Google、IBM、微软和Yahoo等大公司是云计算的先行者。云计算领域的众多成功公司还包括Salesforce、Facebook、Youtube、Myspace等。Amazon使用弹性计算云(EC2)和简单存储服务(S3)为企业提供计算和存储服务。收费的服务项目包括存储服务器、带宽、CPU资源以及月租费。月租费与电话月租费类似,存储服务器、带宽按容量收费,CPU根据时长(小时)运算量收费。Amazon把云计算做成一个大生意没有花太长的时间:不到两年时间,Amazon上的注册开发人员达44万人,还有为数众多的企业级用户。有第三方统计机构提供的数据显示,Amazon与云计算相关的业务收入已达1亿美元。云计算是Amazon增长最快的业务之一。Google当数最大的云计算的使用者。Google搜索引擎就建立在分布在200多个地点、超过100万台服务器的支撑之上,这些设施的数量正在迅猛增长。Google地球、地图、Gmail、Docs等也同样使用了这些基础设施。采用Google Docs之类的应用,用户数据会保存在互联网上的某个位置,可以通过任何一个与互联网相连的系统十分便利地访问这些数据。目前,Google已经允许第三方在Google的云计算中通过Google App Engine运行大型并行应用程序。Google值得称颂的是它不保守。它早已以发表学术论文的形式公开其云计算三大法宝:GFS、MapReduce和BigTable,并在美国、中国等高校开设如何进行云计算编程的课程。IBM在2007年11月推出了“改变游戏规则”的“蓝云”计算平台,为客户带来即买即用的云计算平台。它包括一系列的自动化、自我管理和自我修复的虚拟化云计算软件,使来自全球的应用可以访问分布式的大型服务器池。使得数据中心在类似于互联网的环境下运行计算。IBM正在与17个欧洲组织合作开展云计算项目。欧盟提供了亿欧元做为部分资金。该计划名为RESERVOIR,以“无障碍的资源和服务虚拟化”为口号。2008年8月, IBM宣布将投资约4亿美元用于其设在北卡罗来纳州和日本东京的云计算数据中心改造。IBM计划在2009年在10个国家投资3亿美元建13个云计算中心。微软紧跟云计算步伐,于2008年10月推出了Windows Azure操作系统。Azure(译为“蓝天”)是继Windows取代DOS之后,微软的又一次颠覆性转型——通过在互联网架构上打造新云计算平台,让Windows真正由PC延伸到“蓝天”上。微软拥有全世界数以亿计的Windows用户桌面和浏览器,现在它将它们连接到“蓝天”上。Azure的底层是微软全球基础服务系统,由遍布全球的第四代数据中心构成。云计算的新颖之处在于它几乎可以提供无限的廉价存储和计算能力。纽约一家名为Animoto的创业企业已证明云计算的强大能力(此案例引自和讯网维维编译《纽约时报》2008年5月25日报道)。Animoto允许用户上传图片和音乐,自动生成基于网络的视频演讲稿,并且能够与好友分享。该网站目前向注册用户提供免费服务。2008年年初,网站每天用户数约为5000人。4月中旬,由于Facebook用户开始使用Animoto服务,该网站在三天内的用户数大幅上升至75万人。Animoto联合创始人Stevie Clifton表示,为了满足用户需求的上升,该公司需要将服务器能力提高100倍,但是该网站既没有资金,也没有能力建立规模如此巨大的计算能力。因此,该网站与云计算服务公司RightScale合作,设计能够在亚马逊的网云中使用的应用程序。通过这一举措,该网站大大提高了计算能力,而费用只有每服务器每小时10美分。这样的方式也加强创业企业的灵活性。当需求下降时,Animoto只需减少所使用的服务器数量就可以降低服务器支出。在我国,云计算发展也非常迅猛。2008年5月10日,IBM在中国无锡太湖新城科教产业园建立的中国第一个云计算中心投入运营。2008年6月24日,IBM在北京IBM中国创新中心成立了第二家中国的云计算中心——IBM大中华区云计算中心;2008年11月28日,广东电子工业研究院与东莞松山湖科技产业园管委会签约,广东电子工业研究院将在东莞松山湖投资2亿元建立云计算平台;2008年12月30日,阿里巴巴集团旗下子公司阿里软件与江苏省南京市政府正式签订了2009年战略合作框架协议,计划于2009年初在南京建立国内首个“电子商务云计算中心”,首期投资额将达上亿元人民币;世纪互联推出了CloudEx产品线,包括完整的互联网主机服务"CloudEx Computing Service", 基于在线存储虚拟化的"CloudEx Storage Service",供个人及企业进行互联网云端备份的数据保全服务等等系列互联网云计算服务;中国移动研究院做云计算的探索起步较早,已经完成了云计算中心试验。中移动董事长兼CEO王建宙认为云计算和互联网的移动化是未来发展方向。我国企业创造的“云安全”概念,在国际云计算领域独树一帜。云安全通过网状的大量客户端对网络中软件行为的异常监测,获取互联网中木马、恶意程序的最新信息,推送到服务端进行自动分析和处理,再把病毒和木马的解决方案分发到每一个客户端。云安全的策略构想是:使用者越多,每个使用者就越安全,因为如此庞大的用户群,足以覆盖互联网的每个角落,只要某个网站被挂马或某个新木马病毒出现,就会立刻被截获。云安全的发展像一阵风,瑞星、趋势、卡巴斯基、MCAFEE、SYMANTEC、江民科技、PANDA、金山、360安全卫士、卡卡上网安全助手等都推出了云安全解决方案。瑞星基于云安全策略开发的2009新品,每天拦截数百万次木马攻击,其中1月8日更是达到了765万余次。势科技云安全已经在全球建立了5大数据中心,几万部在线服务器。据悉,云安全可以支持平均每天55亿条点击查询,每天收集分析亿个样本,资料库第一次命中率就可以达到99%。借助云安全,趋势科技现在每天阻断的病毒感染最高达1000万次。值得一提的是,云安全的核心思想,与刘鹏早在2003年就提出的反垃圾邮件网格非常接近[1][2]。刘鹏当时认为,垃圾邮件泛滥而无法用技术手段很好地自动过滤,是因为所依赖的人工智能方法不是成熟技术。垃圾邮件的最大的特征是:它会将相同的内容发送给数以百万计的接收者。为此,可以建立一个分布式统计和学习平台,以大规模用户的协同计算来过滤垃圾邮件:首先,用户安装客户端,为收到的每一封邮件计算出一个唯一的“指纹”,通过比对“指纹”可以统计相似邮件的副本数,当副本数达到一定数量,就可以判定邮件是垃圾邮件;其次,由于互联网上多台计算机比一台计算机掌握的信息更多,因而可以采用分布式贝叶斯学习算法,在成百上千的客户端机器上实现协同学习过程,收集、分析并共享最新的信息。反垃圾邮件网格体现了真正的网格思想,每个加入系统的用户既是服务的对象,也是完成分布式统计功能的一个信息节点,随着系统规模的不断扩大,系统过滤垃圾邮件的准确性也会随之提高。用大规模统计方法来过滤垃圾邮件的做法比用人工智能的方法更成熟,不容易出现误判假阳性的情况,实用性很强。反垃圾邮件网格就是利用分布互联网里的千百万台主机的协同工作,来构建一道拦截垃圾邮件的“天网”。反垃圾邮件网格思想提出后,被IEEE Cluster 2003国际会议选为杰出网格项目在香港作了现场演示,在2004年网格计算国际研讨会上作了专题报告和现场演示,引起较为广泛的关注,受到了中国最大邮件服务提供商网易公司创办人丁磊等的重视。既然垃圾邮件可以如此处理,病毒、木马等亦然,这与云安全的思想就相去不远了。2008年11月25日,中国电子学会专门成立了云计算专家委员会,聘任中国工程院院士李德毅为主任委员,聘任IBM大中华区首席技术总裁叶天正、中国电子科技集团公司第十五研究所所长刘爱民、中国工程院院士张尧学、Google全球副总裁/中国区总裁李开复、中国工程院院士倪光南、中国移动通信研究院院长黄晓庆六位专家为副主任委员,聘任国内外30多位知名专家学者为专家委员会委员。2009年5月22日,中国电子学会将于在北京中国大饭店隆重举办首届中国云计算大会。
智能物流的参考文献有:现代科技不断更新迭代,促使每个行业不断转型升级。大数据、云计算、物联网以及人工智能(AI)等技术被运用于物流行业,促使“智慧物流”成为行业发展趋势。文章主要是根据近年来的各种文献,对“智慧物流”概念、“智慧物流”发展模式、信息平台建设、区域性“智慧物流”发展等方面进行了归纳和综述。
在大数据环境下,计算机信息处理技术也面临新的挑战,要求计算机信息处理技术必须不断的更新发展,以能够对当前的计算机信息处理需求满足。下面是我给大家推荐的计算机与大数据的相关论文,希望大家喜欢!计算机与大数据的相关论文篇一 浅谈“大数据”时代的计算机信息处理技术 [摘 要]在大数据环境下,计算机信息处理技术也面临新的挑战,要求计算机信息处理技术必须不断的更新发展,以能够对当前的计算机信息处理需求满足。本文重点分析大数据时代的计算机信息处理技术。 [关键词]大数据时代;计算机;信息处理技术 在科学技术迅速发展的当前,大数据时代已经到来,大数据时代已经占领了整个环境,它对计算机的信息处理技术产生了很大的影响。计算机在短短的几年内,从稀少到普及,使人们的生活有了翻天覆地的变化,计算机的快速发展和应用使人们走进了大数据时代,这就要求对计算机信息处理技术应用时,则也就需要在之前基础上对技术实施创新,优化结构处理,从而让计算机数据更符合当前时代发展。 一、大数据时代信息及其传播特点 自从“大数据”时代的到来,人们的信息接收量有明显加大,在信息传播中也出现传播速度快、数据量大以及多样化等特点。其中数据量大是目前信息最显著的特点,随着时间的不断变化计算机信息处理量也有显著加大,只能够用海量还对当前信息数量之大形容;传播速度快也是当前信息的主要特点,计算机在信息传播中传播途径相当广泛,传播速度也相当惊人,1s内可以完成整个信息传播任务,具有较高传播效率。在传播信息过程中,还需要实施一定的信息处理,在此过程中则需要应用相应的信息处理工具,实现对信息的专门处理,随着目前信息处理任务的不断加强,信息处理工具也有不断的进行创新[1];信息多样化,则也就是目前数据具有多种类型,在庞大的数据库中,信息以不同的类型存在着,其中包括有文字、图片、视频等等。这些信息类型的格式也在不断发生着变化,从而进一步提高了计算机信息处理难度。目前计算机的处理能力、打印能力等各项能力均有显著提升,尤其是当前软件技术的迅速发展,进一步提高了计算机应用便利性。微电子技术的发展促进了微型计算机的应用发展,进一步强化了计算机应用管理条件。 大数据信息不但具有较大容量,同时相对于传统数据来讲进一步增强了信息间关联性,同时关联结构也越来越复杂,导致在进行信息处理中需要面临新的难度。在 网络技术 发展中重点集中在传输结构发展上,在这种情况下计算机必须要首先实现网络传输结构的开放性设定,从而打破之前计算机信息处理中,硬件所具有的限制作用。因为在当前计算机网络发展中还存在一定的不足,在完成云计算机网络构建之后,才能够在信息处理过程中,真正的实现收放自如[2]。 二、大数据时代的计算机信息处理技术 (一)数据收集和传播技术 现在人们通过电脑也就可以接收到不同的信息类型,但是在进行信息发布之前,工作人员必须要根据需要采用信息处理技术实施相应的信息处理。计算机采用信息处理技术实施信息处理,此过程具有一定复杂性,首先需要进行数据收集,在将相关有效信息收集之后首先对这些信息实施初步分析,完成信息的初级操作处理,总体上来说信息处理主要包括:分类、分析以及整理。只有将这三步操作全部都完成之后,才能够把这些信息完整的在计算机网络上进行传播,让用户依照自己的实际需求筛选满足自己需求的信息,借助于计算机传播特点将信息数据的阅读价值有效的实现。 (二)信息存储技术 在目前计算机网络中出现了很多视频和虚拟网页等内容,随着人们信息接收量的不断加大,对信息储存空间也有较大需求,这也就是对计算机信息存储技术提供了一个新的要求。在数据存储过程中,已经出现一系列存储空间无法满足当前存储要求,因此必须要对当前计算机存储技术实施创新发展。一般来讲计算机数据存储空间可以对当前用户关于不同信息的存储需求满足,但是也有一部分用户对于计算机存储具有较高要求,在这种情况下也就必须要提高计算机数据存储性能[3],从而为计算机存储效率提供有效保障。因此可以在大数据存储特点上完成计算机信息新存储方式,不但可以有效的满足用户信息存储需求,同时还可以有效的保障普通储存空间不会出现被大数据消耗问题。 (三)信息安全技术 大量数据信息在计算机技术发展过程中的出现,导致有一部分信息内容已经出现和之前信息形式的偏移,构建出一些新的计算机信息关联结构,同时具有非常强大的数据关联性,从而也就导致在计算机信息处理中出现了新的问题,一旦在信息处理过程中某个信息出现问题,也就会导致与之关联紧密的数据出现问题。在实施相应的计算机信息管理的时候,也不像之前一样直接在单一数据信息之上建立,必须要实现整个数据库中所有将数据的统一安全管理。从一些角度分析,这种模式可以对计算机信息处理技术水平有显著提升,并且也为计算机信息处理技术发展指明了方向,但是因为在计算机硬件中存在一定的性能不足,也就导致在大数据信息安全管理中具有一定难度。想要为数据安全提供有效保障,就必须要注重数据安全技术管理技术的发展。加强当前信息安全体系建设,另外也必须要对计算机信息管理人员专业水平进行培养,提高管理人员专业素质和专业能力,从而更好的满足当前网络信息管理体系发展需求,同时也要加强关于安全技术的全面深入研究工作[4]。目前在大数据时代下计算机信息安全管理技术发展还不够成熟,对于大量的信息还不能够实施全面的安全性检测,因此在未来计算机信息技术研究中安全管理属于重点方向。但是因为目前还没有构建完善的计算机安全信息管理体系,因此首先应该强化关于计算机重点信息的安全管理,这些信息一旦发生泄漏,就有可能会导致出现非常严重的损失。目前来看,这种 方法 具有一定可行性。 (四)信息加工、传输技术 在实施计算机信息数据处理和传输过程中,首先需要完成数据采集,同时还要实时监控数据信息源,在数据库中将采集来的各种信息数据进行存储,所有数据信息的第一步均是完成采集。其次才能够对这些采集来的信息进行加工处理,通常来说也就是各种分类及加工。最后把已经处理好的信息,通过数据传送系统完整的传输到客户端,为用户阅读提供便利。 结语: 在大数据时代下,计算机信息处理技术也存在一定的发展难度,从目前专业方面来看,还存在一些问题无法解决,但是这些难题均蕴含着信息技术发展的重要机遇。在当前计算机硬件中,想要完成计算机更新也存在一定的难度,但是目前计算机未来的发展方向依旧是云计算网络,把网络数据和计算机硬件数据两者分开,也就有助于实现云计算机网络的有效转化。随着科学技术的不断发展相信在未来的某一天定能够进入到计算机信息处理的高速发展阶段。 参考文献 [1] 冯潇婧.“大数据”时代背景下计算机信息处理技术的分析[J].计算机光盘软件与应用,2014,(05):105+107. [2] 詹少强.基于“大数据”时代剖析计算机信息处理技术[J].网络安全技术与应用,2014,(08):49-50. [3] 曹婷.在信息网络下计算机信息处理技术的安全性[J].民营科技,2014, (12):89CNKI [4] 申鹏.“大数据”时代的计算机信息处理技术初探[J].计算机光盘软件与应用,2014,(21):109-110 计算机与大数据的相关论文篇二 试谈计算机软件技术在大数据时代的应用 摘要:大数据的爆炸式增长在大容量、多样性和高增速方面,全面考验着现代企业的数据处理和分析能力;同时,也为企业带来了获取更丰富、更深入和更准确地洞察市场行为的大量机会。对企业而言,能够从大数据中获得全新价值的消息是令人振奋的。然而,如何从大数据中发掘出“真金白银”则是一个现实的挑战。这就要求采用一套全新的、对企业决策具有深远影响的解决方案。 关键词:计算机 大数据时代 容量 准确 价值 影响 方案 1 概述 自从计算机出现以后,传统的计算工作已经逐步被淘汰出去,为了在新的竞争与挑战中取得胜利,许多网络公司开始致力于数据存储与数据库的研究,为互联网用户提供各种服务。随着云时代的来临,大数据已经开始被人们广泛关注。一般来讲,大数据指的是这样的一种现象:互联网在不断运营过程中逐步壮大,产生的数据越来越多,甚至已经达到了10亿T。大数据时代的到来给计算机信息处理技术带来了更多的机遇和挑战,随着科技的发展,计算机信息处理技术一定会越来越完善,为我们提供更大的方便。 大数据是IT行业在云计算和物联网之后的又一次技术变革,在企业的管理、国家的治理和人们的生活方式等领域都造成了巨大的影响。大数据将网民与消费的界限和企业之间的界限变得模糊,在这里,数据才是最核心的资产,对于企业的运营模式、组织结构以及 文化 塑造中起着很大的作用。所有的企业在大数据时代都将面对战略、组织、文化、公共关系和人才培养等许多方面的挑战,但是也会迎来很大的机遇,因为只是作为一种共享的公共网络资源,其层次化和商业化不但会为其自身发展带来新的契机,而且良好的服务品质更会让其充分具有独创性和专用性的鲜明特点。所以,知识层次化和商业化势必会开启知识创造的崭新时代。可见,这是一个竞争与机遇并存的时代。 2 大数据时代的数据整合应用 自从2013年,大数据应用带来令人瞩目的成绩,不仅国内外的产业界与科技界,还有各国政府部门都在积极布局、制定战略规划。更多的机构和企业都准备好了迎接大数据时代的到来,大数据的内涵应是数据的资产化和服务化,而挖掘数据的内在价值是研究大数据技术的最终目标。在应用数据快速增长的背景下,为了降低成本获得更好的能效,越来越趋向专用化的系统架构和数据处理技术逐渐摆脱传统的通用技术体系。如何解决“通用”和“专用”体系和技术的取舍,以及如何解决数据资产化和价值挖掘问题。 企业数据的应用内容涵盖数据获取与清理、传输、存储、计算、挖掘、展现、开发平台与应用市场等方面,覆盖了数据生产的全生命周期。除了Hadoop版本系统YARN,以及Spark等新型系统架构介绍外,还将探讨研究流式计算(Storm,Samza,Puma,S4等)、实时计算(Dremel,Impala,Drill)、图计算(Pregel,Hama,Graphlab)、NoSQL、NewSQL和BigSQL等的最新进展。在大数据时代,借力计算机智能(MI)技术,通过更透明、更可用的数据,企业可以释放更多蕴含在数据中的价值。实时、有效的一线质量数据可以更好地帮助企业提高产品品质、降低生产成本。企业领导者也可根据真实可靠的数据制订正确战略经营决策,让企业真正实现高度的计算机智能决策办公,下面我们从通信和商业运营两个方面进行阐述。 通信行业:XO Communications通过使用IBM SPSS预测分析软件,减少了将近一半的客户流失率。XO现在可以预测客户的行为,发现行为趋势,并找出存在缺陷的环节,从而帮助公司及时采取 措施 ,保留客户。此外,IBM新的Netezza网络分析加速器,将通过提供单个端到端网络、服务、客户分析视图的可扩展平台,帮助通信企业制定更科学、合理决策。电信业者透过数以千万计的客户资料,能分析出多种使用者行为和趋势,卖给需要的企业,这是全新的资料经济。中国移动通过大数据分析,对 企业运营 的全业务进行针对性的监控、预警、跟踪。系统在第一时间自动捕捉市场变化,再以最快捷的方式推送给指定负责人,使他在最短时间内获知市场行情。 商业运营:辛辛那提动物园使用了Cognos,为iPad提供了单一视图查看管理即时访问的游客和商务信息的服务。借此,动物园可以获得新的收入来源和提高营收,并根据这些信息及时调整营销政策。数据收集和分析工具能够帮助银行设立最佳网点,确定最好的网点位置,帮助这个银行更好地运作业务,推动业务的成长。 3 企业信息解决方案在大数据时代的应用 企业信息管理软件广泛应用于解决欺诈侦测、雇员流动、客户获取与维持、网络销售、市场细分、风险分析、亲和性分析、客户满意度、破产预测和投资组合分析等多样化问题。根据大数据时代的企业挖掘的特征,提出了数据挖掘的SEMMA方法论――在SAS/EM环境中,数据挖掘过程被划分为Sample、Explore、Modify、Model、Assess这五个阶段,简记为SEMMA: Sample 抽取一些代表性的样本数据集(通常为训练集、验证集和测试集)。样本容量的选择标准为:包含足够的重要信息,同时也要便于分析操作。该步骤涉及的处理工具为:数据导入、合并、粘贴、过滤以及统计抽样方法。 Explore 通过考察关联性、趋势性以及异常值的方式来探索数据,增进对于数据的认识。该步骤涉及的工具为:统计 报告 、视图探索、变量选择以及变量聚类等方法。 Modify 以模型选择为目标,通过创建、选择以及转换变量的方式来修改数据集。该步骤涉及工具为:变量转换、缺失处理、重新编码以及数据分箱等。 Model 为了获得可靠的预测结果,我们需要借助于分析工具来训练统计模型或者机器学习模型。该步骤涉及技术为:线性及逻辑回归、决策树、神经网络、偏最小二乘法、LARS及LASSO、K近邻法以及其他用户(包括非SAS用户)的模型算法。 Assess 评估数据挖掘结果的有效性和可靠性。涉及技术为:比较模型及计算新的拟合统计量、临界分析、决策支持、报告生成、评分代码管理等。数据挖掘者可能不会使用全部SEMMA分析步骤。然而,在获得满意结果之前,可能需要多次重复其中部分或者全部步骤。 在完成SEMMA步骤后,可将从优选模型中获取的评分公式应用于(可能不含目标变量的)新数据。将优选公式应用于新数据,这是大多数数据挖掘问题的目标。此外,先进的可视化工具使得用户能在多维直方图中快速、轻松地查阅大量数据并以图形化方式比较模拟结果。SAS/EM包括了一些非同寻常的工具,比如:能用来产生数据挖掘流程图的完整评分代码(SAS、C以及Java代码)的工具,以及交换式进行新数据评分计算和考察执行结果的工具。 如果您将优选模型注册进入SAS元数据服务器,便可以让SAS/EG和SAS/DI Studio的用户分享您的模型,从而将优选模型的评分代码整合进入 工作报告 和生产流程之中。SAS模型管理系统,通过提供了开发、测试和生产系列环境的项目管理结构,进一步补充了数据挖掘过程,实现了与SAS/EM的无缝联接。 在SAS/EM环境中,您可以从SEMMA工具栏上拖放节点进入工作区的工艺流程图中,这种流程图驱动着整个数据挖掘过程。SAS/EM的图形用户界面(GUI)是按照这样的思路来设计的:一方面,掌握少量统计知识的商务分析者可以浏览数据挖掘过程的技术方法;另一方面,具备数量分析技术的专家可以用微调方式深入探索每一个分析节点。 4 结束语 在近十年时间里,数据采集、存储和数据分析技术飞速发展,大大降低了数据储存和处理的成本,一个大数据时代逐渐展现在我们的面前。大数据革新性地将海量数据处理变为可能,并且大幅降低了成本,使得越来越多跨专业学科的人投入到大数据的开发应用中来。 参考文献: [1]薛志文.浅析计算机网络技术及其发展趋势[J].信息与电脑,2009. [2]张帆,朱国仲.计算机网络技术发展综述[J].光盘技术,2007. [3]孙雅珍.计算机网络技术及其应用[J].东北水利水电,1994. [4]史萍.计算机网络技术的发展及展望[J].五邑大学学报,1999. [5]桑新民.步入信息时代的学习理论与实践[M].中央广播大学出版社,2000. [6]张浩,郭灿.数据可视化技术应用趋势与分类研究[J].软件导刊. [7]王丹.数字城市与城市地理信息产业化――机遇与挑战[J].遥感信息,2000(02). [8]杨凤霞.浅析 Excel 2000对数据的安全管理[J].湖北商业高等专科学校学报,2001(01). 计算机与大数据的相关论文篇三 浅谈利用大数据推进计算机审计的策略 [摘要]社会发展以及时代更新,在该种环境背景下大数据风潮席卷全球,尤其是在进入新时期之后数据方面处理技术更加成熟,各领域行业对此也给予了较高的关注,针对当前计算机审计(英文简称CAT)而言要想加速其发展脚步并将其质量拔高就需要结合大数据,依托于大数据实现长足发展,本文基于此就大数据于CAT影响进行着手分析,之后探讨依托于大数据良好推进CAT,以期为后续关于CAT方面研究提供理论上参考依据。 [关键词]大数据 计算机审计 影响 前言:相较于网络时代而言大数据风潮一方面提供了共享化以及开放化、深层次性资源,另一方面也促使信息管理具备精准性以及高效性,走进新时期CAT应该融合于大数据风潮中,相应CAT人员也需要积极应对大数据带了的机遇和挑战,正面CAT工作,进而促使CAT紧跟时代脚步。 一、初探大数据于CAT影响 影响之机遇 大数据于CAT影响体现在为CAT带来了较大发展机遇,具体来讲,信息技术的更新以及其质量的提升促使数据方面处理技术受到了众多领域行业的喜爱,当前在数据技术推广普及阶段中呈现三大变化趋势:其一是大众工作生活中涉及的数据开始由以往的样本数据实际转化为全数据。其二是全数据产生促使不同数据间具备复杂内部关系,而该种复杂关系从很大程度上也推动工作效率以及数据精准性日渐提升,尤其是数据间转化关系等更为清晰明了。其三是大众在当前处理数据环节中更加关注数据之间关系研究,相较于以往仅仅关注数据因果有了较大进步。基于上述三大变化趋势,也深刻的代表着大众对于数据处理的态度改变,尤其是在当下海量数据生成背景下,人工审计具备较强滞后性,只有依托于大数据并发挥其优势才能真正满足大众需求,而这也是大数据对CAT带来的重要发展机遇,更是促进CAT在新时期得以稳定发展重要手段。 影响之挑战 大数据于CAT影响还体现在为CAT带来一定挑战,具体来讲,审计评估实际工作质量优劣依托于其中数据质量,数据具备的高质量则集中在可靠真实以及内容详细和相应信息准确三方面,而在CAT实际工作环节中常常由于外界环境以及人为因素导致数据质量较低,如数据方面人为随意修改删除等等,而这些均是大数据环境背景下需要严格把控的重点工作内容。 二、探析依托于大数据良好推进CAT措施 数据质量的有效保障 依托于大数据良好推进CAT措施集中在数据质量有效保障上,对数据质量予以有效保障需要从两方面入手,其一是把控电子数据有效存储,简单来讲就是信息存储,对电子信息进行定期检查,监督数据实际传输,对信息系统予以有效确认以及评估和相应的测试等等,进而将不合理数据及时发现并找出信息系统不可靠不准确地方;其二是把控电子数据采集,通常电子数据具备多样化采集方式,如将审计单位相应数据库直接连接采集库进而实现数据采集,该种直接采集需要备份初始传输数据,避免数据采集之后相关人员随意修改,更加可以与审计单位进行数据采集真实性 承诺书 签订等等,最终通过电子数据方面采集以及存储两大内容把控促使数据质量更高,从而推动CAT发展。 公共数据平台的建立 依托于大数据良好推进CAT措施还集中在公共数据平台的建立,建立公共化分析平台一方面能够将所有采集的相关数据予以集中化管理存储,更能够予以多角度全方面有效分析;另一方面也能够推动CAT作业相关标准予以良好执行。如果将分析模型看作是CAT作业标准以及相应的核心技术,则公共分析平台则是标准执行和相应技术实现关键载体。依托于公共数据平台不仅能够将基础的CAT工作实现便捷化以及统一化,而且深层次的实质研究有利于CAT数据处理的高速性以及高效性,最终为推动CAT发展起到重要影响作用。 审计人员的强化培训 依托于大数据良好推进CAT措施除了集中在上述两方面之外,还集中在审计人员的强化培训上,具体来讲,培训重点关注审计工作于计算机上的具 体操 作以及操作重点难点,可以构建统一培训平台,在该培训平台中予以多元化资料的分享,聘请高技能丰富 经验 人士予以平台授课,提供专业技能知识沟通互动等等机会,最终通过强化培训提升审计人员综合素质,更加推动CAT未来发展。 三、结论 综上分析可知,当前大数据环境背景下CAT需要将日常工作予以不断调整,依托于大数据促使审计人员得以素质提升,并利用公共数据平台建立和相应的数据质量保障促使CAT工作更加高效,而本文对依托于大数据良好推进CAT进行研究旨在为未来CAT优化发展献出自己的一份研究力量。 猜你喜欢: 1. 人工智能与大数据论文 2. 大数据和人工智能论文 3. 计算机大数据论文参考 4. 计算机有关大数据的应用论文 5. 有关大数据应用的论文
人工智能是一项前瞻性科学研究,已经成为ICT产业发展的突破口。以下是我整理的科技人工智能论文的相关 文章 ,欢迎阅读!
人工智能技术推动我国ICT产业发展模式探讨
【摘 要】人工智能是一项前瞻性科学研究,已经成为ICT产业发展的突破口。通过比较国内外ICT产业中人工智能技术研发现状, 总结 我国相关技术和产业的优劣势,有针对性的从国家政策层面和企业层面探讨人工智能技术在促进我国ICT产业发展的对策和建议。
【关键词】人工智能;政策引导;发展模式
0 引言
工信部在2010年工作会议上重点部署了战略性新兴产业的发展,信息和通信技术(Information and Communication Technology, ICT)产业排在首位。当前以智慧城市、智能家居、车联网等构成的物联网、移动互联网等应用为代表的新一代ICT产业不断创新,正在全球范围内掀起新一轮科技革命和产业变革,相关产业布局如图1所示。2013年前后欧美等国家和地区相继启动的人脑研究计划,促进人工智能、神经形态计算和机器人系统的发展。而人工智能就是机器模拟人脑的具体表现形式,以云计算、深度学习、智能搜索等一系列新技术在大规模联网上的应用,已经成为ICT产业进一步发展的重要方向[1-2]。面对人工智能在ICT产业上的迅猛发展,急需对我国在此方面的发展模式进行梳理。
1 国内外人工智能技术在ICT产业的发展现状
从发展脉络看,人工智能研究始终位于技术创新的高地,近年来成果斐然,在智能搜索、人工交互、可穿戴设备等领域得到了前所未有的重视,成为产业界力夺的前沿领域。目前国际ICT产业在人工智能技术上的发展重心涉及以下几个方面。
搜索引擎方向的发展
信息搜索是互联网流量的关键入口,也是实现信息资源与用户需求匹配的关键手段,人工智能的引入打开了搜索引擎发展的新空间。融合了深度学习技术的搜索引擎正大幅度提升图像搜索的准确率,同时吸纳了自然语言处理和云操作处理技术的搜索引擎,可将语音指令转化为实时搜索结果,另外人工智能搜索引擎可能添加意识情感元素,发展出真正意义上的神经心理学搜索引擎[3]。
从搜索引擎的发展上来看,国内企业起步稍晚,搜索领域较窄,但也有新浪、搜狐、百度、阿里巴巴、腾讯等公司等纷纷运用独特的技术与 商业模式 进行中国式的创新与超越,以及科大讯飞等企事业研究单位在部分方向已经具有了一定的基础,发展态势较好。
人脑科学助推人工智能技术发展
人工智能技术都是通过机器来模拟人脑进行复杂、高级运算的人脑研究活动。目前基于信息通信技术建立的研究平台,使用计算机模拟法来绘制详细的人脑模型,推动了人工智能、机器人和神经形态计算系统的发展,预计将引发人工智能由低级人脑模拟向高级人脑模拟的飞跃。
谷歌公司早就通过自主研发以及收购等方式来获取人工智能的必要技术,包括使用一万六千个处理器建立的模拟人脑神经系统的、具备学习功能的谷歌大脑。国内该方面的研究发展起步偏重于医学单位,在中华人类脑计划和神经信息学方面具有一定的科研成果,在某些领域达到了国际先进水平,但在新一轮全球人工智能竞赛中,中国至今处于观望和模仿阶段。直至2013年初,百度成立深度学习研究院,提出百度大脑计划,如图2所示,拥有了超越天河二号的超级计算能力,组建起世界上最大的拥有200亿个参数的深度神经网络。作为国内技术最领先的互联网公司,百度此次争得人工智能领域最顶尖的科学家,在硅谷布局人工智能研究,被视为与美国科技巨头直接展开了技术和人才竞争。
智能终端和可穿戴设备引起产业变革
移动终端通过嵌入人工智能技术破除了时空限制,促进了人机高频互动,穿戴式智能联网设备正在引领信息技术产品和信息化应用发展的新方向。
我国在智能终端和可穿戴设备芯片的研发方面,还处于探索的阶段,特别是大型芯片企业未进行有力的支持。目前只有君正发布了可穿戴的芯片,制造工艺与国际上还有一定的差距。应该说国内芯片现在还是处于刚刚起步阶段,相比市场对可穿戴设备概念的热捧,用户真正能体验到的可穿戴设备屈指可数,大多停留在概念阶段。
物联网部分领域发展
全球物联网应用在各国战略引领和市场推动下正在加速发展,所产生的新型信息化正在与传统领域深入融合。总的来看,在公共市场方面发展较快,其中智能电网、车联网、机器与机器通信(Machine-To-Machine, M2M)是近年来发展较为突出的应用领域[4]。
物联网涉及领域众多,各国均上升至国家战略层次积极推动物联网技术研发,我国也在主动推进物联网共性基础能力研究和建立自主技术标准。在射频识别(Radio Frequency Identification, RFID)、M2M、工业控制、标识解析等领域已经获得部分知识产权,其中中高频RFID技术接近国际先进水平,在超高频(800/900MHz)和微波()RFID空中接口物理层和MAC层均有重要技术突破。在标准方面,已建立传感网标准体系的初步框架,其中多项标准提案已被国际标准化组织采纳。作为国际传感网标准化四大主导国(美国、德国、韩国、中国)之一,我国在制定国际标准时已享有重要话语权。
2 我国ICT产业的政策引导
目前ICT产业的应用范围在不断的延伸,政策的制定必须考虑跨行业的需要,加速产业链的分工、合作和成熟。我国ICT企业正紧跟变革、激励创新、发掘内需,再通过突破瓶颈的ICT政策必将迎来新的机遇和发展。
国家政策方面的引导
世界发达国家纷纷制定ICT产业发展计划,并将其作为战略性新兴产业的重要组成部分。我国急需在国家政策方面进行引导,试图抢占下一程竞争制高点。政策应呈现如下趋势,破除行业间壁垒,加快制定ICT跨行业标准和产业相关政策。
加强政策顶层设计
成立国家级ICT产业发展机构,尽快确立国家ICT中长期发展战略,落实国家级监管机制、产业协同等各方面的工作,促进ICT产业及相关行业的发展。 加强自主创新能力
将战略性新兴产业作为发展重点,围绕其需求部署创新链,掌握核心关键技术,突破技术瓶颈。加强技术集成和商业模式的创新,加快新产品、新技术、新工艺研发应用。
深化科技体制改革
将企业主体地位予以强化,建立以企业为主、以市场为导向、产学研一体化的创新体系。新体系要确保企业为产业技术研发、技术创新决策、成果转化的主导地位,要促进人才、资源、技术等创新要素向企业流动,要主动与产学研机构开展深度合作,要扶植和壮大创新型企业。
知识产权方面的引导
专利方面
国际专利纠纷在一定程度上提高了国内企业的专利危机意识,但是由于在国内专利长期并未得到重视及专利技术研发周期长,企业对是否有能力实现布局认识不清[5]。初具国际竞争实力的国内企业应该紧抓全球重大的专利收购机遇,快速提升整体竞争力。针对新技术涉及专利问题应加快系统研究,重视前瞻性专利布局。积极探索统一专利池的构建,增强全产业专利授权及谈判能力,探索构建国内企业面临知识产权危机时的商业保护伞机制。一方面强化自身研发投入,另一方面仍需加强产学研结合、实现高校和科研院所的专利对企业转移。
著作权方面
目前版权产业已经成为国民经济新的增长点和经济发展中的支柱产业。世界知识产权组织在与我国国家版权局的合作调研时发现,2013年我国著作权作品登记共845064件,其中软件著作权登记164349件,同比增长超过18%。物联网、云计算、大数据等 热点 领域软件均呈现出了加速增长态势,如物联网软件著作权共4388件,同比增长,云计算软件著作权共3017件,同比增长,明显高于软件登记整体增速。虽然我国软件技术正处在一个高速增长期,但存在着低水平重复、起点较低的问题,仍需坚持不懈的进行引导、创新和保护。
3 ICT相关企业实现方式探讨
经过多年的努力积累,在人工智能究领域我国在不再仅是国外技术的跟随者,已经能够独立自主地进行重大问题的创新性研究,并取得了丰硕的成果。今后我国相关企业应进一步拓展人工智能在ICT产业的应用,并加快构建ICT产业生态系统。我国ICT相关企业在整个产业上应该逐步完成以下几个方面。
政、学、研、产、用全面推进
政府与科研院所建立合作机制。我国已经在制定多个促进产学研合作的计划,目的是将基础研究、应用研究,以及国家工业未来的发展紧密联系起来。大力资助具有应用前景的科研项目,促进大学与产业界联合申请项目,同时对由企业参与投资开发的项目实行重点关注。企业参与高校的科研项目。鼓励实力雄厚的公司通过向高校提供资金、转让科研设备等形式建立合作关系。高校积极参加企业研发项目。提供多种形式的合作方式,如高校教师充当企业顾问、举办学术讲座或参加企业课题研究,公司科研人员到高校进修并取得学位等。随着高校与政府、企业、研发机构合作的不断深入,努力消除校企之间的空间和物理层面的隔阂。探索建立学校、地方、企业、研发机构四位一体的科技创新体系,尽快形成具有特色优势和规模效益的高新技术产业群。
加强合作、推进新技术的产业化与商用
通信设备企业可与电信运营商、互联网企业加强合作,共同搭建新型试验网络,验证基于融合技术的网络架构在各场景的运行状况,排查可能出现的问题,推进相关技术、设备以及解决方案的成熟与商用化。加大与科研院所、专利中介、行业协会组织的合作,充分利用各方资源优势。企业应着重关注和影响科研院所的研究方向,协助其加强研发的实用性,提高研发质量。可以采取与校企合作开发、企业牵头申报课题,高校参与、企业设立课题由高校认领、建立联合实验室等方式。合作培育应用生态。企业在推进网络控制平台面向标准化的过程中,应充分考虑和吸纳包括电信运营商、互联网企业及其他各类企业的网络应用创新需求,为网络应用生态体系的形成与繁荣创建良好的技术基础与商业环境。
全力抢占大数据
我国政府已经认识到大数据在改善公共服务、推动经济发展以及保障国家安全等方面的重大意义。2014年《政府 工作 报告 》明确提出,“以创新支撑和引领经济结构优化升级;设立新兴产业创业创新平台”,在新一代移动通信、集成电路、大数据等方面赶超先进,引领未来产业发展。ICT企业在发展大数据的总体思路应该是:首先,明确国家关于大数据发展的战略目标,促进电信、互联网、金融等拥有海量数据的企业与其他行业进行大数据融合,扩展大数据应用领域;其次,在技术方面需要提高研发的前瞻性和系统性,近期重点发展实时大数据处理、深度学习、海量数据存储管理、交互式数据可视化和应用相关的分析技术等[6];第三,集合产学研用各方力量,统筹规划大数据应用,避免盲目发展;最后,解决个人信息的数据安全性需求。
重点发展云计算
2014年3月,工信部软件服务业司司长陈伟透露我国云计算综合标准化技术体系草案已形成。在政府建立标准化的同时,ICT企业应以企业的角度积极参与到云计算领域研究中,服务国家云产业发展战略。建议向用户充分开放企业平台资源,推进社会云产业发展;加强技术应用深度,将云计算技术着重应用于信息搜索、数据挖掘等领域,逐渐形成社会资源利用方面高效可行的 方法 技术;广泛展开与社会各界合作,推动社会各类数据资源与企业云计算技术的整合应用。云计算企业拥有丰富的软硬件资源、技术资源以及人力资源,并且服务政府信息化建设意愿强烈。应通过与政府社会资源应用需求相结合,充分发挥企业云计算资源在服务政府信息化建设、社会资源应用方面的潜力。
4 小结
发达国家对人工智能技术在ICT产业应用的研究开展较早,为促进人工智能技术的发展和ICT产业相关技术的发展已经提出并实施了一些行之有效的策略,积累了一定的 经验 。本文通过对比国内外在人工智能技术重点方向发展现状,借鉴他国政策与经验,根据我国的国情及产业发展所处的阶段,提出符合我国目前产业发展现状,适合我国的可借鉴的策略,以期为促进我国人工智能技术在ICT产业发展提供参考。
下一页分享更优秀的>>>科技人工智能论文