早在20世纪50年代,这一领域的先驱者明斯基和麦卡锡就把人工智能描述为任何由机器执行的任务,而机器以前被认为需要人类的智能。
这显然是一个相当宽泛的定义,这就是为什么你有时会看到关于某样东西是否真的是人工智能的争论。
关于创造智能意味着什么的现代定义更为具体。谷歌人工智能研究员、机器学习软件库Keras的创建者弗朗索瓦·乔利特(Francois Chollet)曾表示,智能与系统在新环境中的适应和即兴发挥能力有关,他说:“智力是指你在以前没有准备的任务中获得新技能的效率。”;这不是你能做的;这是一个定义,根据这个定义,现代人工智能系统,如虚拟助理,将被描述为展示了“狭义人工智能”,即在执行有限的一系列任务时概括训练的能力,例如语音识别或计算机视觉。
通常,人工智能系统至少表现出以下一些与人类智能相关的行为:计划、学习、推理、解决问题、知识表示、感知、运动和操作,以及在较小程度上,社交智能和创造力。
人工智能如今无处不在,用于推荐你下一步应该在网上购买的东西,了解你对虚拟助理(如亚马逊的Alexa和苹果的Siri)说的话,识别照片中的人和物,发现垃圾邮件,或发现信用卡欺诈,人工智能可以分为两大类:
狭义人工智能是我们今天在计算机中所看到的——已经被教导或学会如何执行特定任务而没有被明确编程的智能系统。这种机器智能在语音中很明显苹果iPhone上Siri虚拟助手的语言识别,自动驾驶汽车上的视觉识别系统,或者根据你过去购买的产品推荐你可能喜欢的产品的推荐引擎。与人类不同的是,这些系统只能学习或被教导如何完成定义的任务,这就是为什么它们被称为狭义人工智能的原因。
通用人工智能与人类非常不同,它是一种适应性强的智能,是一种灵活的智能形式,能够学习如何执行截然不同的任务,从理发到制作电子表格,或者根据积累的经验对各种各样的话题进行推理,这是一种在电影中更常见的人工智能,比如2001年的哈尔或《终结者》中的天网,但这在今天是不存在的——人工智能专家们对它将在多长时间内成为现实存在着激烈的分歧。
对于狭义人工智能,有大量新兴的应用程序:
解释无人机的视频源,对石油管道等基础设施进行目视检查。组织个人和商业日历。响应简单的客户服务查询。与其他智能系统协调执行任务,如在适当的时间和地点预订酒店。帮助放射科医生在X光中发现潜在肿瘤。在线标记不适当的内容,从物联网设备收集的数据中检测电梯的磨损。从卫星图像生成世界的3D模型。。。这些学习系统的新应用不断涌现。图形卡设计师Nvidia最近发布了一个基于人工智能的Maxine系统,它可以让人们进行高质量的视频通话,几乎不考虑他们的互联网连接速度。该系统通过不在因特网上传输完整的视频流,而不是以设计成实时再现呼叫者面部表情和动作并且与图像不可区分的方式来设置呼叫者的少量静态图像的动画,从而将此类呼叫所需的带宽减少了10倍然而,尽管这些系统有许多未开发的潜力,但有时对这项技术的野心超过了现实。自动驾驶汽车就是一个很好的例子,它本身就是由计算机视觉等人工智能系统支撑的。电动汽车公司特斯拉(Tesla)在某种程度上落后于首席执行官埃隆•马斯克(Elon Musk)最初提出的将汽车自动驾驶系统从更有限的辅助驾驶能力升级为“全自动驾驶”的时间表,作为beta测试项目的一部分,全自动驾驶选项最近才在选定的一组专家司机中推出。人工智能研究人员文森特C缪勒和哲学家尼克博斯特罗姆(Nick Bostrom)在2012/13年对四组专家进行的一项调查显示,开发人工通用智能(AGI)的可能性为50%在2040年到2050年之间,到2075年,这一比例上升到90%。研究小组更进一步预测,所谓的“超级智能”(Bostrom将其定义为“在几乎所有感兴趣的领域中大大超过人类认知能力的任何智力)预计将在AGI实现30年后出现,人工智能专家最近的评估更为谨慎。现代人工智能研究领域的先驱如杰弗里·辛顿、黛米斯·哈萨比斯和扬·勒坤说,社会离发展AGI还差得远。鉴于对现代人工智能领域领军人物的怀疑,以及现代狭义人工智能系统与AGI截然不同的性质,人们或许没有多少理由担心通用人工智能将在不久的将来扰乱社会。
尽管如此,一些人工智能专家认为,这样的预测是非常理想的鉴于我们对人脑的了解有限,相信AGI还有几个世纪的时间。
虽然现代狭义人工智能可能仅限于执行特定的任务,但在其专业范围内,这些系统有时具有超人的性能,在某些情况下甚至表现出卓越的创造力,一种通常被认为是人类固有的特质。
已经有太多的突破,无法形成一个明确的清单,但一些亮点包括:
2009年谷歌展示了其自动驾驶丰田普锐斯(Toyota Prius)可以完成10次以上的行程,每次行程100英里,使社会走上了一条通往无人驾驶汽车的道路。2011年,IBM Watson电脑系统赢得美国智力竞赛节目《危险!》的冠军,成为全球头条新闻!,击败了该剧有史以来最优秀的两位选手。为了赢得这场秀,沃森使用了自然语言处理和对大量数据仓库的分析,这些数据被处理以回答人类提出的问题,通常只需几分之一秒。2012年,另一项突破预示着人工智能有潜力处理许多以前被认为对任何机器都过于复杂的新任务。那一年,AlexNet系统在ImageNet大规模视觉识别挑战赛中取得了决定性的胜利。在图像识别比赛中,AlexNet的准确率使其错误率比竞争对手的系统降低了一半。AlexNet的表现证明了基于神经网络的学习系统的能力,一个机器学习的模型已经存在了几十年,但由于摩尔定律对体系结构的改进和并行处理能力的飞跃,它最终实现了它的潜力。机器学习系统在实现计算机视觉方面的能力也成为当年的头条新闻,随着谷歌培训了一个系统来识别互联网上最受欢迎的东西:猫的图片。
下一个引起公众注意的机器学习系统的功效演示是2016年谷歌DeepMind AlphaGo AI战胜了Go中的人类大师,一种古老的中国游戏,其复杂性困扰了计算机几十年。围棋每回合可能有200个动作,而国际象棋只有20个。在围棋的游戏过程中,有太多的可能的动作需要提前搜索每一个动作来确定最佳的游戏,从计算的角度来看,这代价太高了。相反,AlphaGo接受了如何玩游戏的训练,方法是将人类专家在3000万个围棋游戏中的动作输入深度学习神经网络。
训练这些深度学习网络可能需要很长时间,随着系统逐渐完善其模型以获得最佳结果,需要大量的数据被摄取和迭代。
然而,最近,谷歌用AlphaGo Zero改进了训练过程,AlphaGo Zero是一个对自己进行“完全随机”游戏然后从中学习的系统。谷歌DeepMind首席执行官德米斯·哈萨比斯(Demis Hassabis)也发布了一款新版本的AlphaGo Zero,它掌握了国际象棋和shogi的游戏。
而人工智能继续冲刺过去的新里程碑:由OpenAI训练的系统在在线多人游戏Dota 2的一对一比赛中击败了世界顶尖玩家。
同年,OpenAI创造了人工智能代理,他们发明了自己的语言来更有效地合作和实现他们的目标,其次是Facebook培训代理商谈判和撒谎。
2020年,人工智能系统似乎获得了像人类一样书写和谈论几乎任何你能想到的话题的能力。
这个系统,简称为Generative Pre-trained Transformer 3或GPT-3,是一个神经网络,它的训练对象是开放网络上的数十亿篇英语文章。
从非盈利组织OpenAI提供给测试后不久,互联网上就充斥着GPT-3生成几乎任何主题文章的能力,乍一看往往很难与人类写的文章区分开来。同样,在其他领域也取得了令人印象深刻的成果,它能够令人信服地回答广泛主题的问题,甚至可以作为JavaScript程序员的新手。
但是,尽管许多GPT-3生成的文章都有一种逼真的气氛,但进一步的测试发现生成的句子往往没有通过测试,提供表面上似是而非但令人困惑的陈述,有时甚至是彻头彻尾的胡说八道。
使用模型的自然语言理解作为未来服务的基础仍然有相当大的兴趣。它可以选择开发人员通过OpenAI的beta-API构建到软件中。它还将被纳入未来通过微软Azure云平台提供的服务中。
也许人工智能潜力最显著的例子出现在2020年末,当时基于谷歌注意力的神经网络AlphaFold 2展示了一个有人称之为诺贝尔化学奖的结果。
该系统的观察能力一种蛋白质的组成部分,即氨基酸,并由此推断出蛋白质的三维结构可以深刻地影响人们对疾病的理解和药物开发的速度。在“蛋白质结构预测的关键评估”竞赛中,AlphaFold 2测定蛋白质的3D结构的准确度可与结晶学相媲美,结晶学是令人信服地模拟蛋白质的金标准。
与结晶学不同,结晶学需要数月才能返回结果,AlphaFold 2可以在数小时内模拟蛋白质。随着蛋白质的三维结构在人类生物学和疾病中发挥着如此重要的作用,这种加速被认为是医学科学的一个里程碑式的突破,更不用说在生物技术中使用酶的其他领域的潜在应用了。
到目前为止,几乎所有提到的成就都源于机器学习,这是人工智能的一个子集,占了近年来该领域成就的绝大多数。当人们今天谈论人工智能时,他们通常都在谈论机器学习。
目前,机器学习正在复苏,简单地说,机器学习是指计算机系统学习如何执行任务,而不是被编程如何执行任务。机器学习的这种描述可以追溯到1959年,当时它是由亚瑟·塞缪尔(Arthur Samuel)发明的,他是这一领域的先驱,开发了世界上第一个自学习系统之一,塞缪尔跳棋游戏程序。
为了学习,这些系统被输入大量的数据,然后用来学习如何执行特定的任务,比如理解演讲或者给照片加字幕。数据集的质量和大小对于建立一个能够准确执行指定任务的系统非常重要。例如,如果你正在建立一个机器学习系统来预测房价,那么训练数据应该不仅仅包括房产的大小,还包括其他显著的因素,如卧室的数量或花园的大小。
机器学习成功的关键是神经网络。这些数学模型能够调整内部参数来改变它们的输出。一个神经网络被输入数据集,这些数据集告诉它在训练过程中,当出现某些数据时,它应该吐出什么。具体来说,网络可能会收到0到9之间的数字的灰度图像,以及一串二进制数字——0和1——指示每个灰度图像中显示的数字。然后将对网络进行训练,调整其内部参数,直到它以高精度对每个图像中显示的数字进行分类。这种经过训练的神经网络可以用来对0到9之间的其他灰度图像进行分类。这样的网络被用于Yann LeCun在1989年发表的一篇开创性论文中,展示了神经网络的应用,并被美国邮政局用于识别手写邮政编码。
该网络的结构和功能神经网络非常松散地建立在大脑神经元之间的联系上。神经网络是由相互连接的算法层组成的,这些算法层将数据相互输入。通过修改数据在这些层之间传递时的重要性,可以训练他们执行特定任务。在这些神经网络的训练过程中,当数据在层之间传递时,附加在数据上的权重将继续变化,直到神经网络的输出非常接近所需的值。届时,网络将“学会”如何执行特定任务。理想的输出可以是任何东西,从正确标记图像中的水果到根据传感器数据预测电梯何时可能发生故障。
机器学习的一个子集是深度学习,在深度学习中,神经网络被扩展为具有大量大尺寸层的扩展网络,这些层使用大量数据进行训练。这些深层次的神经网络推动了当前计算机执行语音识别和计算机视觉等任务的能力的飞跃。
各种类型的神经网络各有优缺点。递归神经网络(RNN)是一种特别适合于自然语言处理(NLP)的神经网络——理解文本的含义——和语音识别,而卷积神经网络植根于图像识别,其用途与推荐系统和NLP一样多种多样。神经网络的设计也在不断发展,研究人员改进了一种更有效的深层神经网络形式,称为长-短期记忆(long-short-term memory,简称LSTM)——一种用于自然语言处理(NLP)和股市预测等任务的RNN体系结构——使其能够以足够快的速度运行,以用于谷歌翻译(Google Translate)等按需系统。
深层神经网络的结构和训练网络
人工智能研究的另一个领域是进化计算。
它借鉴了达尔文的自然选择理论。它看到遗传算法在几代人之间经历随机突变和组合,试图进化出一个给定的最优解
2023-03-22 10:04:38