Android Authority上的链接可能会为我们赢得佣金 ;了解更多
从Google Assistant和Alexa等个人助理到YouTube和Amazon的内容推荐,很难想象机器学习在过去几年中没有得到根本改进的服务或技术
简单地说,机器学习是人工智能的一个子集,它允许计算机从自己的经验中学习——就像我们学习或学习新技能时所做的那样。正确实施后,该技术可以比任何人更好地执行某些复杂任务,而且通常在几秒钟内完成
考虑到机器学习在当今社会的普及程度,你可能会想知道它是如何工作的,它的局限性是什么。为此,这里有一个简单的技术入门。如果你没有计算机科学的背景,不要担心——这篇文章只是对幕后发生的事情的一个高层次的概述
尽管许多人将机器学习(ML)和人工智能(AI)这两个术语混为一谈,但实际上两者之间有区别。为了理解为什么,首先值得谈谈人工智能是如何开始的
人工智能的早期应用,大约在50年前理论化,以今天的标准来看是非常基本的。例如,一种与计算机控制的对手对弈的国际象棋游戏,曾经被认为是革命性的。原因很容易理解——毕竟,基于一套规则解决问题的能力可以称为基本的“智能”。然而,现在我们认为这样一个系统极其缺乏经验,因为它缺乏经验——人类智能的一个重要组成部分。这就是机器学习的用武之地
机器学习为人工智能增加了一个全新的维度——它使计算机能够从大量现有数据中学习或训练自己。在这种情况下,“学习”意味着形成关系并从给定的数据集中提取新模式。这也很像人类智能的运作方式。当我们遇到不熟悉的东西时,我们会用我们的感官来研究它的特征,并能用我们的记忆在下次识别它
广义地说,机器学习问题可以分为两个不同的阶段来解决:训练和推理。在第一阶段,计算机算法分析一组样本或训练数据,以提取相关特征和模式。每个算法通常针对特定类型的数据进行优化。数据可以是任何东西——数字、图像、文本,甚至是语音
与此同时,培训过程的成功与三个因素直接相关:算法本身、提供给它的数据量以及数据集的质量。研究人员不时地提出新的算法或技术,以提高精度和减少误差,正如您所期望的尖端技术。另一方面,增加算法提供的数据量也有助于覆盖更多的边缘情况
机器学习算法的输出通常被称为模型。您可以将ML模型等同于字典或参考手册,因为它用于未来的预测。换句话说,我们使用经过训练的模型从我们的程序从未见过的新数据中推断结果训练过程通常包括分析数千甚至数百万个样本。正如您所期望的,这是一个相当硬件密集的过程,需要提前完成。然而,一旦培训过程完成并分析了所有相关功能,一些生成的模型就足够小,可以安装在智能手机等普通设备上
例如,考虑一个解释手写文本的机器学习应用程序。作为培训过程的一部分,开发人员首先向ML算法提供样本图像。这最终为他们提供了一个ML模型,可以在Android应用程序中打包和部署。当用户安装应用程序并向其提供自己的新图像时,他们的设备可以参考该模型来推断新结果。当然,在现实世界中,你看不到这些——应用程序只会将手写文字转换成数字文本
虽然早期的机器学习应用程序依赖云进行训练和推理,但最近的技术进步也使得本地和设备上的推理成为可能。当然,这在很大程度上取决于所使用的算法和硬件——我们将在后面的部分中讨论
现在,这里是各种机器学习培训技术的概述,以及它们之间的区别
简而言之,用于训练算法的数据可以分为两类:有标签和无标签。正如您可能从标题中猜到的,监督学习涉及一个标记的数据集,这有助于训练算法知道它在寻找什么
举一个模型为例,该模型的唯一目的是识别猫和狗的图像。如果你用这两种动物的标记图像来输入算法,这只是一个监督学习的例子。但是,如果您希望算法能够自己找出区分特征(也就是说,没有指示图像包含狗或猫的标签),那么它就变成了无监督学习
在您可能不知道要寻找什么模式的情况下,无监督学习尤其有用。此外,新数据不断反馈到系统中进行培训,无需人工输入
比如说像亚马逊这样的电子商务网站想要创建一个有针对性的营销活动。他们通常已经知道很多关于他们客户的信息,包括他们的年龄、购买历史、浏览习惯、位置等等。一个无监督的学习算法将能够形成这些变量之间的关系。这可能有助于营销人员认识到来自特定地区的顾客倾向于购买某些类型的服装,或者年轻购物者更倾向于购买休闲用品。不管是什么情况,这都是一个完全不用动手的数字运算和发现过程
总之,在没有已知结果那么简单的场景中,无监督学习是一种有用的技术
最后,我们有强化学习,它在有许多方法可以达到明确目标的应用程序中尤其有效。这是一个反复试验的系统——积极的行动会得到奖励,而消极的行动会被丢弃。这意味着模型可以根据自己的经验随着时间的推移而演变
国际象棋是强化学习的完美应用,因为算法可以从错误中学习。事实上,谷歌的DeepMind子公司建立了一个ML程序,使用强化学习来提高棋盘游戏围棋的水平。2016年至2017年间,它在竞争环境中击败了多个围棋世界冠军——至少可以说,这是一个了不起的成就
神经网络是受人脑行为启发的机器学习的一种特殊类型。动物体内的生物神经元负责感觉加工。它们从我们周围的环境中获取信息,并将电信号远距离传输到大脑。我们的身体中有数十亿这样的神经元,它们相互交流,帮助我们看到、感觉、听到以及其间的一切
在这种情况下,神经网络中的人工神经元也会相互交流。他们将复杂的问题分解成更小的块或“层”。每一层都由神经元(也称为节点)组成,这些神经元完成特定的任务,并将其结果与下一层的节点进行通信。例如,在一个训练用来识别物体的神经网络中,你将有一层神经元用来检测边缘,另一层用来观察颜色的变化,等等
各层相互关联,因此“激活”特定的神经元链可以为您提供某种可预测的输出。由于这种多层方法,神经网络擅长解决复杂问题。例如,考虑自主或自驾车车辆。他们使用大量的传感器和摄像机来检测道路、标志、行人和障碍物。所有这些变量之间都有一些复杂的关系,这使得它成为多层神经网络的完美应用
深度学习是一个经常用来描述多层神经网络的术语。这里的术语“深”只是指层的深度
机器学习几乎影响着我们数字生活的方方面面。例如,像Instagram这样的社交媒体平台通常会根据与你互动的帖子向你展示有针对性的广告。如果你喜欢包含食物的图片,你可能会看到与餐盒或附近餐馆相关的广告。类似地,YouTube和Netflix等流媒体服务可以根据您的观看历史和持续时间推断出您可能感兴趣的新类型和主题
即使在智能手机等个人设备上,面部识别等功能也严重依赖机器学习。以谷歌照片应用程序为例。它不仅可以从照片中检测人脸,还可以使用机器学习来识别每个人独特的面部特征。您上传的图片有助于改进系统,使其能够在未来做出更准确的预测。该应用程序还经常提示您验证某个匹配是否准确,这表明系统对该特定预测的置信度较低
事实上,机器学习就是要在最短的时间内达到相当高的准确度。当然,这并不总是成功的
2016年,微软推出了一款名为Tay的最新聊天机器人。为了展示其人性化的对话能力,该公司允许泰伊通过推特账户与公众互动。然而,在机器人开始用贬损性言论和其他不恰当的对话作出回应后,该项目在24小时内就被关闭了
上面的示例强调了一个重要的问题—只有在培训数据质量相当高且与最终目标一致的情况下,机器学习才真正有用。泰伊是在推特直播上接受训练的,这意味着它很容易被恶意演员操纵或训练
除了机器学习的危险,该技术还可以帮助解决传统方法无法跟上的情况
以图形方式呈现复杂的视频游戏就是这样一种应用。几十年来,我们依靠每年的业绩增长来完成这项任务。然而,处理能力最近开始趋于平稳——即使其他技术,如显示分辨率和刷新率继续上升
Nvidia的Deep Learning Supersampling(DLSS)等基于ML的放大技术正在帮助弥合这一差距。DLSS的工作方式相当简单——GPU首先以较低的分辨率渲染图像,然后使用经过训练的ML模型来放大图像。结果令人印象深刻,至少可以说,远远好于传统的非ML升级技术。类似地,超分辨率放大也用于提高智能手机摄影图像质量。机器学习不再只是用于基本预测
前面提到的许多机器学习应用,包括面部识别和基于ML的图像放大,曾经无法在消费者级硬件上实现。换句话说,您必须连接到位于数据中心的强大服务器才能完成大多数与ML相关的任务
即使在今天,训练一个ML模型也是极其硬件密集型的,而且对于更大的项目,几乎需要专用的硬件。不过,由于培训需要反复运行少量算法,制造商通常设计定制芯片以实现更好的性能和效率。这些被称为专用集成电路或ASIC。大型ML项目通常使用ASIC或GPU进行培训,而不是通用CPU。与传统CPU相比,这些处理器具有更高的性能和更低的功耗
然而,至少在推理方面,情况已经开始发生变化。设备上的机器学习在智能手机和笔记本电脑等设备上开始变得越来越普遍。这是由于在现代处理器和SOC中包含了专用的硬件级ML加速器与普通处理器相比,机器学习加速器具有极高的能效。这就是为什么我们前面提到的DLSS放大技术,例如,只能在具有必要的ML加速硬件的较新Nvidia图形卡上使用。在智能手机中,我们已经看到专门为语音检测设计的低功耗加速器,以及与更传统的图像处理器紧密集成以获得更好的摄影效果的ML处理能力的增长趋势
展望未来,我们可能会看到功能细分和排他性取决于每一代新硬件的机器学习加速能力。事实上,我们已经在智能手机行业目睹了这种情况
ML加速器已经内置到智能手机SOC中一段时间了。然而,由于计算摄影和语音识别等用例的兴起,它们已经成为最近的一个关键焦点
>2021,谷歌宣布其第一个半定制SoC,绰号张量,为像素6。Tensor的关键区别之一是其定制的TPU或Tensor处理单元。谷歌声称,与竞争对手相比,其芯片的ML推理速度要快得多,特别是在自然语言处理等领域。这反过来又使谷歌能够在Pixel 6上使用Tensor实现一系列新功能,包括实时语言翻译、支持HDR的视频录制以及更快的语音到文本功能。联发科、高通和三星的智能手机处理器也有自己的专用ML硬件这并不是说基于云的推理在今天还没有被使用,事实上恰恰相反。虽然设备上的机器学习已经变得越来越普遍,但离理想还很远。尤其是当我们考虑复杂的问题,如语音识别和图像分类。像亚马逊的Alexa和谷歌助手这样的语音助手只有今天的水平,因为它们依赖于强大的云基础设施——用于推理和模型重新训练
然而,与大多数新技术一样,新的解决方案和技术不断出现。2017年,谷歌的HDRnet算法彻底改变了智能手机成像,而MobileNet则缩小了ML型号的尺寸,使设备上的推理变得可行。最近,该公司强调了它如何使用一种称为联合学习的隐私保护技术,用用户生成的数据训练机器学习模型
与此同时,苹果最近还在其所有消费芯片中集成了硬件ML加速器。例如,最新的Macbooks中包含的Apple M1系列SOC具有足够的机器学习能力,可以在设备本身上执行训练任务有了这些,您现在可以快速掌握机器学习的基础知识了!如果你想开始自己的技术,考虑一下我们的指南,把机器学习添加到Android应用程序。p>
2023-03-22 10:04:48