千禧之年以前,人工智能(AI)的吸引力大部分来源于它所承诺能实现的愿景中。但是在最近15年里,它所承诺的大多数愿景都已经实现了。人工智能科技早已遍布我们的生活。在它们正转变成为社会核心力量的过程中,AI领域的研究已经从简单地建立智能系统转变成了建立具有人类意识的、值得信赖的智能系统。
你能描述什么是AI吗?
奇怪的是,AI到现在还缺乏一个精确的、被普遍接受的定义,一个明确的定义或许有助于该领域的加速成长、繁荣以及前进。虽然AI的研究开发人员由一种粗略的方向感和一个“与它相处”的命令所引导,但AI的定义仍然很重要。Nils.J.Nilsson提供了一个有用的定义:人工智能就是致力于让机器变得智能的活动,而智能就是使实体在其环境中有远见地、适当地实现功能的能力。
一个简单的电子计算器比人类大脑进行的计算要快得多,而且几乎从来不出错。电子计算器智能吗?像Nilsson一样,以一种宽泛的视角来看待此问题,我们认为智力取决于一个多维频谱。根据这一观点,算术计算器和人脑之间的区别不是某一类,而是规模、速度、自主性和通用性的区别。同样的因素可以用来评估智能的其他各例——智能语音识别软件、动物大脑、汽车巡航控制系统、围棋程序、自动调温器,并将它们放置在频谱中的适当位置。虽然我们的宽泛解释把计算器列在了智能频谱中,但是如此简单的设备与今天的AI相比几乎没有相似之处。
AI的边界已经远远走在前面,而计算器可以实现的功能只是当下智能手机的百万分之一。目前,AI开发人员正在改进、推广和扩大从当下的智能手机中所建立起来的智能。事实上,AI领域是一个不断努力推动机器智能向前发展的过程。
未来15年,我们期待能更多地聚焦开发有人类意识的系统(这意味着能专门替特定人群设计可以实现交互的特定模型)。另外要开发出更多新的、创新的方式,以交互、可量化的办法去教导机器人。此外,物联网系统(设备、云端)也将越来越流行,它们也可被认为是社会和经济层面的AI。在接下来的几年中,具有新的感知、对象识别能力的AI和(能保证人类安全的)机器平台将会成长得越来越快,那些由数据驱动的产品市场也会进一步成长。
AI怎么改造人类生活?
在未来世界中,或者具体一点,到2030年,我们的生活会变成什么样子?虽然人工智能的很多研究和应用会基于一些通用技术,比如说机器学习,但在不同的经济和社会部门还是会有所区别,主要有八个方面:交通、家庭服务机器人、医疗健康、教育、低资源社区、公共安全、工作和就业、娱乐。(见上图)
举例来说,交通是AI中普罗大众最先想要关注的一个领域,相关AI系统的安全性和可靠性实在太重要了。一些关键技术早已促进了AI在交通中的广泛应用。与2000年相比,通过智能手机和各种低成本却高精度的传感器,今时今日,个人数据的规模、多样性以及可用交通数据总量是相当令人震惊的。正是因为这些数据,像实时交通、道路信息预测、路线规划,以及自动驾驶汽车才成为可能。
未来,AI在交通方面将会出现智能汽车(自动停车、高速巡航、路线规划等功能)、无人驾驶汽车(不久的未来,感知算法将会在驾驶能力方面超过人类的表现)、交通规划(实现车与车之间的自动沟通互联),以及需求导向交通服务和与人交互的智能设备等。
还有教育领域,过去15年,AI技术在教育行业的应用取得了巨大进展。素质教育要求师生之间进行交流互动,AI能够在各个方面提高教育水平,尤其是有助于实现大规模个性化学习方式。与AI在医疗领域的应用相似,如何更好地将人与人之间的交流互动、面对面学习与AI技术融合在一起仍将是一个重大挑战。
长久以来,机器人一直是广受欢迎的教学设备,具有代表性的是能够提高学生学业成绩的教学机器人、智能教学系统和在线学习(例如大规模开放式网络课程、维基百科及可汗学院等)。此外,AI技术(包括深度学习、自然语言处理等)还可用于学习分析,其主要分析学生的学习投入量、行为及成果。目前,AI在学校的应用尚未大规模开展,其在一定程度上主要是因为缺乏资金来源和提高该技术有效性的大量数据。
你对AI放心吗?
AI应用成功与否要看它能为人类生活创造多少价值。未来,人类是否能轻松地使用和适应AI,也在很大程度上决定了AI的生与死。
同时,由于AI应用容易出错和失败,所以其成功与否的标志也包括用户如何感知和容忍这些应用的缺陷。随着AI逐渐渗入日常生活并应用到越来越多的重要任务中,系统错误可能会导致用户的抱怨,并带来信任问题。
例如,即便自动驾驶汽车造成的事故要比人类少很多,但总是会吸引更多的关注。在提升人类理解AI系统和促进人们使用应用上需要策略,这些策略有助于建立信任并防止重大失败。
同样的,开发者应该帮助维护人们对AI应用的期望,这会影响他们使用的幸福感和满意度。如果一个系统承诺的某些功能没能实现,会减少人们对系统的信任度,并降低他们未来使用该系统的意愿。
为了帮助解决个人和社会对快速发展的AI技术产生的忧虑,我们有三个建议。
■在所有层级的政府中,制订一个积累AI技术专业知识的程序。有效的监管需要更多的能理解并能分析AI技术、程序目标以及整体社会价值之间互动的专家。
■为研究AI的平等、安全、隐私和对社会的影响扫清感知到的和实际的障碍。
■为AI社会影响的跨学科研究提供公共和私人资金支持。从整个社会来看,我们对AI技术的社会影响的研究投入不足。资金要投给那些能够从多角度分析AI的跨学科团队,研究范围从AI的基础研究到评估安全、隐私等多个方面。以下是具体问题:当一辆自动驾驶汽车或智能医疗设备出现失误时,应该由谁来负责?如何防止AI应用产生非法歧视?谁来享有AI技术带来的效率提升的成果,以及对于那些技能被淘汰的人应该采取什么样的保护?
此外,随着AI被越来越广泛和深入地整合到工业和消费产品中,一些领域需要调整、建立现有的监管制度以适应AI创新,或者在某些情况下,根据广泛接受的目标和原则,从根本上重新配置监管制度。
随着AI与城市的整合,它将继续挑战对隐私、责任等价值的已有保护。因此,“更多”、“更强硬”的监管是不可避免的。但是,扼杀创新或将创新转移到它处的监管方法可能会适得其反,监管者可以强化涉及内部和外部责任、透明度和专业化的良性循环,而不是定义狭窄的法规。
我们急需一场辩论:如何更好地引导AI,使之丰富我们的生活和社会,同时还能鼓励这一领域的创新?因为我们并不能清晰地预测未来AI技术的发展,所以相关政策一定要根据出现的社会问题不断地重新评估。未来几年,随着公众在交通、医疗等领域与AI频繁“相遇”,AI应用必须以一种能构建信任和理解的方式引入,同时还要尊重人权和公民权利。在鼓励创新的同时,政策和流程也应该解决得到、隐私和安全方面的影响,而且应该确保AI所带来的好处能得到广泛而公正的分配。