Eric Horvitz:AI前进的道路原本就应以理智的好奇、审慎与合作为指引

微软研究院 2017-07-20 08:36 阅读:88
摘要:微软研究院院长及技术院士EricHorvitz编者按:随着技术的不断发展,AI已经逐渐深入到了我们的生活中,从语音翻译到智能助手再到自动驾驶等等。AI在为人们生活带来便利的同时,也引发了不少人的“恐慌

微软研究院院长及技术院士Eric Horvitz

编者按:随着技术的不断发展,AI已经逐渐深入到了我们的生活中,从语音翻译到智能助手再到自动驾驶等等。AI在为人们生活带来便利的同时,也引发了不少人的“恐慌”。面对AI的发展,我们到底应该拥抱还是担忧?

微软研究院院长及技术院士Eric Horvitz在《Science(科学)》杂志AI专刊上撰文“AI, people, and society”(AI,人类和社会),为大家解读AI前进的道路。

艾萨克·阿西莫夫在关于其科幻小说作品的一篇文章中曾写道:“人们普遍将机器人视为危险设备,认为它们总有一天会摧毁人类。”而对此,他持反对观点并制定了旨在确保机器人系统安全性和仁慈心的“机器人三定律”。阿西莫夫关于人与机器人之间关系的小说问世没几年,“人工智能”(AI)这个术语便首次出现在1955年的一份运用计算机解决“目前只有人类才能解决的问题”的研究提案中。随后经历的半个世纪,AI已经发展成为一个成熟的细分学科,产生了一系列可用于实现(机器)感知、学习、推理和自然语言理解的方法。

通过“深度学习”的方法,计算机在模式识别方面的准确性突飞猛进,AI也由此变得愈发激动人心。这些进步将“语音翻译”和“半自动驾驶”等新功能实实在在地交付到了消费者手中。但许多艰难的挑战也仍然存在,而且AI科学家们仍然对人类智慧的众多能力感到高深莫测。

AI发展带来的兴奋被对它们潜在缺陷的担忧所蒙蔽。有些人担心超级智能崛起以及AI系统可能的失控,另外一些人则担心不远的将来可能出现的问题,例如,用于指导医疗保健和刑事司法等领域高风险决策的数据驱动分类器可能会受到数据集偏见的影响,导致不公平和不准确的推论。其它备受关注的紧迫问题还包括:与AI自主系统决策相关的法律和伦理问题、推论解析中存在的困难、新的监控形式对公民自由的威胁、以劝说为目的的精确操纵、将AI用于犯罪目的、军事应用中的颠覆性影响,以及机器抢夺人类就业机会并因而加剧财富不均等问题的潜在可能。

伴随着我们推动AI科学发展的努力,应对AI给人类与社会可能会带来的影响,无论从短期还是长期的维度上看都是至关重要的。我们可以通过重点研究、监测和分析来制定有价值的评估和指导。而AI影响范围广泛,因此需要跨学科团体的参与,包括计算机科学家、社会科学家、心理学家、经济学家和法律专家等。在长期的问题上,则需要展开对话,以弥合关于超级智能和恶意AI可能性等问题上的意见分歧。探索方向应该包括:详细界定AI发展的轨迹和结果,并邀请在软件验证、安全和故障防护设计原则等领域有精深见解的计算机科学家和工程师参与其中。

现在人们已经开始了相关的研究和项目。2008年,人工智能进步协会(Association for the Advancement of Artificial Intelligence)就开展了一项长达数月的AI长期前景的研究,并在美国加利福尼亚州的Asilomar举行了一次会议。而在这次会议的启发下,斯坦福大学设立了“百年AI研究项目”,他们计划每五年进行一次类似的研究,并持续一个世纪以上(第一份报告已于去年发布)。同时,美国国家科学院也进行了一项长达2年的研究,并于去年4月发表了一篇关于自动化对美国劳动力影响的报告。而今年早些时候,来自工业界、学术界和民间社团的代表成立了非盈利性质的人工智能合作组织(Partnership on AI),旨在为AI技术的开发和部署提出最佳实操建议。

艾萨克·阿西莫夫在他的文中总结道:“我无法接受‘如果知识代表危险,无知就是解决办法’这种观点。对我来说,解决的办法一定是运用人类的智慧。人类不能拒绝直面的危险,而要学会如何安全地应对。”事实上,AI前进的道路原本就应以理智的好奇、审慎与合作为指引。

原文地址(点击阅读原文即可访问)

http://science.sciencemag.org/content/357/6346/7.full

版权声明
本文仅代表作者观点,不代表百度立场。
本文系作者授权百度百家发表,未经许可,不得转载。
阅读量: 88
0