发端于20世纪中叶的人工智能(Artificial Intelligence,简称AI)技术,在经历了多次跌宕起伏之后,随着大数据、神经网络科学的发展,尤其是在深度学习技术的推动下,于近几年迎来了爆发期,在很大程度上突破了此前所面临的一系列技术难题。现在的人工智能系统能够执行20年前计算机不可能完成的各种任务,比如,无人驾驶汽车、刷脸认证、自动翻译、“创作”诗词歌曲、为人看病乃至陪护儿童和老人等等,已经影响到人类生产生活的诸多领域,甚至正改变着我们对人的本质的认识。为此,包括美国、英国在内的世界各主要国家都把人工智能作为引领未来的重要战略性技术,我国也不例外。
然而,AI的快速发展,在为社会提供强大发展动力和平台的同时,也引发了广泛争论。人们担心AI会让一大批蓝领和下层白领失去工作、挑战社会公平、给隐私保护和数据安全带来新问题,更有包括著名物理学家霍金和硅谷巨头埃隆·马斯克在内的很多人担心“超级AI”将来会取代或控制人类,称AI是人类文明最大的威胁。
实际上,人们对AI目前这种亦喜亦忧的态度并不新鲜。回顾自工业革命以来人类的发展进程,技术一直是人类社会变革的重要驱动力,同时也一直被视作人类社会忧患的来源。技术发展的不确定性和双刃剑效应让人类在享受技术带来便利的同时,也始终伴随着技术可能失控的风险。AI由于关涉了科技发展与人类生存发展之间辩证关系的根本问题,其成果时常突破人们的日常想象力,所以,在其每一项具体技术进展问世伊始,便在社会上引发了强烈的关注和讨论。在科学技术已经成为现代人必备生存条件的今日,因为潜在的风险就弃绝某项技术可能带来的福祉,显然不是明智之举,那么,我们究竟该如何看待和引导人工智能技术的发展呢?
当前,AI正以超乎寻常的速度发展,其“智能度”日益提升,在许多领域人类已被机器打败。当听到世界围棋冠军柯洁哽咽着说“AlphaGo太完美,我很痛苦,看不到任何胜利的希望”时,很多人生发出将来人类会被AI取代的恐慌。这里,能够取代人类的AI是“超级AI”,即,不仅仅是在功能或结构层面模拟人类大脑,更是在能力层面达到或超过人类大脑。
对于“超级AI”是否会实现并取代人类,自20世纪50年代起,人们就一直在争论。一些激进的哲学家、非AI领域的科学家、科技类企业家,如埃隆·马斯克、史蒂芬·霍金、比尔·盖茨等,往往强调AI所带来的各种不确定性及其对人类的威胁:而人工智能专家则对此持怀疑或批评态度,如通用人工智能学会主席本·戈策尔(Ben Goertzel)便强调超级AI是“向善”的;此外,政策制定者也往往将AI与人类的关系视为协作性的、互惠性的。
我们应该看到,相比人类,当前AI在大多数层面依然有着巨大差距。计算能力的快速提升并不意味着AI在“智力”层面也能得到相应程度的提高。比如,一个两岁大的婴儿便能够在很短的时间内确认一个猫的形象,而谷歌大脑则必须使用16000个CPU,并利用1000万张来自优兔网站的图片进行训练。AI的优势在于大数据处理能力、数据存储能力、训练速度、处理速度的快速增长等,但相比于社会化的人类,当前AI能力极为有限。我们可以把人类的能力分成以下四个层面:
(1)社会维度:社会互动及互动技巧的获得;学习社会、组织规范、法律和文化;个人社会角色定位;合作、竞争、博弈能力。建立社会管理系统:形成社会目标并发展相应的支持系统;文化、知识的生产、传播与扩展。
(2)精神维度:自我意识;情感,个人感悟;个体目标的形成与改变;个人及社会价值。
(3)物质维度:将身体和精神,知识与现实世界相结合;改变或创造新的物质形式及功能;科学、技术及工程实验;经济系统等。
(4)理性思维维度:形成普适方法论和认识论;主动提出新问题;形成特定领域中的研究方法、范式;通过归纳、演绎等方法进行新知识的生产;将特定领域中的方法运用到其他领域之中;反思及改进;将逻辑与价值、激情等非逻辑因素结合起来;整合不同领域中的知识;基于不完全信息进行规律总结等。相比人类,AI在社会维度、精神维度等方面的能力几乎空白,在物质维度也仅仅限于机器人执行“工业、极端环境、日常生活”等服务性工作;而在理性思维维度,当前最先进的AI无法主动提出问题,不会将特定领域中的算法延伸到其他领域,难以基于不完全信息进行推理等。
总之,AI只在某些方面与人有可比性,尚无法整体超越人类。超级AI还只是人们对未来AI发展的一种幻想与希冀,我们无需过度恐慌。
早在1997年,IBM的“深蓝”战胜国际象棋冠军卡斯帕罗夫时,人们就惊呼“AI战胜人类”,然而“AI威胁人类”的说法甚少且不久就陷入沉寂。为何近来人们对AI威胁人类的忧虑上升?
很重要的一点在于,当前AI技术不断侵入人类独有的能力范畴,已展示出打破人类智能与机器智能之间边界的趋势。回想历史上前几次工业革命,虽然引发了人体物理层面能力的大幅跃升以及信息处理能力的极大进步,但都没有冲破“人之为人”的界限——“自我意识”,即能够根据需要主动确定目标并依靠各种资源实现目标。然而,基于深度学习技术的AI,可以借助大数据,提取非结构化信息流中各种参数之间的相关性,再基于数据相关性来获得它“心”中的世界图景。在此过程中,虽然是AI专家创造了让AI运行的算法,但是在这一算法下,AI能生产出哪些知识、是否可以形成自己独有的“相关性”或“子目标”?这还是一个“黑箱”,即使AI专家本人也无法给出确切答案。另外,AI还有对自身所依赖的、由人类设计的算法本身进行自主改进的潜在可能性,这与人类可以完全控制的传统技术有很大不同。这种自适应能力或者“智能”,会产生人类无法预见的后果。所以,AI的发展依然有失控风险。
对于一个尚在发展过程中、充满不确定性的技术领域来说,它究竟会产生哪些伦理与社会后果,我们无法预先知晓,也不能坐以待毙。因为过于惶恐地拉响警报、陷入科幻式遐思,把某种未来的可能性视作当下实际存在的问题,乃至呼吁停止技术发展,可能让我们错失技术发展所能带给社会的收益;如果坐等技术发展产生问题后再做“事后诸葛亮”,那么,很多不必要的危害可能已经产生。过早拉响警报、过晚做出反馈,都低估了我们主动塑造未来的能力,都忽视了社会和科技发展是共同演化的。
传统上,技术被认为是在某种程度上独立于社会发展的,技术完成时被输送给社会,然后,社会选择是否采纳某项技术。如果采纳了,那么,这项技术就产生了社会影响。伦理道德被看作技术活动之外的一种规范力量,伦理学家的工作就是批判和反思技术的社会后果。然而,今天,人们已经认识到,科学、技术、社会、政治、自然与文化等因素都处在一张异质性网络之中,互动并影响着彼此。任何一项技术都是在社会语境之中发展起来的,是人工物、社会实践、体制安排、知识体系的“社会技术系统”。科学家与工程师并不是孤立地去做研究,相反,他们的研究是由社会的、文化的、经济的和政治的因素以及他们对自然的了解所共同塑造的。由此,对于将给人类社会带来深刻变革的人工智能技术,伦理道德作为技术的塑造者之一,可以扮演更加积极的角色。
面对人工智能可能的风险与受益,我们必须随着科学研究和技术发展,进行动态的伦理考量,逐步建立AI的具体伦理规划。这不仅需要AI业内人士的积极参与,更需要跨越学科、社会、政治、经济和国家的界限,开展多方合作,以负责任的方式,让所有受影响的个体、群体和区域都能参与技术发展过程,最终真正让技术造福人类。
对此,无论是英国还是欧盟都把价值观提到了人工智能发展的战略高度,先后发布报告,确立了以人为本的人工智能价值观。我国也在这方面迈出了令人欣喜的一步。2017年7月,我国印发了《新一代人工智能发展规划》,呼吁“建成更加完善的人工智能法律法规、伦理规范和政策体系”“加强对人工智能潜在危害与收益的评估”“深化在人工智能法律法规、国际规则等方面的国际合作,共同应对全球挑战”。人工智能技术方兴未艾,我们期待中国自己的人工智能价值观和伦理观能够影响和帮助塑造世界人工智能技术的发展。