IBM Think 2019核心议题:如何打造可信人工智能

发表于 讨论求助 2023-01-03 11:14:01

华为主题IBM研究院预测:2019年,值得信赖的人工智能将成为焦点。

在2019年2月12日到15日于美国旧金山举办的IBM Think 2019大会上,可信人工智能成为核心议题之一。IBM董事长、总裁和首席执行官Ginni Rometty的主旨演讲中也重点提到了可信人工智能,Rometty还把对技术的信任作为她整个主题演讲的落脚点,她认为信任是所有伟大技术的先决条件,是新技术繁荣和发展的基础,也是这个时代最大的不同之处。

两个月前,欧盟刚于2018年12月18日公布了《可信AI的道德指南草案》,并将于2019年3月推出最终版本。《指南草案》指出人工智能AI是当代最重要的转型力量之一,也注定将改变社会的组成。但要正确的发展人工智能,就必须要提出可信赖的人工智能,“可信赖的人工智能是‘北极星’”。人工智能的未来在于信任,如果想要驱动业务成功,人工智能就不能隐藏在“黑盒子”中。

2018年底,IBM研究院发布2019预测:2019年,值得信赖的人工智能将成为焦点。在IBM Think 2019上,IBM研究院专场介绍了在推进人工智能、扩展人工智能和构建可信人工智能方面的工作,并提出了“AI就是新IT”的观点。实际上随着人工智能全面嵌入信息基础架构,人工智能与信息基础架构之间的界线已经越来越模糊。打造可信人工智能,就是构建可信的信息基础架构,进而为未来的数字经济打下坚实的基础。

激活人工智能的网络效应

MIT数字经济研究计划(MIT INITIATIVE ON THE DIGITAL ECONOMY,MIT IDE)是MIT Sloan管理学院发起的研究项目,旨在研究如何在数字经济时代发展繁荣。MIT教授MICHAEL SCHRAGE在2016年发起了一个IDE研究方向:网络效应,即亚马逊、阿里、Google、Apple、Facebook、Uber、Airbnb等平台的真正成功之道。今天,AI就是下一个平台。

什么是“网络效应”?简单理解:用户的参与越多,就能迅速产生更高的价值和有价值的体验;创造的价值越多,就会产生更多的用户以及创新的用途。对于AI来说,“网络效应”更加明显。AI与谷歌搜索一样,使用的人越多其性能就越好。但相对谷歌搜索来说,AI面临的一大问题就是可信任性。由于今天的人工智能更多是以开源软件的形式为各企业、政府和组织机构所使用,而人工智能算法本身也是“黑盒子”,因此要引发AI的“网络效应”还欠缺信任机制。

Google、Facebook、Amazon、IBM以及Microsoft在2016年发起成立了Partnership on AI。作为一家非赢利性组织,Partnership on AI旨在汇集全球不同的声音,以保障AI在未来能够安全、透明、合理地发展,让世界更好地理解AI的影响。截止2018年底,Partnership on AI共有来自13个国家的80余家成员,除创始成员外还包括苹果、Intel、埃森哲、nvidia、三星、百度等巨头以及超过50家非赢利性组织成员。

作为Partnership on AI的创始成员之一,IBM长期以来一直关注人工智能的安全、透明、可信赖以及合理发展。通过积极的呼吁以及促进各方对话,IBM研究院对2019年的人工智能预测之一为:2018年,许多组织通过建立道德咨询委员会来应对数据泄露和消费者隐私问题,增加了对“信任支柱”(算法公平性、可解释性、稳健性、透明度)的研究投入,以及为社会福利部署AI做出了更多的努力;在2019年,将看到这些努力会成为公司如何构建、训练和部署AI技术的核心。

构建可信的人工智能

IBM特别注重将对AI的信任研究转化为实际产品和平台,同时强调鼓励技术团队的多样性和包容性,以确保充分的声音和观点指导技术进步。

当前,对于AI可能存在的安全、透明、偏见等普遍性问题,很容易造成人们对于AI的不信任。IBM认为,这在很大程度上是因为所创建和被开发出来的AI服务,缺乏相应的开发说明。因为基于深度神经网络的AI算法,其算法本身是一个“黑盒子”,难以用数学的方式说明算法到底是怎么来的、如何运行的以及结果能否确定等,因此IBM研究院提出了Factsheets for AI services(AI服务的说明)。

就像营养药的药品说明一样,AI服务的说明文档十分重要,但也需要遵循一定的文档规格,例如需要说明AI服务的算法是如何创建、测试、训练、部署和评估的。IBM认为,对于AI服务说明文档的标准化和及时发布,有助于业界建立对于AI服务的信任。IBM研究院向2019年ACM美国计算机协会FAT*专业会议(专注于算法的公平、可靠和透明主题)提交了论文,论述了AI供应商应该如何提供一致性说明来增强对AI服务的信任,并提供了初步的建议,包括系统运行、训练数据、底层算法、部署测试和结果、性能指标、公平和可靠性检查、目标用例、维护及再训练等内容。

IBM认为一个可信任的AI系统,需要遵循几个基础原则:公平性(Fairness),即AI系统应该采用不带偏见的数据集和模型,从而避免对于特定群体的不公平;健壮性(Robustness),即AI系统应该安全和可靠,不会被篡改,也不会受被“污染”的训练数据集影响;可解释性(Explainability),即AI系统所提供的决策或建议,应该能够被用户和开发者所理解;可追踪(Lineage),即AI系统的开发、部署、维护等可被追踪,能够在生命周期范围内被审计。

除了提出“AI服务说明”文档的基础原则、初始规格及内容建议外,IBM认为后续值得的研究包括如何把“AI服务说明文档”自动化的嵌入AI软件的构建、开发和运行环境中,这样就不需要人工撰写这些说明文档了。此外,“AI服务说明文档”还可自动化的发布到基于区块链的网络上,这样“AI服务说明文档”就不可被篡改。

当然,IBM在可信任的AI系统方面,还进行了很多研究,其基本的思想就是通过算法和软件,自动化的在AI系统里构建“信任”。例如,IBM在2018年9月发布了AI Fairness 360(AIF360)开源工具,专门用于检查数据集、机器学习模型、最新的算法等是否具有偏见。初步发布的AIF360 Python包带有9种算法,由算法公平性研究社区所开发,用以减轻算法中的偏见。

因果建模让人工智能更加深刻

目前基于深度神经网络算法的AI系统,其原理主要是相关性。也就是训练出一个神经元模型,可以模拟一个数据集的轨迹,这在很大程度上是建立了两个系统之间的相关性。通常这种算法在处理较为确定的问题时比较容易成功。例如模拟和预测图像、语言、语音等,因为图像、语言和语音相对固定,比如一种语言往往只有几种到几十种发音、几千到几万词汇等。

但是在现实的商业应用中,人们期望用AI算法解决更多的开放性问题,就像人脑可以处理很多未知或缺乏经验的问题,因此人们也期望建立更加通用的人工智能系统。这个时候,就需要引入人脑所具备的归纳推理能力,也就是建立数据集之间的因果关系,而不仅仅是相关性。在IBM研究院的2019 AI预测中提到:对现实世界中因果结构的直觉,是人们日常行为和判断不可或缺的,但今天大部分人工智能方法基本上都缺乏对因果关系的深刻应用。

因果推理方法,使AI开发者能够从数据中推断出因果结构,有效地选择干预措施来检验推定的因果关系,并通过利用因果结构的知识做出更好的决策。在2019年,IBM期望因果建模技术成为人工智能世界的核心技术。

因果建模技术(Casual Inference)是归纳推理算法(Inductive reasoning)的一个部分,

发表
26906人 签到看排名