近期,创新工场董事长兼首席执行官李开复博士,联合科幻作家陈楸帆,出版了新书《AI未来进行式》
,创造性地将科技与科幻融合,畅想了 20 年后在人工智能等科技影响下的人类世界。

作为深耕硬科技的 Deep Tech VC,创新工场投资的很多硬科技蓝图,在书中得到了来自未来的成熟应用场景展现。书中的 10 个短篇故事,展示了一系列的未来场景 —— 身临其境的沉浸式娱乐方式、自如使用人类语言的虚拟伴侣、 没有“司机”的完全自动驾驶汽车、能够以假乱真的照片和视频,以及基于量子计算、计算机视觉和其他 AI 技术的展开应用……
在故事《幸福岛》中,一位中东的开明君主想试验将 AI 作为给人类带来满足感的灵丹妙药。然而,幸福是什么?幸福如何衡量?这位君主邀请了一些名人聚集在一个私密的岛屿上,让这些名人共享他们的个人数据,并成为探索这个奇妙命题的小白鼠。
我们探讨过很多 AI 技术在不同场景下的具体应用,这个故事则把一个更加宏大的命题摆在了我们眼前—— AI 技术可以给人类带来幸福吗?这不仅是一个复杂而又棘手的技术难题,也是 AI 面临的终极挑战。

—1—

AI时代的幸福感

要想开发能够最大程度提升人类幸福感的 AI,人们首先要学会衡量幸福感。我想到了三种可行的方法,这些方法都是当下的技术就可以实现的。
第一种方法非常简单——直接问就行了。通过问答的形式来评估人们的幸福感,可能是目前最可靠的方法,但这种方法不便于长期使用,因此必须开发其他的衡量手段。
第二种方法则依托于一系列日新月异的技术,如利用物联网设备(摄像头、麦克风、运动检测仪器、温度或湿度传感器等)捕捉用户的行为反应、面部表情、声音信息,然后使用情感计算算法(识别人类情绪和情感),输入所采集到的物联网数据,输出每个人的情绪识别结果。

因为能识别出面部表情、脸色等特征,AI 会比人类更准确地检测出一个人的情绪,而且 AI 还可以在同一时间内对多人进行观测,然后结合对周围人的观察结果,得出更进一步的评估结论。目前,AI 识别人类情感的能力已经超过了人类的平均能力,到 2042 年,AI 的这一能力将得到进一步的提升。
第三种方法,是持续监测与特定感觉和情绪相关的激素水平。通过这些特征,故事中的 AI 可以识别出岛上的客人在进行什么活动时会感到快乐,处于什么环境下会感到幸福,然后利用这些数据训练AI模型,让其能够识别幸福感。接下来,AI 将向客人提供活动建议和相关选项。这些活动都是量身定制的,将为客人带来更多的幸福感(例如成就感、情感联结),降低客人产生悲伤、沮丧、愤怒之类情绪的概率。
不过,要建立一个真正科学严谨、永不翻车的“幸福发电机”,我们需先在科研层面解决一些极为棘手的问题。
第一,制定幸福感指标。我们知道,人类的心理状态是由脑电波、大脑组织结构以身体内的化学成分(激素)这三部分协同决定的。未来,我们需要尽可能把所有决定人类心理状态的因素纳入考量,洞察各因素之间相互作用的原理以及让人类产生幸福感的根本原因,以便提升AI系统的训练数据质量。
第二,实现更高层次的需求,意味着不再寻求当下的满足感,而是要追寻人生的意义或目标,并为之付出长期的努力。但是,长周期学习对于 AI 来说非常具有挑战性,因为当测量出一个人的幸福感上升时,AI 无法确认这是当下的活动所导致的结果,还是上周或者去年的某个事件所导致的结果,甚至不排除是以上多重事件共同导致的结果。为此,我们需要开发新的 AI 算法,来学习如何在长期的复杂噪声中对刺激做出响应。

—2—

AI数据:去中心化 vs. 中心化

数据聚合是构建强大的 AI 必不可少的步骤之一。事实上,互联网巨头对我们的了解可能远超各位的想象——它们不仅可以推断出我们的家庭住址、以及我们为什么心情不好,甚至还能猜到埋藏在我们心底的秘密。如果我们知道有些机构有能力猜出这类个人隐私,肯定会感到非常不安。
隐私问题不但引起了人们的重视,也引发了政府该如何行动的探讨。欧盟已经采取了针对性更强的措施——推行用于保护个人数据和隐私安全的《通用数据保护条例》(GDPR),它被视为“史上最严”的数据监管条例。
GDPR 的最终愿景是将个人数据的使用权还给个人,让每个人都能控制并知悉个人数据将会被谁查看、使用并从中获利,而且有权拒绝其他个人或机构使用这些数据。不过,GDPR 也有很大的问题,条例的某些细节其实很难在执行时得到落实,在有些方面,它甚至还为 AI 的发展套上了“紧箍咒”。
如果独立来看的话,人们应该都会愿意通过 GDPR 或类似的法规条例收回数据使用权。但是如果综合考量的话,这么做可能导致App的数据量不足,那么大多数 AI 软件和应用将会面临两种结局:不是失去了原有的功能,就是变得不再智能
故事《幸福岛》里给出的建议是:与其舍本逐末,因对隐私方面的担忧而全然舍弃 AI 所能带来的便利,不如等到技术成熟时,尝试构建一个值得信赖的“可信 AI ”,用于保护、隐藏、分发人们的所有数据。
“可信 AI ”掌握我们的一切信息,所以可以响应来自各方的数据请求。也就是说,如果高德地图想知道我们的实时位置,淘宝想知道我们的家庭住址,那么“可信 AI ”将代表我们,根据我们每个人的价值观和喜好,以及提出数据请求的企业的可信度,评估对方所提供的服务是否值得我们冒提供数据的风险,然后做出决策。
“可信 AI ”不仅会成为用户的强大助手,还会化身为数据保护者,以及所有应用程序的接口。我们可以把它视为在AI时代为数据建立的一种新的社会契约。
如何才能确保“可信 AI ”真的可信?
最根本的问题在于,如果用户和“可信 AI ”持有者的利益发生分歧,那么用户的利益就失去了保障。这也是今天互联网巨头受到批评的主要原因。互联网公司需要盈利,所以它们的 AI 必然把业务优化作为系统最重要的目标函数。有时候,这种目标函数可能导致互联网公司的利益和用户的利益背道而驰。
所以,最可靠的“可信 AI ”持有者,应该是一个没有商业化营利目的的实体,只有这样的实体,才会毫无保留地把用户的利益放在优先位置。
那么,哪些实体可能拥有与我们一致的利益诉求呢?
例如,在欧美,一批具有共同价值观的人组成一个数字公社,这些人对数据的使用和保护问题达成共识,愿意贡献自己的数据来帮助公社的所有成员。目前已经有大学教授、职工和学生志愿开展了相关的学术项目以及实验探索。
此外,人们可以探索非营利性的 AI ——这有点类似于开源运动。也许我们可以构建一个分布式区块链网络(类似比特币),保证它不受任何个人或实体的控制或影响。虽然在分布式区块链网络中,存储个人数据会比存储比特币更困难,但未必是一个无解的难题。上面提到的这些实体,都比上市公司更有可能与用户的利益达成一致。

随着时间的推移,未来可能会有全新的技术解决方案问世,它既能让人们享受到强大 AI 带来的福祉,又能够保障个人的数据及隐私的安全。
目前,“隐私计算”这一研究领域正在兴起,在这一领域内也出现了一些让人们能够“鱼与熊掌兼得”的算法。
例如,联邦学习就是一种可跨多个分散的边缘设备或保存本地数据样本的服务器训练算法。这种算法无须用户把数据上传给算法持有者,它通过把训练任务交给不同的终端,在不接触用户隐私数据的前提下,就能完成模型的训练。
还有一种名为同态加密的算法,即让 AI 直接在加密数据上进行训练。其背后的原理是,同态加密算法的加密是单向的,无法通过逆向破解倒推出用户数据。尽管目前这种算法对深度学习还没有多少帮助,但未来也许会有所突破。
最后是可信执行环境(TEE)技术,加密和受保护的数据可以在这种环境下被读取,在芯片上进行解密,然后成为 AI 的训练数据,但解密后的数据,永远不会离开芯片。不过这项技术也有风险,比如很难保证芯片公司不在执行环境里设置后门。
目前,上面提到的这些技术仍然面临一些技术瓶颈,但在未来 20 年中,对于数据的保护将变得越来越重要,我们预计,隐私计算技术将取得重大进展,可以用更聪明的手段来解决新技术所导致的问题。
……

阅读更多内容,身临其境体验 2042 年的世界,了解 AI 将如何影响我们的生活,欢迎关注创新工场董事长兼首席执行官 李开复博士 X 科幻作家 陈楸帆 的新书《AI未来进行式》。

推荐阅读



继续阅读
阅读原文