造就第388位讲者 吴小毛 
粒界科技创始人
我是吴小毛,粒界科技创始人。
今天我们看到很多优秀的作品,有的是影视作品,有的是动漫、游戏,但大家是否意识到,在过去的几十年间,我们观看这些媒体作品的方式,几乎没有发生改变:从电视到电脑,再到现在的手机,我们始终依赖着一块或大或小的屏幕。
这种方式是否能得到变革?人们获取娱乐的方式是否能更进一步?带着这些问题,我创办了粒界科技。
我一直以来都在从事游戏的技术工作,此前在Crytek德国法兰克福总部担任项目技术总监。
在Crytek,我从零开始创建了Cinebox团队,带队研发Cryengine游戏引擎,参与制作了次世代游戏《孤岛危机》系列及Xbox one首发大作《罗马之子》。
在制作这些3A级大作的过程中我发现,游戏的品质越来越高,画质甚至已经接近CG级别,那我们是否可以运用这些技术来制作影视作品呢?
在过去的8年时间,我便带着团队把游戏技术应用到了影视行业,试图颠覆动漫和电影的制作方式。虽然这是一个漫长而从未有人开拓过的过程,但我也清楚一个全新的技术对一个行业所意味着的震撼力和革命性。
我也曾带领团队参与制作了《猩球崛起》和《移动迷宫》等好莱坞电影的特效,一般来说,每一帧电影级别的影视特效渲染,短则需要30分钟,长则几小时乃至几天。
接下来我给大家演示的这个视频,就使用了我们的全新技术,是完全使用这种毫秒级的实时渲染实现的。
这个视频,是我们为玄机动画和福煦影视制作的动画作品,今天玄机科技的沈乐平导演也在我们的现场,他是中国乃至全球第一个使用这种技术的导演。
这会是一个历史性的时刻,当我们使用这种全新的技术来制作动漫作品,原先两个月一集的制作周期,将缩短至一到两周。在今年,将会有越来越多的影视制作公司参与进来,一起推动这个进程。
我认为,这个变革将倒逼好莱坞革新其制作流程。
当游戏技术革新了影视制作之后,下一步会发生什么呢?这就是我今天要着重和大家探讨的“人机交互”话题。
假设游戏、影视和VR/AR技术能够更为紧密的结合,假设科研和产业界能更为紧密的结合,有一个兼具行动力和技术前瞻性的企业,能够将顶级的技术有机整合起来,并创造出极高的用户体验感,那我觉得“人机交互”的未来是可以这样的。
这是我们团队用一周时间拍摄制作的一个视频,模拟的是未来当人们不再需要手机的一种社交方式。
大家可以想象,视频中的眼镜其实并不是一个实体,它会是一个电子虚拟眼镜,你可以非常轻易地戴着它去任何地方,你眼前的画面都是以数字叠加的方式呈现:
动一下拇指便可滑出一个可缩放的虚拟显示屏,挪动一下食指便可以复制或切换不同的显示界面,它也可以随着你的头部旋转进行位置同步。
其实我们的脑洞可以再大一点,当手机和屏幕被取代之后,我们还能不能更进一步呢?
这是我对人类与数据交互的一个终极设想:人其实可能就是这样在被模拟着,所以大家在走路、跑步、开车、坐飞机的时候,极有可能不过是在模拟器里的沉浸式体验而已。
更为极端的想法是连皮肤都是模拟的,我们看到的皮肤是一个数字影像,我们看到的和摸到的皮肤都是假的,都是传感器的一个反馈而已。所以我们也许被包围在一个与人形状一样的容器中,里面有我们的器官、骨骼、肌肉、经脉和血液。
更进一步极端的想法是,我们可能连这些器官都没有,而只有一个接受这些刺激的意识而已。
这些都有待于我们进一步探索和验证。我认为在我的有生之年,我们的模拟器起码可以和我们的皮肤接触,并高密度精确地赋予我们新奇的感觉和体验,拓展我们的认知及体验。
所有这些场景的实现,都极度依赖于一个数字模拟的引擎,而目前较为完备的数字模拟引擎便是游戏引擎。
游戏引擎的品质往往受限,支持高分辨率、高品质的同时,还需要保证60—90帧每秒的帧率,是一个巨大的挑战。而我带领团队在过去的10年里在游戏引擎领域也取得了重大的突破。
有了经过游戏技术和影视技术的结合,而且又适合下一代交互显示的数字引擎,我们便可以以毫秒级的速度显示以假乱真的数字内容。
但为了和我们的现实世界无缝融合,还需要把我们的现实世界还原为数字世界。而目前的还原手段都极其缓慢,完全无法适用于实时的人机交互场景。
我们需要的是一个能够在可预测时间内逐渐收敛为现实世界1:1的复制版现实世界,并最好还能够和显示时间保持同步的更新,或者起码延迟的时间不超过1—2秒。
即使用超级计算机来进行并行处理,要达到我们需要的交互模型的质量和数量在10年内都难以完成。有没有解决的方法?有!
“数字重建技术”就是这个课题的核心,举个例子,如果我想把我眼前的观众席编程为一个汪洋大海的话,除了显示技术之外,我还需要检测地面的高度、整个剧场的尺寸等等,这些就需要依靠计算机视觉技术,当所有的这些数据收集完成后,我就可以拉入一个大海的“素材”,通过数字重建技术实时实地地模拟海洋。
通过这一技术,我们制作了一个1:1的数字城市,这个是我们帮广州市制作的100平方公里的东莞市数字模型项目。里面所有的道路、湖泊、树木、车辆、房屋都是按照1:1的比例还原成的数字模型,你可以进行任意的修改,再通过虚拟现实技术进入其中游玩,比如在街道上开一把极品飞车,或者与你的爱人找一个大厦的天台共进晚餐。
这个是我们和阿里巴巴ET城市大脑合作的一个项目,我们制作的一个杭州中心城区的数字展示,也是1:1还原的。这里是环城东路,行驶在上面的汽车全是通过人工智能技术驾驶的数字汽车,不管是交通信号灯的调配,还是政府的智慧管理,都可以用非常直观的方式实现。
通过刚才的演示,我们可以发现,每一个单点的技术突破都是最前沿的,但是怎么去把这些技术融合起来,使得我们能够往“终极未来”方向推却是非常难的事情。
我们的“终极娱乐”和“生活”是不可分割的。有人问我,吴博士,你为什么不去做一个游戏引擎呢?我说,以后的游戏就是生活,生活就是游戏,生活和游戏是完全无缝对接的,没有任何区别。
我们刚才看到的“数字城市”,当它不断量产、不断由政府推动,再加上数字扫描设备和数字重建技术的普及,我们真的可以创造一个“数字地球”,一个融合和平行于现实世界的数字世界,它叠加在现实世界之上,你可以选择生活在现实世界,也可以选择活在虚拟世界。
那时,我们每个人都会拥有一个“数字身份证”的概念,我们会和AI共存,这就是我所认为的终极人机交互,也是我所期待的“终极娱乐”形态。
对于我这样一个长期奔波于上海、广州、德国的人,我就非常希望有一款设备,让我跟我的团队可以跨国实时地面对面交流,观察他们的表情和说话的语气,一起修改PPT,跟进项目进度。
另外,由于我的父母和我的姐姐很早就去世了,我的爷爷我也没有见到过,我就希望有一个设备,可以根据我亲人的照片重建他们的形象,让我能跟他们进行交流,说说话。
经过一些落地的工作和这些情绪的推动、资本的推动,我相信未来人机交互的可行性。一个真正的革命性的提升终将到来,谢谢大家。
文字 | 丁一洲;校对 | 其奇
互动话题:
你心目中的未来世界是什么样子的呢?
恭喜上周互动话题中奖者@孟晓亮,请联系小助手(微信ID:zaojiu16)领奖。
每周评论区,被zan最多的评论者将获得造就送出的礼品一份
加入社群:
添加小编微信(zaojiu12),发送暗号“进群”,带你进入神秘的造就官方群。
推荐阅读
  点击阅读原文
,看「造就」更多演讲。
继续阅读
阅读原文