AI 堪称当今科技界最热门的话题,它不但深刻影响人们的生活,同时也为科学研究带来了新的可能性。作为一种将“AI”和“科研”深度融合的新兴科技形态,AI for Science(人工智能驱动的科学研究)被称为“科学研究第五范式”,其利用 AI 技术学习、模拟、预测和优化自然界和人类社会的各种现象和规律以解决各种科研问题,从而推动科学发现和创新。
如今,AI for Science 已成燎原之势,面对这场已经到来的科技革命,8 月 10 日,由中关村论坛指导、北京科学智能研究院主办的“2023 科学智能峰会”在北京拉开帷幕。此次峰会旨在搭建 AI for Science 领域科研突破、技术培育、人才交流的共建共创平台,共同推动 AI for Science 的基础设施建设、激发创新效能。
会上,来自学术界和产业界的四位嘉宾代表围绕“大模型与 AI for Science”议题并结合各自领域进行了深入地交流与探讨。专家各抒己见,激烈争锋,综述恐有遗珠,特逐字实录如下。
王坚,中国工程院院士、之江实验室主任
汤超,中国科学院院士、北京大学前沿交叉学科研究院院长、国家自然科学基金委交叉科学部主任
鄂维南,中国科学院院士、北京大学国际机器学习研究中心主任、北京科学智能研究院院长
黄铁军,北京智源人工智能研究院院长、北京大学多媒体信息处理全国重点实验室主任
张林峰,北京科学智能研究院副院长,深势科技创始人兼首席科学家

AI for Science 走向流行中的变与不变
张林峰:各位在座的领导、嘉宾们大家好!非常荣幸能够在接下来时间里与在座四位老师进行一个有深度、有启发性的交流。今天交流的主题是“大模型和 AI for Science”,探讨的是利用大模型解决科学研究问题与发展 AI for Science 的各自优势和挑战。
第一个问题提给汤超老师。汤老师从 2018 年最早探讨 AI for Science,到去年峰会分享 AI for Science 的三层含义,再到今年见证 AI 进一步系统的突破,以及 AI for Science 走向流行,作为科学家、作为交叉学科领军人物,您觉得这个过程中有什么变与不变?
汤超最大的不变就是一直在变总是有新东西出来,每次都有惊喜,这让人非常振奋。我从一开始就一直 follow,现在觉得 follow 地越来越吃力。新东西出来得太多太快,但我觉得这是一件好事,而且我看到在座有很多年轻人,我觉得这是一个很好的现象。
张林峰:接下来的问题提给王坚院士。无论科学计算还是 AI 计算,以及今天的 AI for Science,计算基础设施一直是基础中的基础,从 2008 年作为阿里云的创始人,到近期履任之江实验室主任,您在云基础设施前沿深耕 15 年。像云计算这个方向,其实也经历了一个从愿景走向流行再到面临不断变化的新局面这一过程,这个过程势必充满曲折艰辛,也注定对 AI for Science 正在从愿景走向流行有很多启示,在这个背景下您最想对大家说一些什么?
王坚:这是一个很值得说的话题,特别是今天鄂院士也讲到关于要建基础设施的事情,我认为大家对于基础设施的理解,今天有点被泛化。我想表达两个观点:一个观点是,没有真正意义上的基础设施也可以做很多创新;第二个观点是,今天大家想打造的基础设施还称不上基础设施。
我先解释一下为什么说没有基础设施也可以做很多创新。从做 AI 领域过来,我经常讲的一个背景就是,当年两块 GPU 卡赢得了当年的 ImageNet 冠军,并且这个冠军有非常深远的意义,而那个时候 GPU 也引进了工业界,其实 GPU 进入工业界是由多伦多大学两个学生带来的,我觉得对工业界来讲是一个耻辱,这就是我想表达的第一个观点,没有基础设施也可以做很多创新。
第二个观点,事实上大家今天讲的基础设施不是基础设施,为什么呢?我认为基础设施有两个最基本的特点,一个特点就是非常容易得到,第二个特点就是便宜,如果不满足这两个条件就不能称之为基础设施。所以回到当年我做云计算的时候,其实目标也非常简单,就是在世界任何地方可以享受这个东西,就算买不起计算机但用得起云计算,这是最基本的逻辑,我认为今天在 AI 领域也是满足这两个要求的。
张林峰:您觉得 AI for Science 在基础设施需求上会有什么异同吗?
王坚:我觉得 AI 基础设施如果做好的话,就像普通的学生向最好的教授拿一个大项目一样,它是可以获取的基础设施,这是我的理解;第二个理解,就是你今天想要用一张卡做研究,你明天想用 1 万张,那就明天用 1 万张卡,而不是今天用 1000 张卡做事情,需要准备一年才可以做这样的事,我觉得这个时候就满足基础设施。就今天而言,有点像明明就是去趟八达岭,结果还要修一条高速才可以去,当然,我们今天依然处在这么一个状态。
张林峰:接下来的问题提给黄铁军老师,黄老师在过去几年一方面见证了 AI 方向全方面的进展,也在推动 AI、大模型等方面做了很多工作和布局,领域在飞速的变化,关于 AI 与大模型,您有哪些最新的判断和认识,可否介绍这些年您的思考和实践?
黄铁军:大模型这个词是智源研究院在 2021 年 3 月份第一次提出来这么一个概念,但是现在已经很普遍了。大模型可能大家很容易理解“大”,但实际上大模型最深刻的肯定不是大,大是一个基本条件,更深刻的是具备“涌现”或者产生预料之外能力的这样一种特性,这种特性使得它是划时代的,AI 做了这么多年,大模型之前的 AI 研究都是人作为设计者,是完全可控的,你设计一个什么样的算法,你用什么样的数据,设计什么样的规则是确定的,这个系统能干什么,除了出错可能无法把握,只要不出错,那这件事情就是确定的,就是完全可控的。但是大模型之后出现了产生‘不确定性’的创新能力,而这是 AI 的一次大革命。
像我们说科技创新,创新就是别人完全没有想到的一个新发现、新发明、新的 idea 在你的脑子里冒出来了,这才叫真正的创新。其他也有很多科技工作,但不叫真正的创新,所以大模型有了创新能力,但这个创新和人的创新肯定还是有很大差别,也还有很多不足,但是“有”和“无”这件事情特别重要。ChatGPT 让大家一下子熟悉了 AI 到底能干什么,实际上大家从 2017、2018 年到现在,过去五年大模型形成了一个分水岭。
大模型在 AI for Science 这样的语境下能发挥什么样的作用,现在大家桌子上都有一本报告,去年的报告我认为写得特别好,今年写得更好。其中 1.3 节就是大语言模型可能对 AI for Science 的一些作用,我觉得那里面很多观点我都完全认同,唯一结论那个地方讲的,它有很多优势也有不少缺点,我对缺点不是太认可,实际上都是临时并不是长期的。为什么这么说呢?大家可能都试过,大家去尝试语言对话模型,都能发现经常还会出现幻觉,大家通常说的“一本正经胡说八道”现象是存在的,而且也是不断改进的,如果问科学问题,那更不靠谱,别说伪科学,那是连伪科学都谈不上的回答。
去年 10 月份和 ChatGPT 同时发布的一个模型,它只上线两天就下线了,据说这是用 4800 篇论文训练的一个大模型,它能回答科学问题,这一下把科学家逗起来了,很多科学家去问科学问题,但发现大多数都是伪科学的回答,然后就讽刺说这个东西不能用。但我认为它一定是将来的发展趋势,全世界粗算估计有上 10 亿篇论文,这些东西被训练之后,通过大模型产生预料之外的这种能力,可以产生一些新的假说、新的假设。尽管创新能力和人相比还有很多方面欠缺,但是掌握海量数据的能力,比如说读上 10 亿篇,我们一辈子能读多少论文,一天读一篇,也不可能读 3 万多篇论文,所以在根本不可能掌握那么数据的情况下,他比你掌握高几个量级,将其融会贯通起来形成一些新的假设,我觉得这是完全可以做到的。
还有一个我说得可能乐观了的一点,我觉得可能对搞科技的人,两三年之内,用科学论文和数据训练的大模型,可以实现新数学定理的证明,这是有可能的。而且我相信那个东西一出来,会比 ChatGPT 更受瞩目。因为第一次非人类系统作出真正科学数据的证明或者科学的发现,我觉得两三年以内,这种可能性还是不小的。
我们怎么去用好这种最新的技术平台工具,去做真正的科技创新,而不是仅仅挑它的毛病。任何新工艺出来肯定是有毛病,从悲观角度来说可能什么事都做不成,从乐观的角度来说,我们不可能说 AI 大模型所有的回答都严丝合缝,一点逻辑错误都没有,那是不可能的,我们要看它的这种可能的新突破的地方。其实,我们每个人也一样,一个科学家一辈子能做一个真正的科学创新就不容易了,哪能做的所有事都是对的,不出毛病,这是不可能的事情,很多次尝试这一辈子能做出一个重大发现已经不得了,为什么我们这么苛求 AI 呢?当然,还是拿结果说事,当然某一天 AI 大模型实现新的科学发现,我觉得大家的观点一定会发生重大变化。
张林峰:您这么一说,可能在座很多不同方向的老师和同学一定有非常多自己的想法,我们也拭目以待。今年是 2023 版的 AI for Science 报告,期待 2024、2025 年的时候,您的批判已经成为被解决的问题,您的预言也能够成真。
距离 2018 年探讨 AI for Science 到目前已经过去了五年,那个时候 AI 作为新的技术可能性,似乎对 Science 有一个系统性提供新方案的机会,而在眼下在鄂老师的报告里面,一方面从宏观角度来说奠定了“四梁 N 柱”的思考,另一方面从新的技术要素来讲,我们 AI 新浪潮又来了,是大语言模型。
在我们讨论 2023 年之前,我想其实无论 2008 年云计算还是 2018 年的 AI for Science 早期,所产生的原创性的认识可能是更加弥足珍贵的,也或许站在现在的时间点能给大家带来更多的启发。刚才鄂老师介绍了更为宏观的引导,可能也作为给您的一个补充问题,想邀请您分享一下,您和汤老师在 2018 年的时候是怎样的机缘巧合,怎样的认识之下提出了 AI For Science 这样一个概念?
鄂维南:我只记得有一点,当时汤超老师说了,我们北大搞 AI for Science,我到时候把一号院让出来搞 AI for Science,这一点他现在已经不承认了。
汤超:我肯定没说把一号院全部都让给你,那我到哪去呢?其实会议之前,我们两位好像一起吃了一次午饭,这个名字是在我们吃午饭的时候起的。我们当时想到的时候觉得特别高兴,想到了一个好名字,就开始用这个名字。
鄂维南:从我角度来说,我是做计算科学出身,计算数学、力学、材料科学、计算化学等等很多领域我都走了一遍,其实我并不是想每个领域都尝试一遍,而是一直在想能不能用计算方法解决真实的问题,都不是很成功。我也推动所谓“模型多尺度算法”,我也是国际上最早推动这个领域的人之一;2004 年我就在国内推“大数据”,尤其 2009 年我花了半年时间在国内走了很多地方推动大数据,推动半天以后也没有人做。
2012 年我在北大搞了一个会议叫“数据科学与信息产业”,当时来讲也是很成功的会议,把学术界很多院士(工程院、科学院院士)还有百度等等召集到一起讨论大数据。但是我本人并没有下决心要搞大数据,我觉得我的领域是计算科学。2014 年的时候北大出现了一个情况,很多院系都要搞大数据,北大比较担心搞乱了,希望我出来牵头帮北大搞大数据,那时候只能下决心自己搞。我搞大数据以后马上碰到机器学习,我发现机器学习正好可以解决我原来的那些计算科学里面碰到困难,即维数灾难问题,当然更重要我有一批非常好的学生,我们一起就把这个事情推动起来了。
汤超:你刚才问我变与不变,还有一个不变就是,从多年前我们提出这个东西开始到现在,我认为 AI for Science 有三层意思,其中一个就是应用场景,涉及各方面的应用,这方面的成功非常大;还有一个用 AI 来找新的科学规律;最后一个是 AI 为什么能这么成功,它里面的 Scinece 是什么,它跟我们的大脑有什么关系,能不能最后来理解我们的大脑,甚至超过我们的大脑。
我觉得第一个进步非常大,迄今为止还是这样的。铁军很乐观,他说两年以后可能就会找到新的科学规律。但我要说到现在为止 AI 没有找到一个新的科学规律,我想激励大家去往这个方向去想,我个人是相信 AI 能找到新的科学规律,也许要有不同做法,但现在确实是没有找到。大语言模型出来我特别兴奋,大语言模型给我们提供了一个新的机会,但是你仔细想大语言模型为什么这么成功?它是一个语言模型,语言首先就把很多人类知识消化在语言的框架下面,它有自己的逻辑结构,有自己的表征,然后大模型把这些东西学会了,它本质上还是一个统计模型。
科学可能跟这个有点不一样,科学也许有它自己内在的一些思维方式,有些东西是不能用语言表征的。我们也一直在想怎么用大语言模型来做一些具体的科学问题,但是总觉得很多地方都不成熟。现在 AI 就是在已经知道的科学技术方面,比如已经知道量子力学,你用量子力学来计算化学、材料、能源,可以越做越好,我一点都不怀疑这方面有巨大的应用前景。但是 AI 能不能发现一个新的量子力学,比如 X 力学,这是我期待的,我相信可能在很久的将来也能做到,但用现在大模型的架构能不能做到我不知道,要怎么学习我也不清楚,仅仅读论文是不是就够了?这个我也不是很清楚。总之,我觉得这是一个很有意思的问题,也是很大的挑战。

大模型与 AI for Science 目前的技术路线和应用存在哪些异同?以及各自的优势?
张林峰:谢谢汤老师,也谢谢各位老师的分享和发言。确实,刚才一系列的分享已经让我们逐渐进入今天的主题,下一个问题其实也是主题大模型与 AI for Science 进一步的凝练,接下来希望跟各位老师一起探讨两者就目前的技术路线、应用有什么样的异同?各自的优势又是什么?是否有一些大模型无法解决的问题或者需求?我想还是先请王坚老师做一些分享,您也见证了科学计算、AI 等各方面的计算发展的整体情况,其实这方面很多都是“带着镣铐跳舞”,您是对“镣铐”最有感觉的人。
王坚:我还是讲两个观点。一个观点,创新还是有很大的偶然性的,有时候太想总结成有规律的其实没有什么好处。比如大家讲到 GPU 的时候谈到 NVIDIA,谈到 Jensen Huang,大家都觉得这个人了不起,很有远见。我跟他有一段很有意思的故事。我那时候刚刚做云计算也是走投无路,也不知道干不干得成,那时候 NVIDIA 也很困难,Jensen Huang 的主要精力不是在做 GPU,他想把他的技术用到手机上,所以他做了一个芯片,那时候我还想用他的芯片做操作系统,我们两个人是很好的朋友。那个时候并没有说 GPU 有今天大家对 AI 这样有很多的远见。太有规律的事情很难讲有创新,这是我想表达的第一个观点。
第二件事情偶然性在哪里呢?ChatGPT 刚才黄铁军老师讲那个事情,今天早上闭门会的时候发生过一件事情,他就问了 ChatGPT 很多很认真的问题,他就觉得 ChatGPT 乱说,我当时听了以后就觉得这个说法不公平,因为 ChatGPT 的发明就是让你胡说八道的,他不是让你来回答科学问题的,ChatGPT 的核心不是 GPT,而是 Chat。从 2000 年往回回溯几年,你会发现这个领域的进步都是 GPT 的进步,只不过到了去年年底的时候“Chat”这件事情出来以后,大家突然发现这个东西还是很有能力的。所以我为什么说它的核心是 Chat,是这些人理解了这样的一个技术可以跟 Chat 结合在一起,让大家觉得了不起,它没有说要跟科学发现结合在一起,我觉得大家还是要意识到这个问题。只不过我们今天试图想把它跟科学结合在一起,然后认为它这个不能干,那个不能干,我觉得这个逻辑还是有些问题的。
不是 AI for Science,我自己的理解,而是 Science for AI,科学家解决问题的时候让 AI 有一次巨大的进步,这是我的理解,也是我的期待。我觉得事实上是 Science for AI,哪一个时代它解决了 Chat 我觉得已经是很了不起的了,你不要想着这样的一个框架,怎么修修补补就一定能解决很了不起的问题,所以我更期待的是 Science for AI。正好汤老师在自然科学基金会,我觉得这个逻辑更加对一点,确实能够推动 AI 这个学科的发展,这是我自己的理解。
汤超:我觉得 Science for AI 这个讲法也挺好的,现在 AI 的发展确实得益于 Science。从整个 IT 领域,到芯片,其底层的 Science 其实是经过很多年的积累才发现的,麦克斯韦方程、量子力学、半导体等等,现在我们希望 AI 发展到一个阶段来 help Science,可以做很多事情。

Science 的 GPT 是一个统一的大模型还是有一个 Science 的大模型?
张林峰:我想顺着王坚老师的观点,其实也更加有针对性的问您接下来的问题。无论是 AI for Science 还是 Science for AI,接下来我们从解决问题的角度来看,Science for AI 的角度可能是 AI 现在已经到了大语言模型级别,我们加上 Science 会有啥?然后会让 AI 变得更怎么样?而从 AI for Science 的角度,GPT 也不见得只是属于 AI 的,其实我们在 Science 里面恰好有一系列符合大模型需求的架构以及一系列预训练的可能性和生成型的一个可能性,所以 Science 的 GPT 是怎样的?会是一个统一的大模型还是有一个 Science 的大模型?
鄂维南:这是两个不同问题,首先是 Science for AI,的确 AI 现在看上去怎么看怎么是像 Engineering,不像 Science,我在有些场合试图给一个报告,基本的想法就是以后出来的这些新的网络架构我们不会觉得特别惊叹。比如说 ChatGPT 让我们感觉就好像非常惊艳,如果我们要想 Develop Science for AI,至少我们要达到这样的目标。
的确也有一些先例,比方说我经常举的例子就是计算流体力学、计算空间动力学,我们希望神经网络也能做到这一点,我个人觉得这个是有希望的。我觉得比较困难的是所谓的“涌现”。涌现不是数学的事情,是物理的事情,物理领域里面有一个很有名的说法,叫 More is different,这个涌现就感觉有那个味道。
然后再回答第二个问题,Science 的 GPT 大概应该长什么样子,这里面其实有三个不同的概念,一个是预训练模型,第二个就是大模型,第三个就是通用模型。我们在讲 GPT-4 或者 ChatGPT 的时候赋予它们通用模型的概念了,在科学领域里面我个人觉得通用模型不是一天两天就能建成的,前面两个概念预训练模型,它在 Science 里面非常有用。什么叫预训练模型?把自变量空间找到一个最好、最具有代表结构的一个表达,这个是在任何领域,包括 AI 领域肯定是非常重要的一个方案,所以这个是没问题的。
第二,大模型。大模型这里面就是“大”了。Science 比较大,这个可能也是有用的,比如我们讨论过量子力学,也许将来就得靠大模型解决量子力学问题,这肯定也是有用的。
张林峰:汤老师关于“涌现”好像还有话说。
汤超:我觉得这是一个非常有意思的话题,铁军刚才也提到大模型想象不到“涌现”,涌现这个东西确实在物理里面也是一个前沿,就是大家都在想本来没有的东西怎么忽然会出来。简单的例子,水分子降到 0 度以下,它就形成很漂亮的雪花,这种东西是怎么出来的,物理上一直在研究看上去很简单元件的相互作用,但是它多了以后就会产生很复杂的现象,简单来讲这叫“涌现”。我们神经元也是,每一个神经元我们其实可以理解它的就是放电,它接收 input,放电 output,那这么多神经元连接在一起,我们就能在这儿聊天,这是不是很神奇的现象。
所以我觉得大模型出来以后,这是一个很有意思的现象,这个涌现是怎么出来的,而且也正因为大模型出来了,它毕竟还是人类创造的东西,不像神经元我们不能把它一个个打开看。所以,我一直希望通过对这种 AI 的研究,比如现在大模型出来,通过对大模型的研究,能不能让我们更深刻的来理解“涌现”这个东西,再反过来肯定也还会再促进更高层次的 AI。我们现在还不明白什么情况“涌现”会出现,到底要多少神经元,多少参数,这些问题我们都没有明白。
鄂维南:物理里面有没有一些比较简单的例子能够帮助理解涌现这个现象?
汤超:像雪花怎么形成的,像相变,水加热 100 度变成气,降到 0 度突然变成冰,这是看一个水分子想不到的现象,但这些东西是比较简单的现象,其实像超导也是涌现现象,半导体也是涌现现象,相变都是涌现现象。这些涌现现象,它是我们研究原子、分子相互作用出现的涌现现象,比如用量子力学、牛顿力学就可以研究清楚。而像智能,还有大模型的涌现,并不是量子力学能够说清楚的东西,那是一个更高层次的涌现,这是一个巨大的科学问题。
张林峰:谢谢汤老师。可能铁军老师在这块也非常有经验,不光有 AI 的研究经历,也有脑的研究经历,所以也请您发表一下看法。
黄铁军:刚才两位真正的科学家、数学家、物理学家,听他们讲话的思维方式很清楚,上来就要原理,为什么,这就是科学家。科学家就是遇见一个事物,特别是一个复杂现象,像涌现现象,他要知道为什么,他要找背后的原理。当然涌现在物理学里边复杂性科学也只有几十年的历史,应该是物理学最前沿的。
科学是要研究现象或者事物背后的规律的,这叫科学,而 AI 不是。千万别觉得 AI 是技术和工程,好像有点贬低,我们一点没这个意思。我说没有贬低的意思是 AI 也好,还是包括计算机也好,其实它是要做一个东西出来,比如说涌现,我们很兴奋的是我们做出来一个有涌现这种现象和功能的系统,至于为什么,那是科学家的事儿。这个东西不做出来,除了研究自然界的涌现,你怎么研究人工系统的涌现呢?所以这就是工程或者技术的追求。
我经常拿指南针举例,中国四大发明都是这样的,中国人一千多年之前发明指南针的时候,谁知道背后的科学原理,它的伟大就在于你不知道电磁学,那时候电磁学还没出现,还不知道地球是圆的,南极北极都不知道的时候,中国人发明稳定指南的东西,它的伟大就在于这个地方。所以,AI 的伟大也在于此,这种能力出现了,而且它确实还在现实中发挥作用了,这就是我们要不断去追求的。所以,AI 某一天真的把数据定理给证明了,我也可能不知道它怎么证明的,但它证明了,你可以验证,这个定理证明了整个步骤写出来是不是对的,是对的就说明它做到了,怎么做到了,那就回到科学家的问题了。
张林峰:王坚老师好像有话要说。
王坚:铁军说的还是有点问题的,铁军说的感觉像搞 AI 的人就会蛮干,脑筋都不动,只有搞物理学的人动点脑筋。关于大模型,第一我不搞这个东西,我刚才讲到 ChatGPT 的核心是 Chat,你再往上提一提的话,汤超老师刚才讲物理学的东西,我不觉得这是一个智力的问题,这是一个人创造力的问题,跟智力没有关系。可能数学跟物理学很多东西都是一个人灵感的问题。今天我们谈“Chat”,它都还没有延伸到“智力”,汤超老师想要把它再延伸到“创造力”,我觉得这个步子迈得太大了一点,就搞得铁军胡说八道了,这根本就不是同一件事情。
有一次我跟《人类简史》的作者正好在一个论坛上,他在台上说了几句话,我在台下听的就不舒服。他的意思是,他认为人工智能没什么东西,大概很快就会做完了,我觉得这是对人工智能的曲解,他说人类还有更了不起的事情,叫人工意识,我坐在下面听的很不舒服,结果那天也碰巧他发完言就是我发言,我跑上去调侃了一下,我说这个话也对也不对。人太复杂了,先不说有没有人工意识,我们连 AI 能做好都不知道是哪天,等到人工意识做完以后,你突然发现人还有更了不起的事情,就是无意识。我理解我们今天是在“Chat”这个级别,能不能到“智力”都是一个很大的问号,汤老师一定要把我往绝路上逼,把“创造力”逼出来,这我觉得太过分了一点。
黄铁军:咱们经常说基础研究,科学基础,技术是应用,这种思维方式太习以为常了,其实是错误的。刚才说的从 0-1 的发明和从 0-1 的发现都是伟大的,为什么四大发明伟大,是因为没有科学原理能发明出来,如果科学原理都有了,那只不过是照做,那不伟大。所以 AI 不简单,不仅仅是说从 0-1,完全没有想到的东西能做出来,你不知道它怎么想到做这么一个网络结构,做出这么一个功能,尝试了很多种可能性,终于做到了这一点,所以我没有贬低 AI 的意思,只是大家太把科学摆在神的位置,所以总觉得一说工程技术就是似乎是一个应用,那是错误的,真正的技术、真正的原创、从 0-1 的发明同样都是伟大的。
第二,我认为现在的 AI 是有创新能力的,但要看怎么定义。比如计算机,人会计算,后来我们设计一个机器,这个机器会计算,你会觉得不神奇,但是计算机算的快,所以它能解决很多问题。现在 AI 创造能力和人的创造能力当然还有很大的差别,但是能把很多看似无关的东西,联系在一起,即融会贯通,这个能力也是人的创造中很重要的一部分。我们很多时候说灵感,这个灵感也分不同,爱因斯坦想出相对论的灵感,和我们读书破万卷,下笔如有神那个灵感肯定有差别,但是后面的灵感也是灵感。数学定理有的证明确实要靠直觉,没有直觉真的做不出来。出的结果我们肯定要承认是一个真正的创新,只是说不像人的灵光一闪那么巧妙,但我认为现在的这代 AI 是能做到的,我们还会建立更复杂的 AI 系统。我自己梦想是在 2045 年做出真正像人脑创造力,而且比人速度更快的系统,但还有很多的技术上的问题需要突破。即便如此回到今天,我们仍然要对今天已经实现的大模型报以欢呼,它真的是 AI 从来没有做到过的创新能力。

大模型与 AI for Science 过程中的核心瓶颈是什么?
张林峰:谢谢铁军老师,刚才的对话也体现了我们这次峰会主题,即“碰撞中凝聚共识”,刚才是碰撞比较激烈的一段环节,也让凝聚共识的主题充满挑战。接下来一个问题,是一种凝聚共识方式。第一个共识,大模型与 AI for Science 大有可为,会有机会和光明的未来,可能这是大家都有的共识。给定这样的共识,从另外角度来看,这个过程中核心的瓶颈是什么?以及又该如何突破瓶颈、如何破局?
王坚:其实我觉得这还是一个认识上的问题,包括刚才鄂院士在引导发言的时候,他讲 AI for Science 会涉及很多过去不同的东西,其中经常会讲到数据驱动。我自己对数据比较感兴趣,我一直在问自己,数据驱动以前到底是什么驱动?在 AI for Science 的语境下,我自己的理解可能有一个东西是第一步走的,因为今天大家讲 AI for Science 的逻辑,基本上以数据解决至少是我们已经知道的或者已经产生的假设,如果真的要做到汤超老师那样讲的,我个人觉得针对所有的研究都是假设驱动的,从这个角度,我们通过数据能不能形成新的假设,我觉得这是一个蛮挑战的问题。
对我来讲,数据驱动对应过去假设驱动的研究范式,数据最重要的作用不是解决问题,数据最重要的作用是形成问题,没有这个东西的话,我觉得可能真正意义上的创新,特别是 AI for Science 我觉得还有很长的距离要走,这是我觉得瓶颈所在的地方。
汤超:我非常同意王老师讲的,数据驱动不能只停留在数据给你提供了什么,你就可以做些什么,要真正往下做的话,还是要你自己去提供很好的假设。我们对数据没有感觉的时候,有很多数据连假设都没有,我们都不知道怎么回事,根本不知道怎么想,数据给我们很多惊喜。
从长远来说,人才肯定是最大的瓶颈,我们国家现在看上去好像科技进步蛮快的,如果在教育方面、科研方面不长期投入的话,不形成很好氛围的话,就会没有后劲。如果用大模型来做科学的话,具体来说,我们也想过怎么解决一些科学上的问题,能不能做一个大模型细胞,把很多数据放进去,大模型可以告诉我这个细胞,让它生长的话应该怎么怎么样,会不会变成癌症,变成癌症又应该怎么样,这也是一个很理想的状况。数据本身也不够,数据也是瓶颈,而且什么样的数据有用我们也不知道,因为我们现在对生命科学、细胞、蛋白的了解还是基于以前的知识,我们都提不出一些假设。
AlphaFold 为什么这么成功?它从科学上而言是一个已经解决的问题,但是技术上没有解决,我们都知道就是一个一维编码,一个三维结构,这个我们在科学已经知道了,一维编码怎么到三维结构,太复杂了,但我们知道是可以的,量子力学就够了,所以 AlphaFold 就做到了,但是这一步对于很多事情在科学上都做不到,细胞整个基因组都编码了,基因组很大,哪些信息怎么提取出来。我说这个例子就是说用大模型来做科学是一个非常好的前景,但还有很大的挑战,数据本身哪些数据有用、怎样采集都是很大的挑战。
基金委特别希望科学数据能够公开共享,现在生命医学领域几乎所有的研究,科学家全部都是用国外的数据,为什么呢?因为他们经过很多年的积累,整个数据库建的非常好,也很规范,而且可以共享,我们国家情况完全不一样,每一个医生都有自己的数据,每个医院都有自己的数据,共享数据非常困难,数据的问题不解决,大模型根本没法做,这也是一个很大问题。
鄂维南:关于大模型瓶颈我就不说了,留给铁军。关于 AI for Science 的瓶颈,我本人出发点和汤超有点不一样,我是做数学出身,所以我关心的是打造基础设施,就是打造刚才王坚院士说的那种基础设施。从这个角度来说,我个人觉得眼下、短时间内最大瓶颈是组织能力,是把资源用好,用到该用的地方,也包括刚才汤超说的这些数据,其实也是组织能力的问题。长远角度来说,一个当然是人才问题,第二个就是要有效组织起来,把基础设施建起来,就像电子显微镜等新一代基础设施建起来,我觉得组织是主要的问题,怎么样把资源用到该用的地方。
黄铁军:我觉得几位老师讲的很好,其实大模型也好、AI for Science 也好,包括其他领域也好,当然在我们中国当下的语境来讲,我觉得两个瓶颈,一个瓶颈就是合作协作,我们是什么东西热,很多团队做,但是都是分别各自做,各自以最快速度发一篇论文,这种是做不了大事的。我们国家每年发 40 多万篇论文,美国发 35 万篇,但实际上很多都是说这事已经很清楚了,往上加一点发一篇论文,但是真要做大问题,肯定得有多方合作,数据组织比如说大模型数据组织、算力组织、算法组织都要去做。为什么中国很多论文是别人准备好的数据集,别人有的框架算法。我们要解决大问题,必须要有合作精神,我觉得这是咱们的一种文化意义上的瓶颈,这个必须突破,经常说集中力量办大事,我觉得我们很难做到,我觉得鄂老师刚才讲的很好,但是能做到这一点,投入是一方面,大家有没有合作性,真的建那么几个平台,把几个大问题解决掉,我觉得这是一个问题。
另外一个,也和刚才的对话有点像,其实就是真正的创新,这个文化是缺乏的,别看今天这么多数据,英伟达那么贵,几十亿美元去做一个算力,那是一种解决问题的办法,这个路子已经清楚了,你要真的投入这么多资源它就能见效,这是一种线性的思维方式,但任何时候都存在一种颠覆性新方法路线的出现,出现之后这个东西全推翻了,不用那么多钱就能做到同样效果,这种可能性一定存在。我们期望有天才式的创新想法出来,那样带来的影响会更大。我认为这是心理上的瓶颈,我们缺少这种敢这么干的。
技术和科学不一样,科学就一个原理,不会有第二个原理,第二个原理也是比第一个原理更深入的原理,技术路线从来都是多种多样的,从来都是有多种可能性。今天问题解决了,用这种方法不等于说是唯一的方法。咱们讲 AI for Science,我希望咱们的科学包括广义的科技工程能够有这样的东西出来,那我们就更欢欣鼓舞了。
张林峰:谢谢黄老师。我们讨论其实有一个暗线主题,叫做今天、后天、明天,今天我们站在哪里?后天我们长远未来机会在哪里?以及明天该做些什么?关于我们后天的事情我已经有了非常充分的碰撞,以及有一个大概的共识是后面机会还是非常大的。而关于明天的事情,或许刚才关于瓶颈的论述,突破这些认识上的瓶颈,以及技术上的瓶颈,组织上的瓶颈等等,是我们最该做的事情,也希望这是我们经过刚才的碰撞能够凝集给大家的共识。
最后在座其实有非常多像我这样的年轻同学,我也非常有幸有机会能够向四位专家请教。最后一个简短的问题是代表在座同学们提出的,站在科技拐点,其实各位老师都是我们这代人心中的偶像,都是在很多关键点上有过不一样的选择,最后产生新的突破。站在眼下,对在座年轻人尤其是在科研技术研发一线同学们,各位老师能否用一句话寄语给大家,同时作为这个部分的结束。
黄铁军:其实我上课的时候也经常和同学们说,真正的创新都是在年轻的时候,比如,图灵、哥德尔这些伟大的贡献,都是在大学毕业一两年就做出来的贡献,爱因斯坦也很早。我觉得最重要的特点,千万不要把现在已有的东西太当真了,你们的任务是推翻他们,提出全新的东西。
鄂维南作为年轻人,你需要认真拷问一下自己,你一辈子最喜欢做的究竟是什么样的事情。既然进入科研行业,究竟想解决什么问题,究竟想为这个世界带来什么样的改变。
汤超:现在 AI 大模型是一个新的潮流,我希望你们年轻人从赶潮流到弄潮儿,变成一个最后能够发起潮流的人,不要只去做现在红的事。想想看到底有没有真的你觉得有意思的地方,可以推翻以前的东西,可以有新东西出来。
王坚:对很多年轻人讲,我们几个人在台上扯了一个多小时,也没有扯清楚任何事情,大家可能听的一头雾水,我觉得这是好事。对于年轻人来讲最重要的事情就是混水摸鱼,什么事情搞不清楚的时候,就是年轻人最好的机会。所以大家趁大家都讲不清楚的时候,这是年轻人最好的机会,趁混水的时候,摸一把鱼。

声明:本文仅供科研分享,助力科学传播,不做盈利使用,如有侵权,请联系后台删除。
#In Science We Trust#
小程序/APP:络绎科学
官网:https://www.luoyikexue.com
继续阅读
阅读原文