海归学者发起的公益学术平台
分享信息,整合资源

交流学术,偶尔风月
采写:卢文联(复旦大学类脑智能科学与技术研究院教授)
自由能原理蕴含了“贝叶斯大脑”假设,该假设可以通过相关领域提出的许多方案来实现。多模态脑影像和自由能最小化的结合在揭示大脑复杂动力学和理解不同脑区之间的相互作用方面展现出前景。脑计算的贝叶斯机制为理解真实(神经仿真)智能提供了一条独特的途径,更重要的是,它指向了脑科学启发的智能的发展。
NSR 采访了一位在理论神经科学和脑成像领域具有权威的顶尖科学家——统计参量映射 (SPM)、体素级形态测量 (VBM) 和动态因果建模 (DCM) 的发明者Karl Friston。Friston还因自由能原理和主动推理等应用对理论生物学的贡献而闻名。Friston目前担任Wellcome Trust神经影像中心科学主任、伦敦大学学院 Queen Square 神经病学研究所教授以及英国国家神经病学和神经外科医院名誉顾问。
本访谈文章收录于《国家科学评论》(National Science Review, NSR)“人类大脑计算与类脑智能”专题。
Karl Friston 教授是理论神经科学和脑成像领域的权威科学家。(照片由Friston教授提供)
脑计算的基本原理
NSR您认为脑计算的基本原理是什么?
Friston:脑计算的基本原理有不同的叫法,也许最简洁、最直观的是“自证性”。对于感知、认知和行动来说,自证性是指大脑通过感知世界,最大化(即收集)其生成模型(又称世界模型)的证据。从技术上讲,自由能原理可以用近似贝叶斯推断来表达。自由能原理基于开放的随机动力系统物理学,提出任何具有持久特征的实体都可以被描述为具有自证性。在实践中,为了在这一原理下模拟大脑功能,人们会诉诸因子图上的信念传播或变分消息传递,其中因子图包含生成模型和贝叶斯信念更新方案。因为这种基于信念的描述本质上具有执行力,所以这种第一性原理方法表明大脑以概率推断的方式进行规划,随后基于推断出的规划选择行动。
自证性
一个给定假设 H 通过解释可观测证据 E为自身提供了证据[1]。也就是说,E 作为 H 的证据取决于H 解释 E 的程度。在这些情况下,证据是否可获取这一事实是 H的证据基础不可或缺的一部分。Carl Hempel[2]因此将 H 描述为一种具有自证性的解释,即当“有关[E 发生]的信息或假设构成了 H 的唯一可用证据支持中不可或缺的一部分”。
NSR您认为大脑执行贝叶斯计算的理由是什么?自由能原理的神经生理学基础是什么?
Friston:贝叶斯计算是描述大脑功能的一种恰当方法,原因是,这种描述适用于任何可以从其环境或世界中(通过“马尔可夫毯”Markov blanket)独立出来的自组织系统。这种通用描述(用贝叶斯机制的术语来说)依赖于所讨论的实体所蕴含的生成模型。我们的大脑可能蕴藏着我们已知世界中最深层、最具表现力的生成模型。这里的“深层”指的是层级表征的深度。这就引出了自由能原理可以应用于大脑的第一个基础,也就是说,就其稀疏连接性和层次结构而言,大脑的功能架构和连接性与深层生成模型一致。
就神经生理学本身而言,信念传播和变分信息传递的动力学为突触处理和可塑性的许多方面提供了令人信服的解释,例如前向和后向连接的功能不对称性和神经元动力学等等。这些结构和动力学基础的例子还有很多:我们可以根据执行贝叶斯信念更新时的不同时间尺度对它们分类。
例如,感知推断可以被视为推断环境的潜在状态。程序性学习(procedure learning)可以理解为,通过经历或神经活动依赖可塑性改变连接强度来更新关于生成模型参数的信念。在神经发育和进化的时间尺度上,结构性学习(structure learning)可以被理解为贝叶斯模型选择的过程,具体来说,就是选择那些具有最大模型证据或边缘似然度的结构和形态。
自由能原理[3]. (上)自由能有关变量的示意图。(下)自由能的其他表达形式,展示其最小化所涉及的对象,包括内部状态量
(如大脑活动),感知输入
和行动
以及描述环境的隐变量
,其中
为随机涨落;内部状态量所编码的概率表征(变分密度)
多模态脑影像的跨尺度建模
NSR:人脑的神经成像数据,鉴于其分辨率和在测量大脑功能方面的间接性——是否(或者在多大程度上)能够刻画人类智能?
Friston:是的。神经成像——不管是何种形式,或许是推断人类智能本质的唯一方法。这是因为要成为一个具有智能或感知能力的实体,必须拥有一个将你从其他所有事物中独立出来的马尔可夫毯(Markov blanket)。关键是,作为观察者,你永远无法直接测量另一个人的大脑里面——即马尔可夫毯内部的内容。这意味着你只能进行间接测量,也就是说,通过使用血液动力学或电磁神经成像技术,尝试观测马尔可夫毯下的信息。
这意味着我们只能从神经成像测量中推断出信念更新的函数形式和所需的生成模型。换句话说,如果将智能理解为自证性,那么理解智能就是要理解支配感知、规划和行动的生成模型。从某种意义上说,所有的成像神经科学都是为了这一目标服务的——从转化研究的角度看,即理解导致异常行为和心理病理学的特定生成模型(及其隐含的先验)。
马尔可夫毯[4]。图中的概率图模型展示了状态量的划分,即内部状态量(蓝色)和隐藏或外部状态量(青色),这些状态量通过一个马尔可夫毯分隔开——包括感觉状态(品红)和主动状态(红色)。(上)展示了这种划分如何作用于大脑中的行动和感知。(下)板展示了相同的依赖关系,但进行了重新排列,使内部状态量与一个芽孢杆菌细胞内部的状态相关联,其中感觉状态变成了覆盖在主动状态(例如细胞骨架的肌动蛋白纤维)上的表面状态,即细胞膜。
NSR我们如何描述从微观、介观到宏观尺度的多模态脑数据,以理解人脑智能,并且你认为这里是否存在一个神经生理学原理?
Friston:是的,我认为存在一些深刻的原理将这些尺度联系起来。将智能理解为自证性需要理解感知力或智能的产物(比如我们自己)所蕴含的生成模型。
这必然涉及到时间尺度的分离,并且至关重要的是,一个尺度如何相对下一层(和上一层)尺度产生意义,并受到它们影响。由此产生的基于自由能原理的尺度不变应用带来了一些好处。
例如,这意味着模型参数的缓慢更新在影响神经元活动的快速更新的同时,也受到神经元活动快速更新的影响。从生理学上讲,这意味着由环境感官交互引发或诱导神经元响应取决于突触连通性。然而,突触活动又以活动依赖可塑性的形式依赖于神经元响应。类似地,大脑的结构和连接组学在影响突触可塑性的同时也受到突触可塑性的影响;即突触连接若要存在,就必须是连接组的一部分。同样,微观结构也取决于任一特定突触连接的持续或退化。关于智能的尺度不变性或跨尺度性质的另一个例子依赖于空间尺度的增加。另一个很好的例子是单个脉冲神经元活动与群体活动之间的联系。从自证性的角度——在特定的(连续状态空间)生成模型下——可以将神经元群体视为通过随机采样来近似地进行精确的贝叶斯推断。或者,也可以将神经元群体视为精确地进行近似的贝叶斯推断。简而言之,为了获取具有跨尺度自证性的智能的完整画面,跨尺度方法(即多尺度、多模态观测)是必不可少的。
从脑计算到人工智能
NSR:与脑计算和类脑智能相关的最前沿领域有哪些,您认为这些领域中最重要的问题是什么?
Friston:最先进的仿生计算,在数学上,是在深层或具有层次结构的因子图上执行信念传播或变分信息传递。目前,这种计算是在冯·诺依曼架构上模拟的。可以想象(在几年内),最先进的技术将避开冯·诺依曼瓶颈,转向存内处理,使用反应式消息传递(沿用计算机科学中的actor模型的思路)。*译注:actor指具有决策和行动能力的个体。
如果我们把计算视为支持自证性的信息交换,那么这也可以与有生(mortal)计算(即自然计算)的概念相比较。这种有生或神经拟态的变分信息传递越接近大脑结构上的神经动力学,我们就越接近于人工智能中的最先进的脑计算。换句话说,用于信念传播和变分信息传递的生成模型越接近我们自己的生成模型,人工智能就会越来越接近自然智能,因此变得更加先进。
NSR这些关于大脑智能的原理如何能够启发人工智能理论和技术,并且在您看来,什么是基本的常规做法?
Friston上述论点对于人工智能的结论是直接的。未来发展的方向应是,在一个分布式智能或自证性生态系统中,发展适合与其他非人和人进行交互的生成模型的选择机制——即结构学习。这将需要一种可以被理解为在图上进行变分信息传递的存内处理方式。这个图可能存在于计算机芯片上、世界各地的网络中或在你我的大脑中。但支持所需信息传递调度和构成的原理在每个尺度上保持不变。

【参考文献】
[1] Hohwy J. Noûs 2016; 50: 259-85.
[2] Hempel CG. Aspects of Scientific Explanation and Other Essays in the Philosophy of Science. 1965, New York, Free Press.
[3] Friston K. Nat rev neurosci 2010; 11: 127-38.
[4] Kirchhoff M, Parr T, Palacios E et al. J R Soc Interface 2018; 15: 20170792.
点击“阅读原文”阅读原文。
本文系网易新闻·网易号“各有态度”特色内容
媒体转载联系授权请看下方
继续阅读
阅读原文