,欢迎对复杂系统自动建模领域有热情,且认可这个领域发展前景的朋友一起来合作,促进这一领域的快速发展!
集智科学研究中心致力于营造跨学科探索小生境,催化复杂性科学新理论。集智研究中心长期关注复杂科学中的核心问题,如涌现、因果、自指、意识、生命起源等等,并充分结合人工智能机器学习技术尝试解决这些问题。目前已有15篇文章发表于国际期刊,其中包括一篇因果涌现的综述和一篇生命起源的综述。这里的文章大部分产生于集智社区读书会。(访问集智科学研究中心网站了解详情:)
研究领域:复杂网络、统计物理、信息动力学、多尺度分析、粗粒化、图神经网络、配分函数
复杂系统是一个令人着迷的研究对象,一些简单的单元的集群,以特定的规则和方式进行交互,竟然导致宏观层面涌现出人们不曾预知的功能,从大规模的社会合作到人脑中智能与意识的涌现,甚至现在基于联结主义的深度学习模型莫不是如此。为什么复杂系统如此重要而有趣?我想是因为复杂系统在试图回答一些关于我们这个世界为何如此这一很本质的问题——在相当长一段时间的科学史中,许多科学家们相信只要能够以还原论的视角挖掘出世界最基本的组成单元和机制,那么我们就能理解世界的全部奥秘,但复杂系统告诉我们并非如此,因为世界的组成本身比其组成元素要复杂得多。
一个极端的例子是,我们现在基本知道大脑中智能的涌现是其中约860亿个神经元共同作用的结果,但如果我们有一个理想实验室,里面整齐的摆放着860亿个充满活性的神经元和一台高精度手术刀可以让我们任意连接这些神经元。即便如此,我想我们也对如何重组人脑毫无头绪,因为神经元如何连接,如何交互的秘密尚未被揭示,连接,交互与组成的秘密,或许比神经元本身的生物化学性质更加重要。
另一个科学家们已经很熟练但细细想来稍显吊诡的例子是计算机对复杂系统的模拟,例如人工股票市场或鸟群模型,在这些模型中,科学家们通过编程决定每一个投资人算法或每一只鸟的算法如何彼此交互,从而在宏观层面展现出和真实金融市场和鸟群高度相似的行为。细细想来十分诡异,这意味着这些复杂系统的表现,不但和其底层的物理基础毫无关系,甚至不要求其底层的物理基础真实存在,这种隔绝效应再一次印证了连接,交互与组成才是一个系统何以如此的根本。
既然复杂系统如此奇妙而重要,且往往与其底层的物理基础无关,那我们应该从何种角度入手来理解复杂系统呢?我们相信结构与结构上的信息传递是一把理解系统涌现功能的金钥匙。尽管复杂系统横跨不同领域且功能多样,但我们也发现不同领域的复杂系统存在着共性:他们大多数都有底层的网络作为骨架,这就是复杂网络,而复杂网络上流动着的信息支撑着复杂系统的功能。已经有许多研究专注于解决网络结构与涌现功能之间的关系的问题,但这些研究受限于尺度和算力的变量:一个能涌现出奇妙功能的复杂网络往往有极大的规模,而计算这一大规模网络系统的信息动力学性质又需要极高的算力,这使得我们很难直接处理这种大规模的复杂网络,并理解他的结构与信息传递功能的关系。
毫无疑问这是一座巨大的金矿,而我们近期发表的工作为大家在这里淘金提供一把小巧轻便的铲子,使用我们提出的方法,大家可以以极低的复杂度,通过粗粒化来建立大网络的微缩小网络模型,模型虽小,却保留了原始网络在扩散动力学下所有时间尺度的动力学性质,使用这把铲子,人们可以更轻松的发掘大规模系统结构和动力学关系的巨大金矿。
我们的工作核心在于提出一套复杂网络粗粒化方案,该方案让我们在压缩网络尺寸的同时保留系统的信息动力学行为,在设计网络的粗粒化方案时,我们将会面临两个主要的挑战。首先,粗粒化必然会丢掉一些关于复杂网络本身的信息,而这里的原则和目的设计就是我们面临的第一道关卡,很多经典的复杂网络粗粒化方法的研究会倾向于选择尽可能保留网络的结构性质(例如度分布的无标度性质)。然而,正如前述所言,对许多复杂系统而言,运行在复杂网络结构上的信息动力学真正支撑着系统的功能,因此在网络粗粒化时,保留信息动力学行为将会更有利于我们分析原始网络的功能特性。
我们面临的第二个挑战是粗粒化方案的具体设计。当我们特定类型的网络上进行粗粒化时,或许我们可以根据网络的结构或动力学特性,从启发式的角度去进行设计和尝试。但我们如果想要的是一款针对不同类型的网络都有效的方案的时候,启发式设计将会失效。在面临这种高灵活性的要求时,我们选择利用机器学习方法,以数据驱动的方式,将网络粗粒化方案训练出来。
接下来,我们将首先介绍我们解决这两大挑战的核心思路,并分享一些实验成果,最后我们将深入机器学习算法,从可解释性的角度理解机器学到的粗粒化方案带给了我们哪些启发。
对网络的信息动力学行为已经有了非常多的经典研究,近年来,通过将统计物理引入复杂网络,人们找到了更好的理解网络动力学行为的工具。平衡态统计物理是一个重要的研究领域,其主要研究系统在平衡态下的宏观行为与微观状态之间的关系,尤其关注系统在不同温度下的能量分布以及温度如何影响系统的自发过程。经典平衡态统计物理的主要贡献在于,它通过引入配分函数、熵、自由能等概念,提供了一个强有力的框架,帮助我们理解复杂的物理系统如何从大量的微观粒子的相互作用中展现出诸如温度与压强等简单的宏观特性的。
考虑到复杂网络作为一种重要的物理和数学模型,在其中的信息传播、扩散等现象也具有极强的动态性和全局性,我们可以借助扩散动力学过程,将平衡态统计物理范式迁移到复杂网络上,从而帮助我们理解网络的动力学行为。与经典的统计物理范式不同的是,在经典统计物理中,我们的研究对象是处于特定温度下的热力学系统,其中系统的不同能量状态具有特定的存在概率,这些状态的分布与温度的变化密切相关。而在复杂网络上,我们的关注对象从系统的不同能量状态和其对应的概率转化为信息传播的模式和其对应强度。具体来说,网络中的节点和边构成了扩散过程中的微观状态,而信息通过这些节点和边的传播模式决定了系统的宏观行为。
尽管观察对象有所变化,但与经典的统计物理相似,我们仍然可以定义配分函数、熵、自由能等物理量。在诸多物理量中,配分函数占据特殊地位,不仅因为它在热力学系统的描述中起到核心作用,而且由于配分函数包含了系统的全部信息,因此所有其他物理量都可以由配分函数导出。配分函数可以看作是描述系统的状态空间的总和,它将系统的所有微观状态的贡献加权汇总,从而为我们提供了计算系统宏观性质的基础。
当我们将平衡态统计物理扩展至复杂网络上的时候,我们同样可以定义网络的配分函数,假设存在一个无向图,我们已知其上的扩散动力学微分方程为
其中λi是L的第i个特征值,配分函数有明确的物理含义,其表示保留在所有原始节点上的信息量。
图1展示了一个经典的复杂网络空手道俱乐部网络及其配分函数,我们可以看到,配分函数是一个单调递减的函数,横坐标是扩散时间,纵坐标的归一化配分函数值代表留在原始节点的信息量。我们可以看到,在扩散开始时,所有信息都留在原始节点,配分函数取到其全局最大值,随着扩散的进行,最终信息均匀地分布在所有节点上,配分函数降至全局最低点。而这一曲线体现了信息传播的动态,例如当网络更加稠密时,配分函数会以更快的速度下降,当网络存在明显的社团结构时,局部信息传播速度很快而全局信息传播受到桥节点数量的限制而很慢,在配分函数上将会体现为前段速降而后段缓降的情况。因此,配分函数是一个对信息传播动力学在不同时间尺度的详细而综合的描述。
网络扩散过程中的配分函数描述了信息在网络中传播的行为,其类似于统计物理中的配分函数,能够捕捉到信息传播过程中的全局性特征。而由配分函数导出的熵则度量了信息传播的模式的复杂性和多样性,反映了系统对于扰动的响应多样性,类似于经典统计物理中对系统混乱程度的度量。自由能则反映了信息传播的效率,类似于经典统计物理中自由能所描述的系统可用能量的最大化。尽管这些物理量在扩散动力学的背景下具有不同的具体含义,但它们遵循着数学性质和物理直觉的相似性。
由于以上性质,我们选择将归一化配分函数的一致性作为网络粗粒化的目标,天博入口据此进行网络粗粒化算法的设计。
图神经网络(Graph Neural Network, GNN)是近年来兴起的一类专门用于处理图结构数据的深度学习模型。图结构数据可以用来表示诸如社交网络、推荐系统、分子结构、知识图谱等复杂关系。GNN的核心思想是通过节点之间的连接(边)来传播信息,进而学习到图中每个节点或整个图的表示。由于许多实际问题本质上可以通过图结构来建模,因此图神经网络在多个领域都有广泛的应用,如社交网络中的社群检测,生物信息学中的药物发现,自然语言处理领域的文本分类等等。
我们采用图神经网络解决网络压缩问题的方法如图2所示。在此方法中,我们利用图神经网络来聚合节点特征,并输出节点的分组分布。同一组内的节点会被压缩为一个超节点,而它们之间连接的总和则成为该超节点的加权自环。当然,不同组之间的连接则成为了各超节点间的加权链接。为了评估粗粒化的效果,我们通过比较归一化配分函数 Z 的平均绝对误差(MAE)来进行评价。在优化过程中,模型通过梯度下降方法不断调整从节点局部结构特征到节点分组的映射关系。这种调整确保了最终生成的宏观网络具有与原始网络相似的归一化配分函数。
由于宏观网络中的节点数量可以灵活配置为一个可调的超参数,因此我们可以将原始网络数据压缩为任意节点数量的宏观网络,从而适应不同任务的需求。此外,这一模型的时间复杂度为 O(N+E),其中 N和 E 分别表示原始网络中的节点数和边数。这一复杂度相较于其他模型具有显著优势。因此,我们的方法能够高效压缩非常大规模(如十万个节点)的网络。
首先,我们发现模型很好的实现了我们的预定目标,即在粗粒化网络的同时保留配分函数,此外通过实验,我们还发现了很多模型的有趣性质。在这里与大家分享:
尽管模型已经能够很以很高的精度保留原始配分函数,但由于我们将网络数据压缩到了低维空间,配分函数信息将会自然的有所损失,且信息损失将会随着网络尺寸的减少而增加。但有趣的是,我们发现配分函数的误差与网络尺寸呈现无标度关系,这意味着并不存在某个最适用于模型和数据的最优压缩尺寸。
我们不仅关注模型的精确度,还十分关注模型学到了何种具体的粗粒化策略,在对网络的粗粒化过程中,我们发现具有相似局部结构的节点将会被模型粗粒化为相同的超级节点。在下图中,我们以美国机场网络的粗粒化实验为例来说明这一效应:
美国机场网络(不包括阿拉斯加区域)是一个具有超过五百个节点的网络,我们依据经过机场的航线数量(即机场节点的度数)对机场进行排序,并展示将其中的前15个机场被纳入了哪些宏观节点。我们发现,当将原始网络粗粒化为50个节点的宏观网络时(左列),这些大机场都被纳入了3个宏观节点上,而当我们进一步压缩网络尺寸为20个宏观节点时(右列),我们发现宏观节点也被进一步合并为两个。这说明这些大度节点都被纳入了少量宏观节点中。
我们进一步分析了模型的可解释性,尤其探索了将相似局部节点粗粒化为相同超级节点的这一策略。首先,天博入口我们需要意识到这本身是图神经网络的自然选择,因为图神经网络以节点的局部特征作为输入,并输出节点分组。但这一天然策略本身也十分契合我们压缩网络尺寸并保留信息动力学行为的目标,如图5所示:
如图所示,我们展示了三类具有不同局部特征的节点,以及为什么将他们粗粒化为相同的超级节点有助于保留信息动力学行为。
具有高聚类系数的节点通常其邻近节点之间存在较多互连,在网络中的信息扩散过程中,这些互连会起到将信息局限在局部的作用。当我们将高聚类系数的节点归为一组时,它们之间的众多互连会转化为超节点上的高权重自环,从而继续发挥局限信息于局部的作用,如子图a所示。
中心节点在网络中充当全局信息扩散的桥梁。通过将中心节点聚类在一起,中心节点与其他节点之间的边会转化为粗粒化网络中超节点之间的连接,从而仍然保证全局信息的顺畅传递。然而,如果我们把一个中心节点及其邻近节点归为一组,那么它们之间的互连关系会转变为该超节点的自环,这会导致信息被局限在局部,进而对全局信息传播形成阻碍,如子图b所示。
具有明显社区结构的网络由于社区间连接较少,全局信息扩散速度较慢。将同一社区内的节点聚合在一起时,大量的社区内连接会转化为超节点上的自环,从而导致信息局限在局部范围内。与此同时,少量的社区间连接则转化为超节点之间的低权重边,同样起到减缓全局信息扩散速度的作用,如子图c所示。通过这三个典型例子,我们发现这种粗粒化方案减少了冗余结构,而相应的功能却得以保留。因此,这种方法在压缩网络时能够自然地有助于保留信息动力学行为。
基于这一原则,我们的模型将进一步优化连续的分组策略,从而微调出适用于特定网络的粗粒化策略。
为了进一步验证模型在更广泛的数据上的可用性,尤其探究模型更适用于哪些领域,我们在由不同领域的真实网络组成的数据集上进行了实验,如图5所示:
首先,我们发现模型的表现并不会随着数据所属领域而呈现出不同,但的确存在着网络的结构属性将会对模型的粗粒化后保留配分函数的精确度造成显著影响,那就是原始网络的密度,如图5右图所示:原始网络密度和压缩后的配分函数误差近似呈现幂律关系。这或许是因为更高的密度意味着更高的信息传递方式的多样性,从而使粗粒化难度增大。
在网络粗粒化领域中,目前仍缺乏一种能够粗粒化不同网络结构并确保留信息流行为的方法,而我们的工作填补了这一空白。传统的经典方法往往依赖一组规则来识别网络中的节点组,并通过粗粒化构建压缩表示。相比之下,我们采用数据驱动的方法,借助机器学习提取最优的粗粒化规则,并通过训练调整模型参数。与大多数试图最大化宏观网络与原始网络结构相似性的网络压缩方法不同,我们的模型倾向于保留网络中的信息流行为,因此对网络的结构和动力学特性同时具有天然的敏感性。此外,该方法极低的复杂度(相比于其他方法低1-2个数量级)让网络规模不再是人们分析大网络的阻碍,具备在众多学科中广泛的应用潜力,这些学科涉及从城市交通到连接组学等所有需要研究互联系统内部信息流动的领域,同时也揭示了网络组件之间信息交换的多尺度特性,助力人们进一步理解复杂系统的结构,信息交互和涌现之谜。
欢迎大家到我们的原始论文中查看更多信息与结论,如压缩过程中的结构属性变化,大规模(十万个节点)网络的粗粒化效果,方便使用的预训练模型,不同目标函数的性质以及和其他方法的对比等等。我们也欢迎大家直接使用我们的开源代码,为了方便大家在自己的数据集上直接使用我们的方法,我们准备了两个教程,分别展示了如何为一个网络训练一套粗粒化方案,和如何使用预训练模型,直接粗粒化新的网络数据。相信您只需要更改少量代码,就可以将这一方法应用到您的数据上。
张章,北京师范大学系统科学学院博士生。研究兴趣集中于复杂网络与深度学习的交叉领域,具体包括机器学习,复杂系统自动建模等。
这篇文章后续也会在复杂网络动力学读书会上由第一作者张章来做深入的解读分享。
集智俱乐部联合合肥工业大学物理系教授李明、同济大学副教授张毅超、北京师范大学特聘副研究员史贵元与在读博士生邱仲普、张章共同发起「复杂网络动力学」读书会。本次读书会将探讨:同步相变的临界性、如何普适地刻画多稳态与临界点、如何识别并预测临界转变、如何通过局部干预来调控系统保持或回到期望稳态、爆炸逾渗临界行为的关键特征、不同类型的级联过程对逾渗相变的影响有何异同、高阶相互作用的影响能否等效为若干简单机制的叠加、如何有效地促进人类个体间的合作等问题。
读书会计划从3月7日开始,每周五晚19:30-21:30进行,持续8-10周。诚挚邀请领域内研究者、寻求跨领域融合的研究者加入,共同探讨。
集智科学研究中心是门头沟民政局批准成立、门头沟科信局主管的民办非企业,致力于营造跨学科探索小生境,催化复杂性科学新理论。集智研究中心长期关注复杂科学中的核心问题,如涌现、因果、自指、意识、生命起源等等,并充分结合人工智能机器学习技术尝试解决这些问题。目前已有15篇文章发表于国际期刊,其中包括一篇因果涌现的综述和一篇生命起源的综述。这里的文章大部分产生于集智社区读书会。
涌现发现之旅:人工智能观察者与涌现的量化|集智科学研究中心NSR最新成果