查看原文
其他

信息大脑如何从物理大脑中涌现?

​田洋 集智俱乐部 2022-04-08


导语


我们的大脑是一个处理信息的动力学系统。数百亿个神经元时刻接受内部和外部刺激,对这些信息进行编码处理,进而形成我们对世界的认知。大脑的信息机能本质上从神经元集群活动的动力学中涌现,可是这种涌现到底是如何发生的?我们的信息大脑和物理大脑之间有什么内在联系?10月29日,清华大学的研究团队在 Physical Review Research 上发表的一项最新理论研究,揭示了大脑的神经动力学与信息加工属性间的基本关系,或有助于我们理解大脑这个复杂系统中各类信息加工特性的涌现。


研究领域:神经科学,统计物理,大脑信息加工,神经动力学,集体运动,涌现

田洋 | 作者

梁金 | 审校

邓一雪 | 编辑



论文题目:

Bridging the information and dynamics attributes of neural activities

论文链接:https://doi.org/10.1103/PhysRevResearch.3.043085



1. 动力学和信息:大脑的双重属性




理解大脑中信息加工机能的基础是现代物理学的前沿之一[1]。大量的研究证明大脑可以被视为一个加工信息的复杂动力学系统[2]。一方面,作为动力学系统的大脑常受外部刺激[3-5]或内部因素[6-7]驱动而远离平衡态,产生复杂的动力学过程。另一方面,如果这些动力学过程是由刺激驱动的,刺激的信息即在一定程度上被大脑编码[13]和存储[14],进而支撑各类认知过程[15-17],赋予了大脑作为信息加工系统的身份[18]。对大脑的这种双重属性的探索具有悠久的历史,研究者在大脑中发现了大量的动力学和信息属性间的关系[4,19–21],证明大脑处理外界信息的认知机能(或称为信息机能)本质上依赖于其神经动力学
 
虽然单独对大脑的动力学[8–12]或信息属性[13–18,25,26]的研究已经取得了诸多进展,我们依然不清楚为何大脑动力学与信息属性具有如此基础的联系。受到费米的大象“的启示[51],学界希望避免局限于唯像模拟,而探索出一个解析的(analytic)理论以解释大脑中动力学和信息的联系(例如,见文献[20]的探索)。在探索可能的解析理论的过程中,研究者可能遇到以下困难。一方面,研究者缺乏一个对神经活动中动力学[27]和信息属性[28]的进行统一分析的理论。另一方面,不同于以概率论为基础的信息属性度量(例如互信息和 Fisher 信息[13]),对动力学属性的主流实验[38–40]和理论[12,41–50]刻画方法(例如 Lyapunov 谱[49,50])多基于非概率的框架,这阻碍了对动力学和信息属性关系的探讨。

为了在一定程度上克服上述困难并为后续探索提供可能的方向,来自清华大学心理学系&清华大学脑与智能实验室以及清华大学类脑计算研究所的研究团队进行了一项探索性研究。该研究的部分结果2021年10月29日发表于物理期刊 Physical Review Research。研究者将探讨范围限定在了神经动力学、编码和解码三者之间(见图1)。作为相对基本的信息加工视角,编码和解码能对神经信息加工属性进行基础的刻画。
 
图1. 理论分析框架
 
 



2. 神经活动的随机动力学




研究者首先展示了一个基于非齐次马尔可夫链的随机动力学框架。在不借助其他假设或简化的情况下,研究者只使用(1)神经调谐特性(neural tuning properties,即神经元的选择性响应特性)以及(2)神经元动作电位在随机结构的神经群中的传输时延这两个基本的神经系统性质,构建了随机动力学框架描述受刺激驱动的神经元集群动力学(collective dynamics)。具体例子可见图2。
 
图2. 受刺激驱动的神经元集群动力学
 
在该框架的构建过程中,研究者通过将点估计等后验统计方法融入数学推导,克服了使用概率方法描述强耦合的神经元动力学的困难,避免引入神经元独立性的假设,并使得该随机动力学框架能直接基于真实实验数据进行后验估计。
 
为了刻画基于随机动力学框架描述的神经活动的动力学属性,研究者引入了KS 熵(Kolmogorov-Sinai entropy)的概念,并基于马尔科夫链的性质给出了KS熵的明确表达。KS 熵可以被粗略地理解为在有限次采样(或观测)的条件下,观测一个连续时间的动力系统所面临的不确定性。基于KS熵,研究者可以在任意时刻计算神经元集群动力学中任意一个神经元的动力学分量的不确定性(dynamic randomness)。图3展示了一个示例。
 
图3. 神经动力学的KS熵及其时空分布
 
将KS 熵引入动力学分析的另一个重要意义在于其对混沌现象的刻画。KS熵与另一个更常见的动力学刻画方法——Lyapunov谱(Lyapunov spectra)——之间存在着深刻的数学联系。具体而言,KS熵是Lyapunov谱中所有非负的Lyapunov指数之和的下界。同时,Lyapunov谱刻画了动力系统的相空间中相邻轨道的收敛和发散性质。当存在非负的Lyapunov指数时,动力系统在该指数对应的相空间方向上是混沌的。这意味着,通过验证KS熵是否非零,研究者能够判定动力系统是否存在混沌现象。KS熵越大,则可以认为混沌的程度越大。
 
 



3. 随机动力学的信息属性




同时,研究者刻画了神经元集群动力学的信息编码和解码属性(见图4)。在一定程度上,可以将信息编码理解为给定刺激后,基于神经活动来表征该刺激信息的过程;可以将信息解码理解为给定神经活动后,逆推诱发神经活动的刺激信息的过程。一般情况下,信息编码是所有神经信息加工的起点,而信息解码则是研究者间接分析神经信息编码的方法。
 
图4. 基于信息编码和解码对信息加工的分析框架
 
在神经科学和物理学中,学界一般使用互信息(mutual information)等相关概念刻画信息编码,并使用Fisher信息(Fisher information)刻画信息解码。一般而言,互信息可以理解为对神经活动可以编码的刺激信息量的度量,Fisher信息可以理解为对基于神经活动可以解码的刺激信息量的度量。研究者基于随机动力学框架给出了上述概念的时变(time-dependent)度量方法。
 
 



4. 动力学和信息属性的基本关系




基于上述工作,研究者实现了一个以随机动力学框架为桥梁,能够对动力学(KS熵)和信息(编码和解码)属性进行统一分析的理论。由于随机动力学本身支持对两类属性解析的计算,而无需进行数值模拟或逼近,研究者得以对两类属性间的联系进行解析的探索。在该工作中,研究者展示了4个主要的发现。
 
研究者首先分析了与信息加工相关的神经动力学自身的特性,得到了发现1和2。相关数据可见图3和图5。
 
  • 发现1

通过理论分析和数据分析,研究者发现了神经动力学的短期变化和长期变化的随机性存在稳定的差异。神经动力学的短期变化的变化幅度较小,但动力学随机性较大;长期变化的变化幅度较大,但动力学随机性较小;
 
  • 发现2

同时,研究者发现了混沌现象在神经群中空间分布的不均匀性。如果研究者不控制神经元活动强度的空间分布不均匀性,会发现神经元活动混沌程度随活动强度一样,从“浅层“向“深层“的神经元递减(此处,“层“仅是形象的说法,真实的微观尺度的神经群中不存在严格的分层结构,读者可以自行将“浅层“和“深层“替换为“上游“和“下游“进行理解)。当研究者对神经元活动强度进行标准化后(排除活动强度的空间分布不均对于混沌现象的影响),会发现相对“浅层“的神经元活动更具有规律性,而相对“深层“的神经元活动的混沌程度更高。
 
 
图5. KS熵及混沌现象在神经群中的空间分布
 
而后,研究者对动力学属性与信息编码和解码的关系进行了探索,得到了发现3和4。具体数据可见图 6。
 
  • 发现3

研究者发现特定的神经动力学可能导致信息编码和解码之间互相制约的关系。具体而言,当神经动力学的随机性(或混沌程度)较低时,信息编码和解码的效率以及质量会随着动力学随机性上升而上升。但是,当神经动力学的随机性超过特定阈值后,信息编码和解码的效率及质量就不再同向变化,前者依然随着动力学随机性上升而上升,后者则随动力学随机性的上升而下降。这意味着,对于动力学随机性相对大的神经元群,其编码和解码的性质之间存在权衡。研究者随后对这一现象给出了理论证明。
 
  • 发现4

研究者还发现了神经动力学与神经元对外界刺激的表征(neural representation)之间的关系。具体而言,相对“浅层“的神经元具备更稳定的动力学特性,它们更多负责对刺激分布的局部信息进行特异化编码和表征,而相对“深层“的神经元的动力学随机性更大,它们更多负责对刺激分布的全局信息进行非特异化(non-specific)编码和表征。
 
图6. 神经活动的动力学属性对编码、解码及刺激表征的影响

 

 



5. 总结与讨论




在该研究中,研究者推导了刺激驱动的神经元集群动力学的随机动力学描述。基于随机动力学,研究者一方面借助KS熵和Lyapunov谱的数学关系对神经动力学的动力学不确定性和混沌进行刻画,另一方面直接基于概率框架给出了信息编码和解码属性的时变度量方法。结合理论推导和实验数据,研究者解析地探索神经活动的动力学和信息属性间的关系,并发现了4个基本性质。
 
发现1或对神经信号记录(neural signal recording)的研究具有一定启示。研究者已经发现时间采样率低的信号记录技术(例如fMRI)不能直接反映潜在的刺激驱动的神经活动[53]。在被这些低时间采样率的技术记录之前,短期的神经活动变化需要累积至其变化足够强烈和鲁棒[53],这伴随着神经活动信息的大量丢失[53-56]。对于这个问题,一种传统的解决思路是尽可能开发高时间分辨率的记录技术(例如多光子显微镜[67–69])。虽然发现1部分地支持这一思路,该发现也指出了获得鲁棒的神经活动信号趋势和对神经活动信息的保持是不可兼得的。一个高时间分辨率的记录技术能够尽可能降低对神经活动信息的丢失,但其记录的神经活动短期变化相较于低时间分辨率的技术,具有极高的动力学随机性及较弱的鲁棒性。所以,单纯提高记录技术的时间分辨率并不能彻底解决这个问题。
 
在对发现2的分析中,如果研究者选择不消除神经活动强度在空间分布上的不均匀性,会观测到神经元活动的混沌程度与神经元活动强度一样,随着神经元活动在神经群内的传播过程而逐渐递减。Diesmann曾经发现神经元活动在传播过程中存在一个吸引子[59]。在新近研究中[60],该吸引子被证实为是一个线性吸引子(line attractor)。这些研究表明神经动力学可变性会在足够长的传播过程中逐渐消失。研究者在更广义的随机图结构中证实了该现象(参考发现2)。而当研究者选择对神经活动强度进行标准化后,发现刺激驱动的神经动力学在越“浅层”的神经元上越稳定,在越“深层“的神经元上越混沌。这一现象与关于刺激驱动对混沌现象的抑制能力(stimulus drives suppress chaos)的著名发现[61]是一致的。研究者发现输入驱动和刺激诱发神经元协同的确能抑制混沌。随着神经元活动的传播,这种刺激与神经元间的协同逐渐减弱,并逐渐被网络动力学的混沌所掩盖。当然,这并不意味着神经元对于刺激的响应彻底变成了混沌而不可靠的。在真实的神经元群中,由神经元调谐特性(neural tuning properties)主导的规律性与由网络动力学主导的混沌是共存的。虽然神经元活动的规律性(regularity)经常被混沌打破,但神经元活动的混沌程度并不会持续地保持或上升[例如,见图 3(b)]。这些观测结果与已有研究对刺激驱动的神经活动的混沌程度与可靠性的关系的探索结果一致[62,63]。
 
发现3或许对认知功能的神经或皮层基础定位的研究[15,64,65]有潜在的启示。这些研究多侧重分析特定神经群、神经环路或皮层的信息加工特性。其分析首先以特定信号记录技术(例如,多光子显微镜[66,67]、多电极记录[68,69]和fMRI)对神经活动进行记录,再从信息编码[13,70]或解码[71–73]的角度对神经活动进行分析。研究者指出了这类研究存在的潜在风险——从编码或解码角度对信息加工效率进行直接或间接的度量可能会得到不一致甚至相反的结果(参考发现3)。例如,一方面,如果研究者从解码的角度进行间接分析,那在编码过程中真正高效的神经元或皮层可能因其较低的解码效率而被忽略。另一方面,在解码过程中相对高效的神经元或皮层常有许多不能被刺激解释的神经活动,这给分析带来了极大的噪音。这些潜在的风险或许会导致功能研究中的假阴性问题和可重复性问题[74]。
 
此外,该研究揭示了(1)在神经信号记录过程中得到鲁棒的信号趋势和保持神经活动信息间的矛盾以及(2)在记录的神经信号中编码和解码属性可能存在的制约关系(参考发现1和3)。虽然具有高时间分辨率的记录技术能够捕捉高频的神经活动变化,短期神经活动变化的高动力学随机性通常会阻碍研究者得到鲁棒的神经信号并且可能导致编码、解码分析结果的不一致。时间分辨率较低的记录技术不能捕捉高频的神经活动,但其能够记录动力学随机性相对较小的神经活动并在一定程度上避免编码、解码分析结果的分歧。所以,一个多时间分辨率的(multitemporal-resolution recording)神经信号记录体系[75–77]或许能兼具高时间分辨率和低时间分辨率的记录技术的优点,并在一定程度上克服两者的缺陷。
 
发现4或许对认知神经科学具有一定启示。研究者指出了“浅层“的神经元活动与刺激分布的局部信息更相关,而“深层“的神经元活动与对刺激分布全局信息的加工更相关(参考发现2和4)。在某种程度上,对于刺激分布全局信息的加工可以被理解为神经元在刺激响应过程中所具备的泛化能力。这种自发涌现的差异性指出了“浅层“神经元负责编码局部刺激信息,而“深层“神经元负责编码全局刺激信息的可能。这种自发形成的神经元间的分工体系或许在自下而上的(bottom-up)信息加工过程中具有重要的意义。

 

参考文献

[1] G. Collell and J. Fauquet, Brain activity and cognition: A connection from thermodynamics and information theory, Front. Psychol. 6, 818 (2015)[2] P. Dayan and L. F. Abbott, Theoretical Neuroscience: Computational and Mathematical Modeling of Neural Systems (MIT Press, Cambridge, MA, 2001).[3] A. S. Shah, S. L. Bressler, K. H. Knuth, M. Ding, A. D. Mehta, I. Ulbert, and C. E. Schroeder, Neural dynamics and the fundamental mechanisms of event-related brain potentials, Cerebal Cortex 14, 476 (2004).[4] T. P. Vogels, K. Rajan, and L. F. Abbott, Neural network dynamics, Annu. Rev. Neurosci. 28, 357 (2005).[5]  G. Deco and E. Hugues, Neural network mechanisms underlying stimulus driven variability reduction, PLoS Comput. Biol 8, e1002395 (2012).[6] B. L. Foster, B. J. He, C. J. Honey, K. Jerbi, A. Maier, and Y. B. Saalmann, Spontaneous neural dynamics and multiscale network organization, Front. Syst. Neurosci. 10, 7 (2016)[7]  R. F. Galán, On how network architecture determines the dominant patterns of spontaneous neural activity, PloS ONE 3, e2148 (2008).[8]  S. Coombes, Large-scale neural dynamics: Simple and complex, NeuroImage 52, 731 (2010).[9] D. R. Chialvo, Emergent complex neural dynamics, Nat. Phys. 6, 744 (2010).[10] E. D. Lumer, G. M. Edelman, and G. Tononi, Neural dynamics in a model of the thalamocortical system. I. Layers, loops and the emergence of fast synchronous rhythms, Cerebral Cortex 7, 207 (1997).[11] E. D. Lumer, G. M. Edelman, and G. Tononi, Neural dynamics in a model of the thalamocortical system. II. The role of neural synchrony tested through perturbations of spike timing, Cerebral Cortex 7, 228 (1997).[12] M. Martinello, J. Hidalgo, A. Maritan, S. di Santo, D. Plenz, and M. A. Muñoz, Neutral Theory and Scale-Free Neural Dynamics, Phys. Rev. X 7, 041071 (2017).[13] A. Borst and F. E. Theunissen, Information theory and neural coding, Nat. Neurosci. 2, 947 (1999).[14] D. J. Amit, H. Gutfreund, and H. Sompolinsky, Information storage in neural networks with low levels of activity, Phys. Rev. A 35, 2293 (1987).[15] D. Purves, R. Cabeza, S. A. Huettel, K. S. LaBar, M. L. Platt, M. G. Woldorff, and E. M. Brannon, Cognitive Neuroscience (Sinauer Associates, Sunderland, MA, 2008)[16] D. A. Butts, C. Weng, J. Jin, C.-I. Yeh, N. A. Lesica, J.-M. Alonso, and G. B. Stanley, Temporal precision in the neural code and the timescales of natural vision, Nature (London) 449, 92 (2007).[17]  G. Laurent and H. Davidowitz, Encoding of olfactory information with oscillating neural assemblies, Science 265, 1872 (1994).[18] B. B. Averbeck, P. E. Latham, and A. Pouget, Neural correlations, population coding and computation, Nat. Rev. Neurosci. 7, 358 (2006).[19] E. Harth, T. Csermely, B. Beek, and R. Lindsay, Brain functions and neural dynamics, J. Theor. Biol. 26, 93 (1970).[20] G. B. Ermentrout, R. F. Galán, and N. N. Urban, Relating Neural Dynamics to Neural Coding, Phys. Rev. Lett. 99, 248103 (2007).[21] J. D. Murray, A. Bernacchia, N. A. Roy, C. Constantinidis, R. Romo, and X.-J. Wang, Stable population coding for working memory coexists with heterogeneous neural dynamics in prefrontal cortex, Proc. Natl. Acad. Sci. USA 114, 394 (2017).[22] B. Cessac, H. Paugam-Moisy, and T. Viéville, Overview of facts and issues about neural coding by spikes, J. Physiol. Paris 104, 5 (2010).[23] N. Brenner, S. P. Strong, R. Koberle, W. Bialek, and R. R. d. R. v. Steveninck, Synergy in a neural code, Neural Comput. 12, 1531 (2000).[24] C. E. Schroeder, D. A. Wilson, T. Radman, H. Scharfman, and P. Lakatos, Dynamics of active sensing and perceptual selection, Curr. Opin. Neurobiol. 20, 172 (2010). [25] W. E. Skaggs, B. L. McNaughton, and K. M. Gothard, An information-theoretic approach to deciphering the hippocampal code, in Advances in Neural Information Processing Systems, edited by J. Cowan, G. Tesauro, and J. Alspector (Morgan Kaufmann, MA, 1993), pp. 1030–1037.[26] R. Linsker, Perceptual neural organization: Some approaches based on network models and information theory, Annu. Rev. Neurosci. 13, 257 (1990).[27] A. Katok and B. Hasselblatt, Introduction to the Modern Theory of Dynamical Systems (Cambridge University Press, New York, 1997), Vol. 54.[28] I. Aleksandr and A. Khinchin, Mathematical Foundations of Information Theory (Dover Publications Inc., New York, 1957), Vol. 54.[29] L. Paninski, E. P. Simoncelli, and J. W. Pillow, Maximum likelihood estimation of a stochastic integrate-and-fire neural model, in Advances in Neural Information Processing Systems, edited by L. Saul, Y. Weiss, and L. Bottou (MIT Press, Cambridge, 2004), pp. 1311–1318.[30] D. Heeger, Poisson model of spike generation (unpublished).[31] R. Barbieri, M. C. Quirk, L. M. Frank, M. A. Wilson, and E. N. Brown, Construction and analysis of non-Poisson stimulusresponse models of neural spiking activity, J. Neurosci. Methods 105, 25 (2001).[32] A. N. Burkitt, A review of the integrate-and-fire neuron model: II. Inhomogeneous synaptic input and network properties, Biol. Cybern. 95, 97 (2006). [33] A. L. Hodgkin and A. F. Huxley, A quantitative description of membrane current and its application to conduction and excitation in nerve, J. Physiol. 117, 500 (1952). [34] R. B. Stein, A theoretical analysis of neuronal variability, Biophys. J. 5, 173 (1965). [35] E. M. Izhikevich, Simple model of spiking neurons, IEEE Trans. Neural Netw, 14, 1569 (2003). [36] W. Gerstner and W. M. Kistler, Spiking Neuron Models: Single Neurons, Populations, Plasticity (Cambridge University Press, New York, NY, 2002).[37] M. Tsodyks, K. Pawelzik, and H. Markram, Neural networks with dynamic synapses, Neural Comput. 10, 821 (1998).[38] S. Grossberg and E. Mingolla, Neural dynamics of perceptual grouping: Textures, boundaries, and emergent segmentations, in The Adaptive Brain II, edited by S. Grossberg (Elsevier, 1987), pp. 143–210.[39] S. Grossberg and M. Kuperstein, Neural Dynamics of Adaptive Sensory-Motor Control: Ballistic Eye Movements (Elsevier, Amsterdam, Netherlands, 2011).[40] J. D. Seelig and V. Jayaraman, Neural dynamics for landmark orientation and angular path integration, Nature (London) 521, 186 (2015).[41] L. Buesing, J. Bill, B. Nessler, and W. Maass, Neural dynamics as sampling: A model for stochastic computation in recurrent networks of spiking neurons, PLoS Comput. Biol. 7, e1002211 (2011).[42] A. V. Herz, T. Gollisch, C. K. Machens, and D. Jaeger, Modeling single-neuron dynamics and computations: A balance of detail and abstraction, Science 314, 80 (2006).[43] G. Dror and M. Tsodyks, Chaos in neural networks with dynamic synapses, Neurocomputing 32, 365 (2000).[44] S.-I. Amari, Dynamics of pattern formation in lateralinhibition type neural fields, Biol. Cybern. 27, 77 (1977).[45] K. Kishimoto and S.-I. Amari, Existence and stability of local excitations in homogeneous neural fields, J. Math. Biol. 7, 303 (1979). [46] N. P. Rougier, Dynamic neural field with local inhibition, Biol. Cybern. 94, 169 (2006).[47] A. Hutt, M. Bestehorn, and T. Wennekers, Pattern formation in intracortical neuronal fields, Netw. Comput. Neural Syst. 14, 351 (2003).[48] E. Montbrió, D. Pazó, and A. Roxin, Macroscopic Description for Networks of Spiking Neurons, Phys. Rev. X 5, 021028 (2015).[49] R. Engelken, F. Wolf, and L. F. Abbott, Lyapunov spectra of chaotic recurrent neural networks, arXiv:2006.02427.[50] H. Sompolinsky, A. Crisanti, and H.-J. Sommers, Chaos in Random Neural Networks, Phys. Rev. Lett. 61, 259 (1988)[51] “A meeting with Enrico Fermi“ in Nature 427 (22 January 2004) p. 297[52] Tian Y, Li G, Sun P. Bridging the information and dynamics attributes of neural activities[J]. Physical Review Research, 2021, 3(4): 043085.[53] N. K. Logothetis, J. Pauls, M. Augath, T. Trinath, and A. Oeltermann, Neurophysiological investigation of the basis of the FMRI signal, Nature (London) 412, 150 (2001).[54] K. Lundengård, in Mechanistic Modelling—A BOLD Response to the fMRI Information Loss Problem, Linköping University Medical Dissertations (Linköping University Electronic Press, Linköping, Sweden, 2017), Vol. 1591.[55] A. Ekstrom, How and when the FMRI bold signal relates to underlying neural activity: The danger in dissociation, Brain Res. Rev. 62, 233 (2010). [62] K. D. Singh, Which neural activity do you mean? FMRI, MEG, oscillations and neurotransmitters, Neuroimage 62, 1121 (2012).[56] B. Li, C. Wu, M. Wang, K. Charan, and C. Xu, An adaptive excitation source for high-speed multiphoton microscopy, Nature Methods 17, 163 (2020).[57] M. J. Levene, D. A. Dombeck, K. A. Kasischke, R. P. Molloy, and W. W. Webb, In vivo multiphoton microscopy of deep brain tissue, J. Neurophysiol. 91, 1908 (2004). [58] F. Helmchen and W. Denk, New developments in multiphoton microscopy, Curr. Opin. Neurobiol. 12, 593 (2002).[59] M. Diesmann, M.-O. Gewaltig, and A. Aertsen, Stable propagation of synchronous spiking in cortical neural networks, Nature (London) 402, 529 (1999). [60] Z. Xiao, J. Zhang, A. T. Sornborger, and L. Tao, Cusps enable line attractors for neural computation, Phys. Rev. E 96, 052308 (2017).[61] L. Molgedey, J. Schuchhardt, and H. G. Schuster, Suppressing Chaos in Neural Networks by Noise, Phys. Rev. Lett. 69, 3717 (1992).[62] G. Lajoie, K. K. Lin, and E. Shea-Brown, Chaos and reliability in balanced spiking networks with temporal drive, Phys. Rev. E 87, 052901 (2013).[63] G. Lajoie, J.-P. Thivierge, and E. Shea-Brown, Structured chaos shapes spike-response noise entropy in balanced neural networks, Front. Comput. Neurosci. 8, 123 (2014).[64] R. E. Passingham, K. E. Stephan, and R. Kötter, The anatomical basis of functional localization in the cortex, Nat. Rev. Neurosci. 3, 606 (2002).[65] A. Gholipour, N. Kehtarnavaz, R. Briggs, M. Devous, and K. Gopinath, Brain functional localization: A survey of image registration techniques, IEEE Trans. Med. Imaging 26, 427 (2007).[66] G. D. Reddy, K. Kelleher, R. Fink, and P. Saggau, Threedimensional random access multiphoton microscopy for functional imaging of neuronal activity, Nat. Neurosci. 11, 713 (2008).[67] K. W. Dunn and T. A. Sutton, Functional studies in living animals using multiphoton microscopy, ILAR J. 49, 66 (2008).[68] I. Ulbert, E. Halgren, G. Heit, and G. Karmos, Multiple microelectrode-recording system for human intracortical applications, J. Neurosci. Methods 106, 69 (2001). [69] D. D. Cox, A. M. Papanastassiou, D. Oreper, B. B. Andken, and J. J. DiCarlo, High-resolution three-dimensional microelectrode brain mapping using stereo microfocal x-ray imaging, J. Neurophysiol. 100, 2966 (2008).[70] I. Nemenman, G. D. Lewen, W. Bialek, and R. R. D. R. Van Steveninck, Neural coding of natural stimuli: Information at sub-millisecond resolution, PLoS Comput. Biol. 4, e1000025 (2008).[71] S. Wu, S.-i. Amari, and H. Nakahara, Population coding and decoding in a neural field: A computational study, Neural Comput. 14, 999 (2002).[72] R. Q. Quiroga and S. Panzeri, Extracting information from neuronal populations: Information theory and decoding approaches, Nat. Rev. Neurosci. 10, 173 (2009). [73] T. Toyoizumi, K. Aihara, and S.-I. Amari, Fisher Information for Spike-Based Population Decoding, Phys. Rev. Lett. 97, 098102 (2006).[74] M. Brett, I. S. Johnsrude, and A. M. Owen, The problem of functional localization in the human brain, Nat. Rev. Neurosci. 3, 243 (2002).[75] S. Qin and Z. Ji, Multi-Resolution Time-Frequency Analysis for Detection of Rhythms of EEG Signals, in 3rd IEEE Signal Processing Education Workshop (IEEE, 2004), pp. 338–341.[76] Y. Li, H.-L. Wei, S. A. Billings, and P. Sarrigiannis, Time-varying model identification for time–frequency feature extraction from EEG data, J. Neurosci. Methods 196, 151 (2011).[77] K. Indiradevi, E. Elias, P. Sathidevi, S. D. Nayak, and K. Radhakrishnan, A multi-level wavelet approach for automatic detection of epileptic spikes in the electroencephalogram, Comput. Biol. Med. 38, 805 (2008).



(参考文献可上下滑动查看)





因果涌现读书会


跨尺度、跨层次的涌现是复杂系统研究的关键问题,生命起源和意识起源这两座仰之弥高的大山是其代表。而因果涌现理论、机器学习重整化技术、自指动力学等近年来新兴的理论与工具,有望破解复杂系统的涌现规律。由北京师范大学教授、集智俱乐部创始人张江等发起的「因果涌现」系列读书会,将组织对本话题感兴趣的朋友,深入研读相关文献,激发科研灵感。读书会为线上举办,每周由 1-2 名读书会成员领读相关论文。从2021年8月14日开始,每周六上午9:00-11:00,持续至11月。

在本周六上午9:00-12:00,北京师范大学系统科学学院教授张江会带来因果涌现读书会第12期分享,主题是「从自指到自指动力学」,本次报告将分三部分进行讨论。首先,讨论自指和因果涌现之间的关系是什么;其次,从图灵机可计算性理论的角度介绍自指及其重要性;第三部分介绍自指动力学的一些研究工作。最后,对未来待研究的主题展开展望和讨论。


本次分享涉及到较多未发表的工作,仅对读书会成员开放,如果感兴趣,欢迎大家扫码报名读书会。



本季读书会详情与报名方式请参考:因果涌现读书会启动:连接因果、涌现与自指——跨尺度动力学与因果规律的探索




推荐阅读



点击“阅读原文”,报名读书会

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存