很多时候,做梦使我们快乐。在睡眠状态中,繁杂的视觉和听觉片段混杂在一起,构成荒诞又情节丰富的梦境。零散的真实回忆穿插在逼真的虚构场景中,有些出场人物我们原本就认识,有些是凭空想象。
我们有时沉浸于梦境的美妙,有时又不得不在梦里直面内心深层的恐惧。然而,睡眠和梦境并不仅仅是为了丰富我们的夜间生活而存在的。
我们睡觉的时候,大脑正在忙于过滤清醒时收集到的信息。神经活动开始进入工作状态——丢弃无关信息,加固重要信息,建立和存储记忆。
这套高效的工作机制普遍存在于哺乳动物之中,近期一个来自意大利的研究团队对它进行了数学建模,并
应用在了人工智能领域。
他们创造出了一套可以强制命令人工网络进入离线睡眠状态的算法。在睡眠状态的时候,人工网络可以加固重要记忆,抹除无关信息,从而拓展信息存储容量。
Adriano Barra 是意大利萨兰托大学的一名理论物理学家。我们在交谈的时候,他始终言词恳切、兴致盎然,不停地摆弄着一盒万宝路香烟,拿它作为一个临时道具跟我说明 A.I。(artificial intelligence,人工智能)的细节问题。
Elena Agliari 和 Alberto Fachechi 是 Barra 的同事,他们三个人一起研究了很多复杂的生理系统,并将它们的神经生物学过程转换为数学模型,例如大脑。
“跟工程师相比,我们搞理论物理学的有一个很微弱的优势,” Barra 说,“数学是放之四海而皆准的,使用它也不怎么花钱,所以我们可以把我们的研究结果直接应用在人工智能领域。我们可以起到在神经生物学和工程学之间搭建桥梁的作用。”
人工神经网络的经典模型是 Hopfield 模型,由 JohnHopfield 于 1982 年提出,它描述了人工网络如何通过模仿真实的大脑机制(如模式识别)来学习和检索信息。
Hopfield 模型运用了一个十分出名的学习法则,叫做赫布型学习(Hebbian Learning)。赫布型学习解释了神经元之间的突触强度在学习过程中是如何增加的。
然而这个模型是有缺憾的。Hopfield 模型是二十多年前提出来的老模型了,并且它只能储存有限量的数据。用数学来表示的话,这个对称网络的最大存储容量仅为 α~0.14。但是理论上,容量最大可以达到1,或者 α=1。
一个神经网络的存储容量是由它包含的神经元数量 (n) 来决定的。每一比特的信息(比方说一个数码像素),都是一个单独的信息图式 (p)。Barra 指出,“这里最多能存储的信息图式的数量,也就是 p,等于0.14倍的 n ”。
那么,为什么实际能存储的信息量比理论值少了那么多?为什么系数是0.14而不是1呢?
神经网络在唤醒(在线)状态时,始终不停地在接收新的信息图式。然而除了有用的图式之外,无关的、甚至错误的图式也会一并被收集起来。
“你原本是想让神经网络去存储一些重要的信息,但是它会把错的也给你存起来,”Barra说,“这没办法避免。这都是自发生成的。”
Barra 拿起了万宝路,又拿了一包骆驼牌香烟来类比,“如果你不停地存储关于这两包香烟的细节信息,比如说骆驼牌是蓝色的,万宝路是红色的,与此同时,你实际上也在接收所有的冗杂无关信息,最终你的神经网络就会卡死。”因为充斥着大量的无关和错误信息,所以实际最大容量只能达到0.14这个水平。
虽然有限的存储容量并不会干扰 A.I。 处理一些具体任务,但是宝贵的空间就这样被无效数据霸占着,既浪费又低效。
为了解决这个问题,这个来自意大利的研究团队提出了一种算法,它可以强制命令神经网络像哺乳动物一样进入睡眠(离线)状态,并且在睡眠中稳固重要信息,清除无关信息。
“这跟睡眠是息息相关的,”Barra说,“因为如果你不设法解决掉这些无效的内容,它们越来越多,神经网络最终会失去分辨万宝路和骆驼香烟的能力。”
哺乳类动物的大脑也在时刻不停地收集信息,但就像只知道一股脑抛网的渔船一样,有用的和没用的都会被捞上来。哺乳动物的大脑里也塞满了无关紧要的东西。
“醒着的时候,你会被动地接收很多信息,实际上你根本不需要,你也不想把它们记在脑子里,”Barra解释说,“我们同样会加工出无效和错误的信息图式。我们解决这个问题的方法,就是睡觉。”
做梦一般发生在快速眼动睡眠阶段(Rapid Eye Movement, REM),在这个阶段我们的大脑正忙于抹除无关的记忆,为存储新信息腾地方。在慢波睡眠阶段(Slow-wave, SW),重要记忆会被巩固强化。
虽然大多数时候做梦都是发生在 REM 阶段,但是在慢波睡眠阶段我们也可能会做梦,只是这些梦往往很模糊,也更难回想起来。
研究团队已经知道哺乳动物的大脑会高效地在睡眠期间清除缓存,释放空间。他们对这一事实的分析,是算法诞生的起点。
“我们当时商量说,好,那就过一遍所有对这个现象进行解释的神经生物学的文章,然后试试把它用数学模型表达出来吧,”Barra 介绍说,“随后我们开始想,如果把这个数学结构应用在 Hopfied 模型上会怎么样?”
他们的成果发表在了4月份的《神经网络》NeutralNetworks 杂志上。根据这个新的算法框架,人工神经网络在标准在线(唤醒)模式时,会持续学习和存储信息图式(即记忆);但当存储容量到达0.14的水平时,神经网络会强制进入离线(睡眠)模式。
在睡眠模式中,无关信息会被删除,重要信息会被进一步稳固,或者用更专业的话来说,就是“伪图式移除(spurious-pattern removal)和真图式强化(pure-pattern reinforcement)。”
研究团队发现通过实施离线模式,存储空间得到了释放,并且系数可以达到理论值1。
进化促使哺乳动物的大脑自行发展出了一套赖以生存的标准,并以这个标准为依据来决定什么样的信息要加强,什么样的要被剔除。但是人工神经网络需要人类来规定这个标准。
“它们(神经网络)离不开人的授意,所以我们必须得告诉它‘这个很重要,你要留意;那个是不重要的’,”Barra说,“它们没有‘重要’这个概念。”
此外,还有一些技术上的差异。举个例子,对于人类的大脑来说,清除信息和加固信息分别发生在两个独立的睡眠阶段(REM和SW);然而神经网络是在睡眠状态同时进行这两项任务的。
也许人类睡眠和机器睡眠最重要的区别,是在于我们有绝对的自主权决定要不要睡觉或打个瞌睡。人工神经网络睡不睡觉则完全听命于数学算法;当然了,它们也不用盖温暖的小被子。
既然全新的体系框架已公布于众,Barra 的工作也就结束了。“我是一个理论物理学家,我的任务是用数学打下基础,”他这样讲道,“现在该轮到工程师们去实现它了。”他或许可以安心地睡上一觉了,就像未来的人工神经网络一样。