8月17日消息,《福布斯》网站发表文章介绍了欧洲研究人员的CEEDs项目,该项目利用一种沉浸式、多模式的互动系统,通过虚拟现实技术,使用户能够“身临其境地体验”大数据。有趣的是,这一系统甚至能够参照被试者的潜意识,对可视化场景进行调整。
以下为文章主要内容:
当数据过多时,大脑理解起来就会有困难。如果人们处理的是庞大的数据信息,而不是单一数据,很难为这些数据归纳出有意义的、具有代表特征的模式。各种学科中,如天文、神经科学、考古学、历史或经济学,这种现象在都普遍存在:世界每一分钟会产生1700万亿字节的数据,相当于36万张DVD所能容纳的数据。我们如何理解这些海量数据呢?事实上,要理解这种数量级的数据人类几乎是做不到的,这是一项艰巨的挑战。单凭我们的大脑,哪怕在电脑的帮助下,我们也无力迎接这一挑战。或者勉为其难要去理解,则需花费过多的时间,结果也是徒劳。但如果我们用一种“移情”的方式呈现数据,这种方式更接近于平时我们认识世界的方式,那么会产生什么结果呢?欧盟CEEDs项目的研究人员正试图解答这一问题。
该项目在巴塞罗那的庞培法布拉大学创立了一种沉浸式、多模式的互动系统,即经验归纳机器(eXperience Induction Machine,简称XIM)。研究人员正尝试利用这种虚拟现实技术,使用户能够“身临其境地体验”大数据。
一旦用户开始佩戴XIM系统的虚拟现实耳机,集合数据会以不同形状或形式展现,这有助于降低理解数据的难度。而这种可视化场景如同镜子一般,能够随着用户的反应而发生改变。如果某些有趣的事物吸引了用户的注意,场景的焦点也会随之调整。
有趣的是,虚拟场景参考的不一定是用户有意识的反应。研究者正在寻找场景可随潜意识变化而变化的线索。当发生某事时,在大脑产生意识之前,身体通常已经觉察到了。
CEEDs项目计划使用可穿戴技术来测量人们对可视化后的大数据的反应。
XIM系统通过各种设备监控手势、眼球运动或心率。运动传感器对姿势和身体动作进行追踪。手套记录手部动作,以及测量握力和皮肤反应。语音设备检测用户说话时的情感特征。此外,系统对面部表情、瞳孔扩张和其它参数进行测量,以调整大数据的呈现方式。
伦敦大学金史密斯学院心理学教授、CEEDs项目协调人乔纳森 弗里曼(Jonathan Freeman)指出,当参与者对信息感到疲劳或负荷过大时,系统能够识别。在必要情况下,系统将简化可视化场景,从而降低用户认知的强度,或引导用户进入数据量较少的可视化场景中。
CEEDs项目涵盖的专业领域范围广泛。例如,莱顿大学利用XIM系统来改进希腊古城的虚拟重构效果。自2012年以来,该技术也用于德国的贝尔根 贝尔森集中营纪念遗址,目的是为了重现纳粹集中营的历史。
CEEDs项目的研究成果还可
应用于其他方面。例如,在国际机场建立虚拟零售商店;把非洲的土质和气候条件以可视化场景呈现,以协助当地农民提升作物产量。