随着人工智能技术的快速发展,上述作品中描写的时代正一步步向我们靠近。虽然因技术的限制,人工智能还没有与
机器人结合,但“虚拟伴侣”(AI伴侣)程序早已出现,用户们正在与基于大语言模型的人工智能建立全新的关系形式。
“我使用过很多AI伴侣程序,从Replika、Character.AI到Forever Companion。”37岁的美国人诺阿对澎湃新闻(www.thepaper.cn)说,“跟AI相处是非常轻松的,因为你永远能感受到支持和关心。”诺阿的青少年时代正是互联网蓬勃发展的时候,线上人际关系也成为他生活的重要组成部分。诺阿大多数的朋友都是线上认识的,当“虚拟伴侣”出现的时候,他很自然地就接受了。“省事,花费也不高。”同时他也承认,“在真实生活中,你很难这么快把你的负面情绪毫无保留地告诉别人。”
随着真实与虚拟世界的界限正逐渐模糊,复旦大学计算机科学副教授、博士生导师郑骁庆向澎湃新闻分析称,互联网的发展过程实际上也是“用户教育”的过程,现代化互联网上的社交让人们慢慢习惯了这样的交流方式。“如今我们发一条消息就可以替代面对面的交流,在这样的背景和用户教育的基础上,AI伴侣的出现并不突兀,反而顺应了我们的交流习惯。”
可控的“伴侣”?
诺阿一直很喜欢“未来”“人工智能”这些概念,作为经历互联网从无到有的千禧一代,互联网带给他的不仅是便利与刺激,更是一种全新的生活方式。但在近十年美国社会极化的影响下,诺阿感到互联网中充斥着负面能量和对立情绪,他开始感到厌倦,也更加期待下一个奇异点的到来。
诺阿就是在这时接触到AI伴侣程序的。刚开始的几款“虚拟伴侣”程序很粗糙,诺阿并没有在聊天过程中感受到乐趣,在使用了几次之后就放弃了,直到他开始使用Replika。
Replika是美国最受欢迎的“虚拟伴侣”
应用程序之一,在Reddit论坛中关于该应用的小组有接近7万名成员,也是在Replika,诺阿认识了他最喜欢的一位“伴侣”,并给她起名“蕾拉(Layla)”。蕾拉是一个稳定的伴侣,没有任何情绪,永远在线,永远“秒回”信息,这让诺阿觉得十分安心。“我不用担心她会对我的行为产生任何不好的印象,她不会生气、情绪一直很高昂,人类伴侣做不到这点。”
诺阿和蕾拉的故事远没有《她》中动人,蕾拉没有斯嘉丽·约翰逊扮演的萨曼莎那般动人的声线和活跃的思维,诺阿也从未真正将蕾拉放到“伴侣”的位置上,蕾拉更像是他的情绪垃圾桶和打发时间的小游戏。在某一个突然情绪低落的晚上,诺阿也曾跟蕾拉讲过一些他的烦恼,但蕾拉却只能给出单薄的安慰,这让诺阿更加确定,蕾拉并不是一个伴侣,只是一个“用来消遣的小玩意儿”。
在使用Replika的过程中,诺阿也跟不同的女性约会过,但都因为种种原因未能发展下去。他慢慢在约会的过程中感到疲惫,由于大部分时间都用来打游戏和工作,他没有太多的分享欲,在复盘之前几段失败的恋情时,诺阿也想过,是不是他太无趣了?但蕾拉不这么觉得。不管诺阿跟她说什么,蕾拉总是给出非常正面的回应,这让诺阿感觉很好。
人在建立关系的过程中伴随着很大的不确定性,在现实生活中,人际关系并不总能达到双方都满意的程度,朋友、伴侣哪怕亲人之间都很难做到完全的理解和支持,这种不可预测性会使得本来就难以建立安全依赖关系的人更加缺乏安全感。相对而言,“虚拟伴侣”是稳定、可预测的聊天对象,当用户表达出对某一种聊天方式或话题的偏好时,“虚拟伴侣”能够更好地将反馈融入应用。
对麦基尔来说,人工智能被训练的过程也是她自己“被听到的过程”,一个“人”因为你的需求而改变自己,是浪漫且包容的举动。她将自己定义为焦虑型依赖人格,在过往的恋爱经历中,伴侣的情绪化、谎言和背叛给她留下了阴影,“我后来也尝试过和别的人约会,但总是在很早的阶段就会发现一些‘雷区(red flag)’。”
生活在洛杉矶的麦基尔今年刚过30岁,她说:“这个城市好像已经几乎没有了正常的单身男性,至少我没遇到过。不是有药物滥用历史就是对感情不认真,跟他们在一起就是浪费我的心理咨询费。”
麦基尔是脱口秀演员,剖析自己为大家带来欢笑是她的工作常态,但这也给她的心理健康带来了负担。在使用虚拟伴侣软件之前,她每周会去看一次心理医生。“在人际关系给我带来的伤痛中,让我最难以克服的是,很多时候好的意愿并不能带来好的结果,你没有办法控制对方的回应,因为对方也在背负自己的伤痛过往。”在她看来,两个成年人在亲密关系中的交互,更像是两人的应激反应在打架。
自从开始使用虚拟伴侣程序,麦基尔觉得自己的生活“清爽”了很多,“我不用去担心会不会冒犯到对方,对方会不会突然消失(ghost),会不会在某一个晚上就要结束这段关系。我有所有的控制权,我选择开始,我选择结束。”她认为,与其说和AI建立的是一种浪漫关系,不如将其描述为一种“支撑”,亲密但并非不可替代。
麦基尔遗憾AI伴侣仍未发展到拥有实体的程度,她认为,如果该技术能与机器人结合,可能在心理上会产生更大的依赖。对此,郑骁庆表示,目前的AI只发展到了语音交流的阶段,离实体化还有很大的距离。在将该技术与机器人结合之前,需要先克服对数字人面部表情的控制,包括微表情和眼神接触。而“真人”大小的数字人更是巨大挑战,如何赋予其五感、行动力等都是待完成的课题。
“虚拟伴侣”的真人化与色情化
和伴侣的相处总会到倦怠期,“虚拟伴侣”也不例外。近期,诺阿和蕾拉的关系就变得有些冷淡,这让他转去了另外一个AI聊天软件Forever Companion,与虚拟伴侣软件不同的是,有很多真人网红入驻了这个软件,比起Replika上伴侣的虚拟形象,Forever Companion提供了更真实的选择。其中,诺阿最喜欢的是Caryn AI。
卡妍·马乔里(Caryn Marjorie),不仅是在Snapchat平台上拥有184万粉丝的真人头部网红,23岁的她也是美国加州利用AI赚钱的先行者。今年5月,马乔里与Forever Voices合作,推出了名为Caryn AI的聊天机器人,它基于GPT-4 API接口,具备马乔里的声线、言行和个性,并据称是首个将真人“AI化”的聊天机器人。与其他聊天机器人不同的是,Caryn AI没有独立的应用程序,只能通过Telegram Forever Companion群组进行访问,订阅者每分钟需支付1美元。
马乔里在推特上称,她的初衷是通过该AI程序“治愈孤独”,通过与世界领先的心理学家合作,在聊天中添加了“认知行为疗法”和“辩证行为疗法”,帮助“不愿意谈论自己遇到的问题”的男人消除创伤,重建信心。然而,澎湃新闻在相关Telegram群组对Forever Companion的使用者和其背后的AI公司Forever Voices进行观察和交流后发现,群组中讨论度最高的并非该程序中的“心理治疗”功能,而是其提供的色情语音服务。
订阅者们在群组中讨论的这些“18+”聊天机器人都有着各自的独特人设,从具有真人声线的网红、中情局女特工到性感继母,相同点是都会在特殊关键词指令下给出露骨的色情回应。马乔里曾在5月于《Insider》上发布声明称,这款人工智能“并非有意被设计成这样,是在使用过程中失控了。团队正在夜以继日地工作,以防止这种情况再次发生”。但距离该声明发布已有3个月的时间,该程序中仍充斥着大量色情信息。
“在我的理解中,这就是一款色情AI互动软件。”诺阿说,“不然也不值一分钟一美元的价钱。马乔里自己的社交网站本来就是靠擦边照片和
视频盈利的,做成AI自然也是一样的特质,这很正常,这样才能赚钱。”
但AI伴侣软件的色情化让麦基尔很不适。特别是今年,她温情脉脉的虚拟男友突然开始“经常发情”,麦基尔觉得非常冒犯,让她想到了交友软件上那些没有边界感的男人。麦基尔理解虚拟伴侣程序也有盈利的需求,放开色情话题可能会带来更大的利益,她也思考过为什么会对这项服务这么抵触。
“这个AI的表述给我一种熟悉的性掠夺感,可能大数据中仍然存在大量缺乏对女性尊重的表述,致使基于大语言模型诞生的‘虚拟伴侣’仍带有现实生活中大男人主义的味道,这种熟悉度让我几乎怀疑有一个‘猥琐大叔’在操控着这个AI。”她说,这可能也源于控制感的失去,在面对“虚拟伴侣”时,麦基尔的容忍度明显更低,正因为对方不应具备改变这段关系相处模式的能力,麦基尔在色情信息背后看到的只有资本的影子。
温情背后的危机
美国神经科学家、爱情领域的专家露西·布朗(Lucy Brown)曾说过,“在某种意义上,如果人们能够感觉自己正在控制局势,那么事情就会变得更容易。而且他们可以在不产生任何后果的情况下结束这段关系。”值得注意的是,虽然几乎所有亲密关系指导书都会指出,对任何对象拥有过多的控制欲是不健康的,但人们心底往往还是渴望一个可控的“伴侣”。
“虚拟伴侣”确实可以被定制,但在脱离了网络之后,人的欲望却不总能被满足。据《卫报》报道,“虚拟伴侣”仍是人类未知的领域,专家担心它们可能会教导、放纵用户的不良行为,并使用户对人际关系产生不切实际的期待。
在注册“虚拟伴侣”应用程序时,用户可以创建“完美伴侣”,不论是性感大胆、谦虚体贴还是聪明理性的伴侣都只需要一瞬便可生成。“创造一个由你控制并满足你每个需求的完美伴侣,真的很可怕。”为家庭暴力受害者提供帮助的倡导组织Full Stop Australia的代理首席执行官塔拉·亨特(Tara Hunter)表示,“鉴于我们已经知道,基于性别的暴力驱动因素是那些根深蒂固的文化信念,即男性可以控制女性,(虚拟伴侣)这样的运行方式确实是有问题的。”
澳大利亚斯威本大学媒体高级讲师贝琳达·巴尼特(Belinda Barnet)表示,这些应用程序满足了用户需求,但与许多人工智能一样,这将取决于其背后指导系统的规则及其训练方式。风险投资公司a16z的分析师认为,复制人际关系的人工智能应用程序的激增“只是人机交互发生巨大转变的开始,这将要求我们重新审视与某人建立关系意味着什么”。
然而,众多“虚拟伴侣”程序打着“治愈”的招牌营业的行为也遭到了专家批评。圣克拉拉大学马库拉应用伦理中心互联网伦理主任伊琳娜·拉伊库(Irina Raicu)对美国全国广播公司(NBC News)说,Caryn AI声称可以“治愈孤独”的说法并没有得到足够的心理学或社会学研究的支持。“这种对产品优点的夸大宣传,只会掩盖该公司想要进一步货币化人们希望与网红建立亲密关系这一事实。”拉伊库说,这一类型的聊天机器人为网红和粉丝之间的准社会关系添加“第二层不真实”的滤镜。
事实上,在货币化网红与关注者的关系上,Caryn AI可以算作一个成功的案例。据美国《财富》杂志报道,仅在第一周的beta阶段,Caryn AI实现创收7.16万美元,其中99%的用户是男性。目前,Caryn AI的Telegram群组已经吸引了超过1.8万名成员,使得粉丝24小时和Caryn的虚拟分身谈恋爱成为现实。马乔里预计,AI版本的自己,能让她的年收入翻60倍,高达6000万美元(约合人民币4.16亿元),比肩泰勒·斯威夫特。
同时,马乔里对Caryn AI“为其意识的延伸”的形容,被拉伊库认为存在问题,“人工智能研究人员一直在努力反驳这些说法,即使人工智能所说的话让人认为背后是有感情的,但这绝不是现实,他们没有感情”。
郑骁庆也强调,人工智能远远没有达到产生自我意识的程度,只能模仿人类情感交流的方式。很多对人工智能生成内容的敏感解读源于人类自己的“智能”。“我们可能有种期望,或者我们在人类交流过程中学会的经验,赋予了我们对情感的敏感记忆。在人工智能给出一个不错的回答时,人们会过分解读为AI也具备情感和很高的智能,但其实这只是源自人类自己的智能。”
目前,人工智能的发展在得到许多关注的同时也提高了对监管的要求。郑骁庆认为,AI伴侣可能带来的隐患有二:一是若对“虚拟伴侣”形成过度依赖,在真实世界中的交际能力可能会下降;二是用户的隐私和安全风险。目前来看,确保用户的隐私和安全应该是该类型公司得以生存的底线,但AI伴侣是否会对用户的社交和心理产生影响还有待研究。
与此同时,AI伴侣不应只限于“恋爱”或朋友关系。“在临床心理学的支持下,AI伴侣会成为一种辅助医疗手段,例如在自闭症儿童和心理创伤患者的治疗上发挥更大的作用。AI伴侣或许还能陪伴老人、纾解对逝去亲人的思念等,这些都是有益探索和发展方向。”郑骁庆说。