每当在撰写论文时陷入困境,多梅尼科·马斯特罗迪卡萨就会求助于聊天机器人ChatGPT,它能在几秒钟内给出答案。马斯特罗迪卡萨是华盛顿大学医学院的放射学研究人员。他说:“它帮助我更快写出可以出版的文稿。”
承担写作工作
尝试用生成式人工智能撰写文章或代码的研究人员有很多,马斯特罗迪卡萨只是其中之一。他购买了ChatGPT Plus,每周使用它好几次。他认为,ChatGPT在提出更清晰的表达方式上尤其有用。虽然《自然》周刊的一项调查显示,定期使用大型语言模型的科学家仍是少数,但许多人预计,生成式人工智能将成为撰写文稿、同行评审报告和申请函的常规助手。
这是人工智能改变科学交流和出版的部分方式。科学出版公司已经尝试将生成式人工智能融入科学搜索工具,以及用其编辑和迅速总结论文。许多研究人员认为,母语非英语的人从人工智能工具中获益最多。一些人认为,生成式人工智能可以帮助科学家重新思考如何全面阐述和总结实验成果——他们可以让大型语言模型承担这方面的大部分工作。这意味着,科学家用于写作论文的时间大大减少,可以有更多时间做实验。
加利福尼亚大学伯克利分校的计算生物学家、《电子生活》期刊主编迈克尔·艾森说:“写论文从来都不是真正的目标——目标是搞研究。”他预言,生成式人工智能工具甚至可能从根本上改变科学论文的性质。
但人们对人工智能的不准确性和错误感到担忧,这将影响它发挥更大作用。大型语言模型仅仅会生成与输入信息的模式相符的貌似合理的答案,并不能输出准确的信息。出版商们担心,越来越多地使用人工智能可能导致更多质量差或错漏百出的文稿出现——甚至导致大量人工智能辅助撰写的假论文出现。
英国IOP出版公司主要出版物理学刊物。该公司同行评审工作负责人劳拉·菲瑟姆说:“任何类似的影响都相当令人担忧。”
拼凑注水论文
科学出版公司和其他一些人已经指出了生成式人工智能可能造成的一些影响。英国研究分析企业数字科学公司首席执行官丹尼尔·胡克说,人工智能工具的广泛应用可能会降低拼凑低质量论文的难度,甚至会破坏研究的完整性。他说:“出版商有理由担心。”
有些时候,研究人员承认,他们会让ChatGPT帮助写论文,但不事先说明。一些人之所以被发现,是因为忘了清理掉使用人工智能的蛛丝马迹。
理想情况下,出版商应该能够发现大型语言模型生成的文本。但在实践中,检测人工智能痕迹的工具尚无法在不误把人写的文章视为人工智能产物的前提下准确挑出生成式文本。
但是,对评审同行论文的人而言,大型语言模型可能是一个福音。马斯特罗迪卡萨表示,自将ChatGPT Plus当作助手以来,他得以评审更多同行的论文,因为大型语言模型可以为他写的评论润色。他说:“如果已经有了一份草稿,我就可以在几个小时内把它改好,不必花上几天时间。我觉得这个助手必将成为工具包的一部分。”
德国弗里德里希·席勒大学化学信息学研究员克里斯托夫·施泰因贝克发现,ChatGPT Plus非常好用,它能迅速总结他正在评审的论文预印本。
穆罕默德·侯赛尼是美国西北大学科研道德和完整性领域的学者。他说,大家担心的一个关键问题是,研究人员可能会不经思考,只依靠ChatGPT拼凑评论文章。如果直接要求一个大型语言模型去评审一篇文稿,它除了对文稿进行总结和提供修改建议外,多半几乎不生成任何有价值的东西。
泄密问题待解
围绕用大型语言模型来评审论文,早期的担忧主要涉及保密性。一些出版商禁止研究人员将论文文稿和部分文本上传到生成式人工智能平台以生成评审报告,因为出版商担心这些论文会进入用于训练大型语言模型的数据集,而这就违反了保密合同条款。今年6月,出于保密考虑,美国国家卫生研究院禁止使用ChatGPT和其他生成式人工智能工具来生成同行评审报告。两周后,澳大利亚研究理事会出于同一理由禁止在评审过程中使用生成式人工智能。
避免泄密的一个办法是使用私有化的大型语言模型,这样就可以确保数据不会被提供给第三方。亚利桑那州立大学正尝试建立私有化的大型语言模型。该大学的尼尔·伍德伯里说:“这是一个可以解决的问题。”
菲瑟姆说,如果能进一步搞清大型语言模型如何存储、保护和使用这些数据,那么就可以将这些工具整合到出版商已经在使用的审查系统中。威利-布莱克韦尔出版公司的发言人说,该公司正尝试用生成式人工智能帮助筛选文稿、挑选评审人以及核实作者身份。
伦理界限模糊
然而,一些研究人员认为,大型语言模型的伦理界限过于模糊,无法纳入科学出版程序。荷兰奈梅亨大学的认知科学家伊丽丝·范罗伊说,大家主要担心的是大型语言模型的工作方式:它搜索互联网内容时没有偏好或版权方面的考量。她还说,生成式人工智能“从设计上说就是自动剽窃”,因为用户并不知道信息的出处。她认为,如果研究人员更清楚地意识到这一点,他们就不会想用生成式人工智能工具了。
一些新闻机构已经阻止ChatGPT搜索它们的网站。有报道称,一些公司正在考虑提起诉讼。尽管科学出版公司还没有这样做,但威利-布莱克韦尔出版公司说:“一些行业报告和诉讼指控生成式人工智能模型无视现有限制措施,出于训练目的收集受保护的资料,本公司正在密切关注此类报告和诉讼。”这家出版公司还说,它已经呼吁加强监管,包括让大型语言模型的提供商承担保持透明和接受审查的责任。
侯赛尼认为,在特定学科,用科学文献训练大型语言模型可能是提高其输出内容的准确性和相关性的一个途径,但《自然》周刊联系到的出版商都说,它们目前还没有这样做。
英国布里斯托尔大学的杰玛·德里克以科研政策和文化为研究对象。她说,如果学者们开始依赖大型语言模型,另一个让人担忧的问题是,他们的表达能力可能会减弱。她还说,刚开始从事研究的人可能因此错过磨炼公正表达观点的能力的机会。
加拿大魁北克人工智能学院资深机器学习科学家帕特里克·米尼奥特说,生成式人工智能可能改变科研成果的发表和传播方式。他说,这可能意味着,研究成果将以一种可被机器而不是人类轻易解读的形式发表。他说:“将出现各种新的出版形式。”
在大型语言模型时代,艾森设想科研成果未来将以一种互动的、“按需”的形式出版,而不是一个模式固定的出版物。在新模式下,用户可以利用生成式人工智能工具询问实验内容、数据和分析结果,这将使他们得以深入探究一项研究中与自己最相关的方面。新模式还将使用户得到为他们量身定制的研究成果描述。艾森说:“我认为,我们将停止让单一陈述模式充当人类与科研成果之间的交流介质,这只是时间问题。”