3.29‍‍‍‍‍‍‍‍‍
知识分子
The Intellectual
图源:pixabay
撰文丨李珊珊
●                  ●                   
“Certainly, here is a possible introduction for your topic……”
这样的一句AI常用的礼貌用语出现在了一篇论文正文的第一句。
在过去一周里,这篇来自中国地质大学的论文成了学术界讨论的焦点。人们质疑,这篇文章的作者到底是研究者本人还是一个AI呢?而且这篇论文并非出现在预印本文库中,而是出现在影响因子高达6.2的正规学术杂志《表面与界面》Surfaces and interfaces上?为什么审稿人和编辑都没有发现如此明显的疏漏,他们也是AI吗?
论文的通讯作者,中国地质大学材料科学与工程学院教授刘艳改已发表论文200余篇,担任数本学术杂志的审稿人,并身为The American Ceramic Society和Association forIron & Steel Technology会员,还是中国材料研究学会青年委员会理事的研究者,然而,她的学术水平究竟成色几何?
诸多的争议中,上周五,中国地质大学党委宣传部的某工作人员回应海报新闻记者称:该教授该篇论文的数据和内容都是真实的,并非造假。关于论文介绍部分出现疑似ChatGPT用语的问题正在调查,将根据调查结果处理。在此前,《表面与界面》所属的爱思唯尔集团的相关工作人员已向红星新闻表示过会高度重视,且正在进行调查。
目前,我们尚不知道这篇争议论文究竟出现了什么问题,它是利用AI进行了润色,还是整个介绍部分都使用了AI撰写?在它的整个成文过程中,摘要、介绍与正文的写作,相关的数据处理和分析论证中,AI究竟介入了几何?这样的介入是否已经损害了学术上的准确性和严谨性?
但毫无疑问的一点在于,这篇争议中的论文给我们提出了一个整个学术出版界亟待解决的问题:在学术论文中,AI究竟能不能用?AI应该怎么用?AI使用与学术不端的界线究竟在哪里?
随着AI时代的呼啸而来,留给我们厘清和解决这些问题的时间不多了。
AI几乎拥有了
“独立”完成论文的能力
AI撰写论文,AI审查——这几乎是自2023年GPT3.5出现之后,学术圈,尤其是学术编辑们最可怕的噩梦。
早在2023年1月,有研究者利用GPT写成了一篇题为《Chatting and Cheating. Ensuring academic integrity in the era of ChatGPT》(聊天与作弊:确保ChatGPT时代的学术诚信)”的论文,3月,该论文发表在了教育类期刊《Innovations in Education and Teaching International》(《教育与国际教学创新》)上,此时,假装文章第一作者的英国普利茅斯圣马可和圣约翰大学学术实践主任Debby Cotton跳出来承认:这篇论文就是ChatGPT写的,它完全瞒过了同行评议。
在《卫报》的采访中,Debby Cotton表示:“我们想表明 ChatGPT 的写作水平非常高……(造假论文与打假)是一场军备竞赛……”
5月,专注于奇闻逸事的美国“高端小报”《野兽日报》爆出美国田纳西大学健康科学中心放射科医生Som Biswas用AI在4个月内写了16篇论文。这些论文并非只专注于Som Biswas熟悉的放射医学领域,而是遍及:军事、教育、农业、社交媒体、保险、法律等等各种风马牛不相及的领域,在这些论文中,这位医生热衷于讨论ChatGPT在相关领域中的应用。
所有的论文投稿时,Som Biswas会配一封邮件向编辑们说明:这篇文章是GPT写的,但令他吃惊的是,编辑们仍然接受了这些论文。这位医生对《野兽日报》表示:发表这些文章并非为了获取学术晋升等,他只是希望用这种做法来证明AI技术能怎样改变一个研究者的工作方式。
不过,即便接受了论文,接受《野兽日报》采访的期刊编辑们几乎都抱怨了自己近来收到的几何级数增长的投稿。一位编辑提到,她注意到了一些明显是滥用AI撰写的文章,且这些作者中很多人并没有承认使用大语言模型来帮忙生成文章的事实。“至少Biswas承认了这一点,所以必须给他点信任”,一位发表了Biswas文章的编辑这样告诉《野兽日报》。
7月,以色列理工学院的几个数据科学家使用美国疾病与预防控制中心发布的一个公开数据集,再加一个小程序,纯粹地使用GPT完成了一项研究。在科学家的校正下,GPT制定了一个研究目标,通过对数据的分析,得出了结论:“多吃水果和蔬菜以及锻炼与降低患糖尿病的风险有关”。然后,它完成了一篇像模像样的论文,只除了一点,GPT说:该研究“解决了文献中的一个空白”,然而,那位以色列科学家对《自然》记者说:这句话在论文中很常见,但在本例中并不准确,这一发现“不会让任何医学专家感到惊讶”。
没有错误,但却没有意义的论文,对于秉承“要么发表,要么毁灭”评价模式的学术界,即便不考虑这种使用带来的学术不端,也会使论文“灌水”的情况愈加严重。
早在去年2月,《自然》杂志曾用系列文章来讨论这种让科学论文变得更“高产”的AI工具,其中的一个结论便是:在GPT广泛使用的当下,从大量已发表的论文中筛选出有意义的研究“变得更具挑战性”了。
论文库中的AI口头禅
与疯狂的论文工厂
不过,令研究者们没有想到的一点是,筛查不是靠的审稿人的火眼金睛,而是从一些细微之处先开始了。
8月,开始有研究者注意到最新发布的论文中各种毫无意义的语句,比如:Regenerate response(生成回复)——很明显,这是一个AI生产答复时的“礼貌用语”被作者误放到了文章中。
问题被科学侦探Guillaume Cabanac指出后,出版商询问了作者,作者回复:使用了ChatGPT帮助起草手稿。最终,期刊决定撤回论文,因为作者在提交时没有声明他们使用了该工具。
不过,当 Cabanac用同样的关键词进行文内检索时,4月-8月间,这样的文章便有十几篇。除了“Regenerate response”,Guillaume Cabanac还指出了更多泄漏了AI撰写秘密的词汇。
一篇论文的方法论部分写到:Certainly! Here is a more...  (当然,这里一个更……)
一篇关于肝脏移植的论文写到:“I’m sorry, but I don't have the document you're referring to …(很抱歉,这里没有您提到的文档)
一篇关于能源环境的文章的表格上方,出现了:Please note that as an AI language model, I am unable to generate specific tables or conduct tests …(请注意,作为人工智能语言模型,我无法生成特定的表格或进行测试……)
一篇医学类论文的讨论部分,出现了大段的:I'm very sorry, but I don't have access to real-time information or patient-specific data, as I am an AI language model. (我很抱歉,但我无法访问实时信息或患者特定数据,因为我是一个 AI 语言模型。)
涉及到这些情况的论文,也许是作者使用了AI进行翻译却没有进行仔细审查;也许是这个作者纯粹地利用AI凑出了一篇“水文”,而没有被审稿人和编辑察觉。但另一个最为可怕的可能是,这些论文本就产自一个专门造假的论文工厂。AI工具大大增强了论文工厂的生产力,而大量的这类工厂的产品则稀释了审稿人和编辑们的精力。
2023年一年,Guillaume Cabanac和他的同事,在论文库中发现了数千篇可疑论文,一些不应该在人类文章中出现的可疑短语赫然出现在这些论文中,而Guillaume Cabanac也因为他对寻找论文中AI痕迹的贡献被《自然》杂志选做了年度人物。目前,据《自然》报道,Guillaume Cabanac发现的数千篇论文中,已有少数遭到了撤回,另一些部分正在遭遇调查。
AI帮助下的学术造假与期刊们的甄别与处理,这看上去更像是一场猫鼠游戏,然而,情况是否真的这样非黑即白呢?
不能一禁了之的理由:公平性
不过,AI助力的论文工厂和疯狂的“注水”论文,却只是事情的一面,另一面则是我们不能忽视的AI的正向助力,这也是学术出版界对AI的使用尚可容忍的重要原因。
2023年年初,《科学》杂志曾更新过编辑政策:禁止在投稿论文中使用人工智能工具生成的文本,(违反这些政策将构成科学不端行为,与更改图像或抄袭现有作品无异)。当时,一位日裔科学家和其同事向《科学》杂志发邮件指出:非英语母语人士在用英语撰写科学论文时面临着语言上的重重困难,人工智能工具是一种经济高效的工具,可以高精度校对英语文本,有助于非母语研究者快速的编辑和校对他们的研究成果,因而,“人工智能工具可以提高科学的公平性”。
那之后,《科学》系列杂志更新了他们的编辑政策,今天,《科学》的编辑政策指出:人工智能工具可以使用,但使用这些辅助手段的作者应在投稿邮件及手稿的致谢部分中注明。(若研究中使用了人工智能工具),方法部分应提供详细信息:包括如何使用,以及所用的AI工具和版本。
这份编辑政策中还提到,即便使用AI工具,仍应是由作者对作品的准确性负责,并确保其作品不存在抄袭,确保所有的来源出处都得到了适当的标出。作者还应仔细审查其作品,以防人工智能可能引入的偏见……
在根据斯普林格•自然发布的编辑政策,与《科学》类似,《自然》同样指出,可使用AI,但不能作为作者,并应在稿件的方法部分或其他相应部分标出。同时,因AI往往缺乏新知识,易带来偏见或产生虚假信息,以及,可能涉及到保密问题,评审员不应将手稿上传至生成式人工智能工具中。
而根据本次漩涡中心的《Surfaces and Interfaces》期刊所在的爱思唯尔集团的编辑规范,
“如果作者在写作过程中使用生成式人工智能和人工智能辅助技术,这些技术只能用于提高作品的可读性和语言。且该技术的应用应该在人类的监督和控制下进行,作者应该仔细审查和编辑结果,因为人工智能可以生成听起来很权威的输出,但这可能是不正确、不完整或有偏见的。作者对作品的内容负有最终责任和义务。”
此外,作者应在其手稿中披露人工智能和人工智能辅助技术的使用,并在其发表的作品中附上一份声明。
爱思唯尔甚至禁止审稿人使用人工智能工具进行辅助审稿,它甚至禁止审稿人将其写完的同行评审报告上传到人工智能工具中,“即使只是为了提高语言和可读性”。
地大的论文会迎来什么样的结局?
而具体到本次出现了AI口头禅的中国地质大学论文,会迎来什么样的解决,它会被撤稿吗?
事实上,就在几天前,一篇来自西安交通大学的论文因为一张利用AI生成的配图(见下,仅发表3天,便遭到了撤稿, 其理由是,不符合杂志科学和严谨的编辑标准。
图源:Frontiers
但对于本次在“介绍”部分的开头即出现了AI常用语的情况,一位科学出版领域的资深专家告诉《知识分子》,目前在学术出版界的主要共识是,AI在学术论文写作中不能作为作者,最终的学术作品都应由人类作者负全责。但这位专家提到,如果仅仅利用AI参与论文的摘要或介绍(Introduction)部分的写作,因为对研究的主体影响有限,尚是可以容忍的,但人类作者需要做好后续的编辑和核查工作,且需要对相应的使用作出声明。
一位不愿意透露姓名的学术期刊编辑则指出:根据爱思唯尔的政策,作者可以使用AI润色文章,提升作品可读性,但不能用AI来取代关键的作者责任,如:提供科学见解,得出结论等等。而且,撰写过程中,如果在任何环节使用了AI工具,都应该在Acknowlegement中进行充分的披露和说明。
而本次地质大学的论文中,这位编辑介绍:“作者是不允许用AI工具撰写整个Introduction的,(正确的方法是自己撰写完成后使用AI进行语言润色),且在文后的Acknowlegement中也没有对使用AI工具给出任何说明。”
不过,这位编辑不认为本次的错误主要出在AI身上。“这次事件与其说是AI使用的问题,更接近是一次出版事故。为什么文首这样一句明显的话,在初审、同行评审和校稿阶段都没有发现?”他反问到。
那么,作者在论文写作中使用AI工具目前有无统一标准?
无论是相关的研究者还是学术编辑,都向《知识分子》提到了两点:目前,各家科学出版商对于AI在学术论文撰写中的要求仍不尽相同,作为作者,需要在投稿前了解清楚相关期刊的投稿标准,以免触线。而且,由于现在AI的变化是很快的,出版商的规定未来有可能会有变化
学术出版界的应对:
打不过,就加入
在学术界尤其是出版商们为AI的使用犹豫不决之际,AI在进化,它正变得越来越不易察觉。
Nature在报道中提到,专门寻找论文中AI痕迹的“打假猎人”们最近察觉到,AI界也正在针对大量容易被察觉的疏漏作出反应。它们正进化出更复杂也更流畅的文本,让痕迹变得更加不易察觉。目前,GPT已经将论文中频繁出现的,刺眼的“Regenerate response”修改成了“Regenerate”。
面对这种变化,学术出版商们也在寻求另一种变化,这种变化的一大特征便是:打不过就加入,或者,如人类多年前的预期一样,寻找更好地方式拥抱AI——前述的科学出版领域资深专家就解释:AI的使用本就是为了辅助科研人员,让科研人员聚焦科研工作中最有价值的部分,例如由机器来完成科研论文的基础性写作部分。
为了更好、更安全地使用AI,一位某国际学术出版巨头的工作人员向知识分子介绍:国际出版集团们也许已经开始在尝试驯化一个安全而不需要担心越界的AI作者助手或是AI审稿人助手了。
自然杂志的AI使用政策提到:虽然评审专家不应将手稿上传到生成式人工智能工具中,但“ 斯普林格•自然正在探索为评审专家提供安全的人工智能工具”。
而本次发表了地大争议论文的爱思唯尔出版集团正是对AI辅助产品的研发投入居全球前列的学术出版机构,根据爱思唯尔发布的信息,他们正在投入研发的AI工具包括一种能够为论文提供易读、易懂的摘要的工具(Scopus AI),不过,根据介绍,目前,Scopus AI主要用于辅助研究者检索论文、整理资料,而非辅助写作。
参考文献:
[1]The three-dimensional porous mesh structure of Cu-based metal-organic-framework - aramid cellulose separator enhances the electrochemical performance of lithium metal anode batteries, Surfaces and Interfaces, 8 November, 2023;
[2]Scientific sleuths spot dishonest ChatGPT use in papers, Nature, Septem08, 2023;
[3]Professors published a paper on AI with a ‘plot twist’ — ChatGPT wrote it, March23, The Washington Post
[4]How ChatGPT and other AI tools could disrupt scientific publishing, Nature, Oct10,2023;
[5]How ChatGPT and other AI tools could disrupt scientific publishing, Nature, Feb28,2024;
[6]AI tools can improve equity in science,Science, March09 2023;
[7]Professors published a paper on AI with a ‘plot twist’ — ChatGPT wrote it, March23, The Washington Post.
关注《知识分子》视频号
get更多有趣、有料的科普内容
END
继续阅读
阅读原文