新闻详情

用AI写论文的情况,可能比想象中更普遍|Landing AI

跟着生成式AI东西的日益遍及,它在科研场景中的运用也越来越常见。

从一开端的言语润饰和结构优化,到现在直接参加阶段生成,先不说正确程度怎么,如咱们所见,AI正在走进更多的学术写作进程之中。最近宣布在《Nature Human Behaviour》上的一项

研讨

,初次以大规模计算办法量化了这一趋势。

研讨团队剖析了2020至2024年间超百万篇科学论文,要点调查了摘要和导言部分的言语特征,寻觅由大言语模型(LLM)生成或修正的痕迹。成果显现,到2024年9月,计算机科学论文中已有22.5%的摘要或许经过了AI处理,电子工程为18%,计算学12.9%,在生物医学、物理、数学等范畴也都检测到显着增加。不同学科的运用率差异,或许与研讨者对AI东西的了解程度有关。

研讨团队并未直接运用现成的AI检测东西,而是自行练习了一个根据词频计算的辨认模型。具体来说,他们先从ChatGPT面世前的论文中提取阶段,让LLM对其进行摘要,然后再根据摘要提示模型生成完好阶段。经过将原始阶段和AI生成阶段进行比照练习,模型逐步学会辨认某些特定词汇在AI文本中的高频特征,例如“pivotal”“intricate”或“showcase”——这些词在传统学术写作中极为罕见,却常呈现在AI生成内容中。终究,这一模型被用于剖析超越112万篇论文的摘要与导言,以判别其间或许存在的AI写作痕迹。

曩昔两年,关于AI介入科研写作的评论一向没有中止。一些前期事例中,论文甚至包括比如“regenerate response”“my knowledge cutoff”这类AI专属术语,引发广泛重视。有研讨者还专门树立数据库,记载这些可疑文本。尽管不少期刊已出台相关规定,但从这项研讨的数据来看,AI运用仍在不断增加。

与此同时,AI写作的“隐蔽性”也在增强。一项2023年的试验标明,即使是专业研讨人员,也有三分之一的情况下无法辨认由ChatGPT生成的医学论文摘要。加上运用者有意躲避“高危词汇”,让内容看起来更像人类编撰,使得外部辨认变得愈加困难。

除了人工辨识的局限性,也有研讨企图经过言语形式的细小改变来勘探AI写作的痕迹。德国图宾根大学的数据科学家 Dmitry Kobak 领导的一项研讨,近期宣布于《Science Advances》,即选用“过量词”(excess words)的办法,对PubMed数据库中2010至2024年间录入的超越1500万篇医学论文进行了剖析。团队发现,在ChatGPT发布之后,一些本来罕见的词汇频率明显上升。研讨成果显现,2024年宣布的生物医学研讨摘要中,大约七分之一或许由AI参加编撰。

这种改变也带来了一些结构性忧虑。跟着越来越多论文在引证、总述和导言部分依靠AI生成,或许导致言语风格趋同,内容原创性下降。更久远的危险在于,假如未来练习新的言语模型时所运用的语猜中,混入很多由AI生成的内容,或许会构成反应循环,影响模型质量。

不过,也有学者测验从另一个视点了解AI的潜力。斯坦福大学的研讨者正在谋划一次由AI担任写作和审稿的会议,期望查验AI是否具有提出问题、生成研讨办法甚至构成新观念的才能。这种试验既是探究也是打听,或许会呈现意料之外的亮点,也不免随同一些荒谬的过错。

不可否认的是,AI写作正在成为科研的一部分。从写摘要、查文献到初稿生成,它逐步融入了研讨者的日常东西箱。在功率提高之外,也带来了新的标准应战。对整个学术出书体系而言,AI写作正在以一种缓慢但继续的办法融入科研流程——正如此次研讨的联合作者James Zou所说:“不管好坏,大言语模型正在成为科学研讨进程的一部分。”而这种改变,仍在进行中。

封面来历:

Levart_Photographer

on

Unsplash

← 返回新闻列表