ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
ChatGPT们,正在污染学术圈
5939点击    2024-08-01 11:11

智东西7月31日消息,根据顶级学术期刊《自然》(Nature)昨日报道,生成式AI在学术写作中的使用已迎来爆发式增长。相关研究显示生物医学领域最大数据库PubMed上10%的论文摘要都有AI写作嫌疑,相当于每年15万篇论文中都有AI的参与。 


德国柏林应用科技大学的研究表明,主流AIGC检测工具的平均准确率仅有50%,还很容易将人类写作内容判定为AI生成。而不少AI生成的论文却能轻易地通过转述、同义词替换等方式瞒天过海。此外,英语母语者的AI工具使用更难被检测出来。 


虽然AI工具此前就在学术界广泛应用,但利用生成式AI直接输出论文或者代笔写作仍引起争议。AI工具让剽窃行为更容易了,还有可能造成版权内容的滥用。 


AI辅助写作并非一无是处,不少学者因为使用生成式AI辅助写作而避免了用不熟悉的语言发表论文的麻烦,能将精力专注于科研本身。有不少期刊都允许了生成式AI工具的使用,但要求作者必须在论文中详细披露使用情况。 


01 AI可能参与15万篇摘要写作非英语母语者更易被发现


自ChatGPT于2022年底发布以来,AI在学术写作中的使用呈爆发式增长。来自德国图宾根大学的研究显示,2024年上半年生物医学论文中至少有10%的摘要使用了AI进行写作,按年计算约为每年15万篇论文。 


这一研究团队分析了2010年-2024年生物医学领域数据库PubMed中1400万篇论文的摘要,他们发现以ChatGPT为代表的生成式AI工具的出现后,特定修饰性文体词汇的使用量出现异常的激增。研究团队用这些词汇的出现频率估计了使用AI写作的摘要的比例。 


研究人员还发现,AI写作工具的使用在不同国家间也有差异。他们的数据显示,来自中国和韩国等国家的论文使用AI写作工具的频率比英语国家的论文更高。 



据该研究团队分析,英语国家的论文作者使用AI的频率可能也和其它国家接近,但他们的使用方式可能更难以发现。 


其实在这波生成式AI浪潮出现之前,AI已经在药物发现、蛋白质结构预测等领域投入使用,这些使用并未引起过大的争议,其背后原因可能是在这类应用中,AI很明显扮演的还是辅助的角色。 

生成式AI在学术写作中的应用带来了两大问题。一方面,剽窃因生成式AI而变得更容易了。剽窃者可以让生成式AI用学术期刊的风格转述他人研究,而转述后的文本与原文相似程度一般都较低,因此很难被判定为抄袭。 


此外,AI模型在训练过程中消耗了大量版权内容,而模型极有可能将版权内容在没有任何提示的情况下输出给用户。《纽约时报》就曾发现OpenAI的AI聊天机器人ChatGPT曾直接输出过《纽约时报》报道中的原话,并未标注来源。他们也因此起诉OpenAI侵权。 


02 猫鼠游戏中检测工具落败可轻易规避还容易误判


为应对日益泛滥的AI工具使用,有不少企业推出了AIGC内容检测工具,但这些工具在和生成式AI的“猫鼠游戏”中纷纷落败。 


去年年底,德国柏林应用科技大学的几名学者发表研究,他们发现学术界中经常使用的14种AI检测工具中只有5个实现超过70%的正确率。而平均识别正确率仅有50%-60%。 



这些AIGC检测工具在面对人工编辑、机器转述后的AI生成内容时表现更差。仅需经过同义词替换和调整语序等简单操作,AIGC检测工具的正确率就将降低至50%以下。研究认为AIGC检测工具的综合识别准确率仅有50%。 

▲图中05、06分别为AI生成后人类编辑和机器转述后的文本,AIGC检测工具在这两类文本上的表现很差(图源:Weber‑Wulf et al. )

数据显示,市面上的AIGC识别工具在识别人类写作论文时的准确率很高。但如果作者先用自己熟悉的语言撰写原创论文,然后让翻译软件翻译为另外一个语言,就有可能被识别工具误判为AIGC。这可能对学者和学生的学术声誉造成极为负面的影响。 


03 辅助写作与学术不端界限模糊AI写作工具也有其价值


不过,生成式AI工具的使用确实给部分研究者带来了便利。利雅得沙特国王大学(King Saud University)的信息技术研究员亨德·哈利法(Hend Al-Khalifa)分享道,在生成式AI工具出现前,许多不精通英语的同事在论文写作时都面临很大的障碍,而现在,这些学者可以专注于研究本身,不必再写作上耗费太多时间。 


AI辅助写作与学术不端行为之间的界限很难划定。马里兰大学计算机科学家索海尔·费兹(Soheil Feizi)认为,使用生成式AI来转述现有论文的内容显然是抄袭。 


但使用AI工具来辅助表达观点的行为不应该受到惩罚。在主动披露AI工具使用的前提下,研究者可以使用详细的提示词生成文本,或是利用AI工具编辑草稿。 


多本期刊也规范了AI工具在学术写作中的使用,并未直接禁止。顶级学术期刊《科学》(Science)规定AI不可被列为合著者,而作者应披露所使用的AI系统和提示词,并对内容准确性和是否涉嫌抄袭负责。 



学术期刊《自然》则规定研究者应该在“研究方法”部分记录生成式AI工具的使用。统计数据显示,截至2023年10月,100本排名靠前的期刊中,有87本都制定了使用生成式AI工具的指南。 


04 结语:AI工具并非洪水猛兽改变学术导向才能治本


在刚刚过去的大学毕业季中,有不少国内高校也在毕业论文答辩和评审过程中引入了AIGC检测工具。然而,这一指标的引入并未有效遏制与AI工具相关的学术不端行为。市面上还出现了专门降AI率的各种服务,在被误判为AI生成后,不少学生的论文因降AI率而变得面目全非。 


对学术研究中的生成式AI工具采取对抗性态度或许很难根治这一问题。来自德国柏林应用科技大学的学者在总结研究时也强调,AI在学术写作中的滥用问题光靠AIGC检测很难完成,调整以论文和结果为导向的学术风气才是解决这一问题的关键。 


本文来自微信公众号“智东西”,作者:陈骏达


关键词: AI , chatGPT , AI学术 , AI论文 , AI写作
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0