ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
为自证没用ChatGPT,副教授被迫用GitHub写论文|Nature
2515点击    2024-02-08 19:10

辛辛苦苦手写的论文,却被审稿人鉴定为“一眼ChatGPT”而被拒收。


一位副教授的遭遇引发学术界关注,登上Nature专栏。


她决定从此以后每篇论文都在GitHub上写,用变更记录来证明自己的清白。



在文章中她根据自己的经历提出“AI在不刻意的情况下也能破坏科学”


ChatGPT仅仅通过自身的存在就破坏了同行评议过程。


这件事一传开,网友们立刻想到了这么一句话:


当人类没有通过图灵测试。



也有网友表示,自己也遇到过类似情况:

我把我的手稿给同事看,他说了一样的话。我当时就想“我写作水平提高了!”哈哈。



事件详情


论文作者名为Lizzie Wolkovich,是加拿大不列颠哥伦比亚大学森林与保护科学的副教授。


这次被拒收的研究工作有关“全球变化对生态群落的影响”。


Lizzie坦言自己并不擅长写论文,“和许多人一样,我发现写论文是一个有点痛苦的过程”。


为此,她表示自己研读了一堆写作指南,最后形成了自己的写作流程,大概是:先搞几个大纲,再动笔写初稿,写完之后紧接着是反复的修改。


她还把这套方法推荐给她的学生们,强调作为科学家能把复杂的想法表达得清楚明了是很重要的。


然而,当Lizzie提交了她精心打磨的论文后,却意外遭到审稿人的指控——被怀疑使用ChatGPT进行科研造假。


而且这种指控并非关于数据伪造。Lizzie表示自己的研究数据透明且可复现,无人质疑她在数据或结果上的真实性,但她投入不少努力的写作却被视为造假行为。


更令她没想到的是,期刊编辑也模糊地表示同意审稿人的说法,并认为“写作风格不寻常”。


面对这样的指控,Lizzie坚决否认,并决心证明自己的清白。


她指出,自己采用LaTeX纯文本写作,并使用Git版本控制系统,其修改历史可在GitHub上查证,包含了“终于开始写了!”、“又写了25分钟!”这样的细致的提交记录。


她还计划通过对比ChatGPT出现前后她的的论文风格来进一步证明自己,甚至考虑过询问ChatGPT以确认论文非其所写。


尽管已经有了多种自证清白的方法,Lizzie仍直言不讳地表示“真正想做的其实是愤然离场”。


被迫用GitHub写论文


文章最后,Lizzie用大篇幅文字表达了自己对于此事的看法。



其中指出AI虽然带来了便利,但也引发了一系列问题,通过自己这次的经历可以体现出AI单单是存在就有可能引发问题。


而科学研究需要基于信任和道德标准,建议科学团体应制定明确的AI使用规范,而不是在拿不出什么证据的情况下,打击作者。


并且她还提到,为了证明自己的清白,决定今后每篇论文都使用GitHub记录写作过程,以展示她的工作是独立完成的。


这也引发了不少网友的讨论。有人表示大模型带来的这个问题属“意料之外、情理之中”:


如果大模型能够满足人们的预期,其自然结果就是破坏了我们对任何书面内容的信任。这也就意味着,社会运作的又一基石将不复存在。




文章来自微信公众号 “ 量子位 ”,作者 西风



关键词: GitHub , chatGPT , AI写论文 , AI写作