通过 RACHEL MEISTER KO。 弗莱塔格*
研究的诚信是通过培训意识到自己的角色并对自己的实践负责的科学家来建立的。
科学家的刻板印象是这样一个人,他不知从哪里冒出来,立即成为改变人类的事物的创造者。 至少对于某些知识领域而言,没有什么比现实更离谱了。 科学不是单一的个人成就的结果。 也许这个故事只是重现了成功的尝试,暗示了一条线性和平的道路。
也许有天才,也许有这样做科学的人。
这不是我的情况。 我的出发点是科学是集体协作的工作。 没有科学家,有一群科学家聚在一起做科学。 工会可以在实验室,也可以在咖啡馆或酒吧。 正是这些相遇、观点和不同的观点促进了科学的进步。
我是那些从事集体科学的科学家之一。 不仅仅是集体的事情,我发现我在做伟大团队的科学。 一群非常非常大的人致力于一项事业或研究问题。 在这种做科学研究的方式中,作者身份的概念——被理解为一种独特的和个人的表达——失去了它的意义。 这就是为什么我们谈论合作,而不是作者身份。 有协作分类法的建议(其中之一是 贷方) 承认每个从事发现工作的人的贡献。 设计实验的人与收集数据的人具有相同的价值; 谁做的统计分析与谁写的最终版本具有相同的价值; 谁验证了实验与谁筹集资金等具有相同的价值。 作者身份属于所有参与的人,没有例外或等级。 而且,复杂的问题也不是一下子就能解决的:比如说,如果有一天有人宣布治愈癌症,那是因为有一整套以前的科学产品像拼图一样拼在一起,最后的结果是这样的一个发现。
由于最终产品是集体的,并且有不同的产品,以这种做科学研究的方式,很难想象从事同一个项目、开发同一个任务的人会以不同的方式报告他们的发现,尤其是方法论和问题主张。 基于作者身份概念的科学链,基于协作的大型团队的科学链称为文本回收。 期刊对于文本回收和剽窃之间的区别有明确的政策(在巴西,参见 Associação Brasileira de Linguística 批准的出版物: 语言学笔记本 e Abralin 杂志). 为了绕过相似性检测应用程序而对搜索问题进行解释是没有意义的。 更糟糕的是:由于作者身份和独创性等概念的应用,科学中的可重复性危机使得实验中获得的结果无法被复制,这在很大程度上受到巡逻的影响。 在大型团队项目中,文本循环来解释研究问题或详细说明方法是不变的。 不必要的努力被花费在“不同的说法”上,已经通过合作的集体声音说过的话; 不仅没有必要,而且“换句话说”已经制定的方法论惯例可能有害,结果是无法再生产。
检测文本之间相似性的软件用于支持有关研究诚信的决策。 在来自大型团队的同一个项目的产品中,识别差异率是意想不到的。 谷歌学术的座右铭是“站在巨人的肩膀上”,这句话出自艾萨克·牛顿爵士 (但那不是他的) 当他“发现”一般力学定律时。 我们只能向前迈进,因为逐渐建立了坚实的基础。 如果每个新产品都需要重新发明轮子,或者更确切地说,轮子已经被发明出来,只是为了满足相似度的百分比,科学不会进步,科学生活在重申已经说过的话的循环中,用很多话不同的。
复述已经说过的话并不难。 事实上,如今,有了大型语言模型,例如 GPT3 的基础语言模型,只需单击一下就可以实现释义,甚至更多:相似性软件无法捕捉到它是产生它的人工智能。 当今科学界的大辩论是如何利用人工智能来推动科学发展; 我们的态度是它应该被使用(因为我们为它的存在而努力!),但始终透明地解释它的用途(ChatGPT 已被列为研究合作者, 包括访问 Scopus). 技术创新需要对实践的反思:如果人工智能可以产生科学写作,作者身份的作用如何划等号? 如果相似度软件还不能识别在文本的准备过程中是否有人工智能的干扰,我们怎么知道它是否被使用了呢? ChatGPT 类型的科学应用程序可以自动化工作(它们能够总结、释义、系统化信息、组织参考、准备编程代码、审查编程代码等)并释放科学家对时间和认知的需求,让他们去做那些是它的主要作用:想办法解决问题! 在科学研究的流程中使用它们,从初始阶段(https://elicit.org,例如,写一篇系统评论),以更正文本的最终版本(https://edit.paperpal.com,例如),是一条不可逆转的道路,有可能引发伟大的革命。 从这个意义上说,关于作者身份的讨论变得更加无关紧要。 但是关于伦理和诚信研究实践的讨论,解释这些应用程序在工作发展的每个阶段的使用,是一条需要遵循的道路。
研究的诚信是通过培训意识到自己的角色并对自己的实践负责的科学家来建立的。 作为开放科学运动的成员,我提倡实践透明化和科学民主化。
*Raquel Meister Ko。 弗赖塔格 UFS白话文学系教授。
A Terra é Redonda 网站的存在要感谢我们的读者和支持者。
帮助我们保持这个想法。
单击此处查找操作方法