用ai来代审,这事为啥让大家这么上心?

2月24日,《中国药房》编辑部直接给大家亮了个大招,搞了个声明,把近期审稿专家用AI来代审这事给挑明了。这事儿为啥让大家这么上心?因为学术期刊审稿这块儿讲究科学性、严谨性和保密性,要是随意用那些没经过验证的AI平台,稿子的质量肯定没法保证,作者的原创成果还可能泄露出去。 编辑部直接放话了:收到的稿子要是不属于自己的研究方向,赶紧退回去说明理由;要是用了外部的AI工具当辅助,必须说清楚用了啥工具,具体干了啥活儿。 这声明一出,立马让舆论炸了锅。本来大家还在争论能不能让AI帮忙写论文,现在情况更严重了,连看论文都用上AI了。其实对于文献梳理、逻辑检查这些“机械”活儿,AI就是最拿手的,审稿人要是能让它帮着扫一眼明显的错误或者提示重复的地方,简直是如虎添翼。 这个问题不光咱们中国有。斯坦福大学以前做过研究,发现自从ChatGPT出来后,顶级会议上的审稿意见里掺的“AI味”特别重,有的论文的AI含量甚至高达16.9%,而在之前这个比例才2%。这让那些学校宣布“拒绝AI”的声明显得有点尴尬。学生心里肯定清楚,哪怕自己不用AI写论文,老师在审的时候肯定也在用。 那AI的存在感越来越强是不是就坏事了呢?谁说的准?现在的人还敢说自己的判断力一定比机器强?表达能力一定比“AI味”重的语言好吗?怕早就没了这份自信了。AI虽然可能不够大胆,但是逻辑和细节上比人稳得多、克制得多。除了写论文和看论文,用AI来做分子描述或者细胞研究都太常见了。 在这种大背景下,想彻底拒绝AI是不可能的了。现在关键得弄清楚人的位置在哪儿。要是AI把实验都做完了,人怎么下结论?把论文都审完了,人又该怎么给通过不通过的结果? 有些时候人甚至感觉像是在给机器打工,表面上是研究者和审稿人,实际上就是给机器的输出盖个章。不过人在学术圈的意义不在于争什么物种尊严,而是为了确保有价值的成果出来。人作为最后一道关口和唯一的责任人必须站好岗。 所以咱们现在没必要拒绝AI,也没必要因为用了AI就觉得丢人现眼。就像《中国药房》说的那样:“若部分审稿内容采用了外部AI工具作为辅助手段,请说明工具名称及其在审稿过程中的具体用途。” 只要用的边界清楚了、责任归位了,AI就能成为真家伙;人在它面前也就不会乱了方寸。既别把它捧得太高、把所有判断都交给它;也别把它妖魔化、搞得大家都草木皆兵。