复旦大学发布生成式人工智能教育应用指引 探索人机协同育人新模式

问题——生成式人工智能快速融入高校课堂后,“是否还需要教师”“学生会不会被工具牵着走”“AI写作算不算学术不端”等问题集中显现。

一方面,智能工具显著降低了信息获取与文本生成门槛,提升学习效率;另一方面,若缺少规则与引导,容易出现学习外包、思维惰性、成果归属不清等风险,直接触及高等教育对能力培养与学术规范的基本要求。

原因——上述困惑的根源,在于技术能力扩展速度远快于教学制度与评价体系的更新。

一些学生把工具当作“答案机器”,倾向于以生成结果替代问题提出、证据甄别与逻辑建构;部分课程与作业仍以“结果呈现”为主,过程性评价不足,使得学习过程难以被真实识别与有效反馈。

同时,学术训练具有渐进性与沉淀性,越是关键环节越需要慢下来思考,而智能工具的即时性、便捷性容易诱发“跳过训练”的冲动。

如何让技术服务学习、而不是让学习依赖技术,成为当前教育治理需要回答的核心命题。

影响——如果任由无序使用扩散,短期看似“效率提升”,长期可能削弱学生的问题意识、批判性思维和原创能力,影响学术共同体对成果真实性、可追溯性的信任,也会加剧评价失真:表面上作品更“工整”,但研究思考、理论构建、数据分析等关键能力未必同步提升。

与此同时,智能工具也为教学改革打开空间:教师从单向知识传授转向学习设计与能力引导,课堂可以更聚焦高阶思维训练、复杂问题解决与跨学科综合。

如何把机遇转化为育人增量,关键取决于规则是否清晰、场景是否细化、保障是否到位。

对策——据复旦大学介绍,学校发布《生成式人工智能教育教学应用指引1.0版》,并推出AI教育共创平台,尝试以制度与平台双轮驱动回应新变化。

指引的重点不止于列出“可用”“禁用”,而是把技术使用放回育人原点,强调从“工具使用者”向“人机协同决策者”转变,形成“原则—场景—边界—保障”的闭环治理思路:在原则层面强调以学习者成长为中心;在场景层面区分课堂教学、作业考试、科研训练、论文写作等不同环节;在边界层面明确哪些环节可借助工具强化,哪些必须由学生独立完成;在保障层面强调过程留痕、规范告知、师生培训与风险防控等配套措施。

围绕学术诚信与能力培养的平衡,指引提出更具操作性的划分:智能工具可用于资料检索与整理、语言润色、图表或代码的初步生成等非核心创造性工作,但不得替代研究思考、理论构建、数据分析、结论形成等实质性学术劳动,尤其不得直接使用相关工具生成课程论文或课题文本。

通过“允许做什么、必须自己做什么、必须说明什么”的边界设定,把创新空间与学术底线同时落到可执行层面。

校方相关负责人表示,规范并非束缚创新,而是为师生大胆探索提供清晰的安全跑道:知道底线在哪里,才能更有把握地开展课程重构、教学研究与学生科创活动。

在教学实践层面,复旦教师也在探索把“会用工具”转化为“会提问题、会做判断”。

例如在公共事务相关课程中,教师先引导学生向智能工具提出基础性问题,随后逐步提高问题的深度与角度,进而让学生体会到高质量回答来自高质量提问与严格论证;同时组织学生走进数据中心、行政服务中心等实务场景调研,让问题从现实矛盾中生长,促使学生在事实、逻辑与价值判断之间形成自己的分析框架。

此类教学设计强调:工具可以加速信息处理,但无法替代一线洞察、价值权衡与责任担当,教师的角色也由“讲知识”更多转向“带着学生做学术、做决策”。

前景——随着生成式人工智能持续迭代,高校治理将从“是否允许使用”走向“如何提升使用质量与教育有效性”。

一方面,指引和平台的推出有望推动形成更一致的课堂规范与学术标准,减少师生在“尺度不一”中的焦虑;另一方面,高校还需在评价体系上同步改革,更强调过程性证据、研究链条的可追溯与原创贡献的可说明,并通过培训提升教师的课程设计能力与学生的信息素养、伦理意识。

未来,技术在教育中的定位或将更清晰:让机器承担低认知负荷与重复性工作,把人的精力释放到提出好问题、形成好判断、承担好责任上,从而把“智能加持”转化为“能力增值”。

当技术发展速度远超社会适应能力时,教育工作者更需要坚守育人初心。

复旦大学此次探索揭示了一个深刻命题:真正的教育创新不在于追逐技术潮流,而在于构建让技术服务于人的发展框架。

在智能时代,如何培养"不可替代的人",这或许比讨论"机器能否替代人"更具现实意义。