(问题)随着智能技术加速进入社会生产与公共治理,“提升学生对应的素养”已成为多国基础教育改革的重要议题。现实中,一些学校的教学仍停留软件操作和概念普及层面:学生接触了不少工具,却缺少在真实情境中作出审慎判断的训练。比如,当算法提升效率却可能带来偏见,当模型准确率很高但一次误判就可能造成严重后果时,是否该启用、如何监督、由谁负责等关键问题,往往缺少系统讨论。尤其在资源相对薄弱的学校,课程供给不足、师资与学习支持有限,更容易拉大“会用”与“会判断”的差距。 (原因)美国圣母大学近期在12所高贫困高中开展的课程试点,正是针对这个结构性短板。项目将课程定位为“负责任与伦理AI”大学学分课,面向180名高中生实施。其核心做法是把“人的判断力”放在教学中心,而不是追逐技术新奇或单一效率指标:一上补齐必要的基础知识,另一方面借助伦理框架训练学生多目标冲突与不确定情境下进行推理与选择。课程完成率达97.8%,明显高于一般在线课程的坚持水平;学生在伦理判断与批判性参与上得分为4.65分(满分5分),显示出较强的讨论深度与权衡能力。 (影响)从课程组织方式看,此项目形成了三项相互支撑的机制:其一,学生每周通过录播完成约1小时的基础学习,覆盖机器学习、神经网络、大模型等关键概念,为后续讨论建立共同语言;其二,每周开展一次实时线上研讨,围绕招聘筛选、医疗诊断、社交平台监测、自动驾驶等真实案例,讨论效率与公平、创新与隐私、自动化与人类监督等矛盾关系,推动学生把抽象原则转化为可论证的判断;其三,引入“近同伴导师”模式,由高校本科生担任学习引导者与讨论组织者。更小的年龄与身份差距降低了参与门槛,有助于形成稳定的学习共同体,也通过同伴示范让学生掌握学术讨论的基本规范与表达方式。多项机制叠加,使课程既保持挑战性又更易完成,在保障学术标准的同时优化了学习体验。 (对策)这一实践对推进相关教育改革具有启示意义:第一,课程目标应从“工具掌握”转向“责任能力”,将公平、隐私、安全、可解释性与问责等纳入核心学习成果,避免只教“怎么用”,却忽视“该不该用、如何用得更好”;第二,教学组织要强化互动与反馈,把讨论、辩论和案例分析常态化,促使学生在观点碰撞中形成可检验的论证链条;第三,完善学习支持体系,探索高校与中学、社会机构协同供给的模式,在师资不足地区通过线上研讨、导师支持与共享课程资源等方式缩小差距;第四,建立多维评价机制,不仅考察概念理解与操作能力,也评估学生在复杂场景下的价值辨析、风险意识与责任表达能力,推动评价从“会做题”转向“会判断”。 (前景)面向未来,随着智能技术更深地进入教育、就业、医疗与公共服务,相关伦理议题将更频繁出现在日常生活中。基础教育阶段若能及早建立“知识—情境—判断”的学习闭环,将有助于培养具备公共意识与规则意识的新一代数字公民。同时,课程推广也需关注可持续性:既要避免把责任教育变成口号,也要防止过度依赖单一平台或个别项目;应在课程标准、师资培养、资源共享与地方适配之间形成长期机制,让更多学校,尤其是资源薄弱学校,能够稳定获得高质量教学支持。
技术进步不断扩充课堂的工具箱,但教育的核心仍在于人的成长与社会责任的养成。把价值判断、公共意识与证据论证融入课程主线,让学生在真实问题中学会权衡、学会负责,才能使“智能素养进校园”从技能普及走向能力塑造,并在更广阔的社会治理层面释放长远效应。