01、教师里的“无声冷战”
皮兹堡大学的研究员埃莉斯·席尔瓦(Elise Silva)在2025年的一项研究中捕捉到了这种情绪:
学生们在面对生成式人工智能(GenAI)时,感到的不仅是新奇,更多的是“焦虑、困惑和不信任”。

这种紧张感在小组作业中表现得尤为剧烈。
一位政治学专业的学生在访谈中满腹委屈地抱怨道,当她发现同伴过度依赖ChatGPT时,这非但没有减轻负担,反而成了她的噩梦。
她感叹道:“这最终让我做的工作更多了,因为我不仅要自己完成任务,还得像个侦探一样去复核你的内容是否真实”。

这种“信任赤字”正像病毒一样在课堂上扩散。
有的学生因为担心被老师误判为使用AI而感到焦虑,有的则对同伴通过走捷径获得高分感到愤愤不平。
教室不再仅仅是知识交流的殿堂,在某种程度上,它变成了一个充满猜忌的审计场。
而这种局势的根本原因,在于教育界尚未对AI的使用边界达成一致,正如一位城市规划专业的学生所言:
“大家都不在同一个频道上,无论是师生之间,还是学生个体之间,没有人真正清楚预期是什么”。

02、拥护者:从工匠教育到工业规模的个性化
然而,在另一群教育家眼中,这场风暴背后潜藏着高等教育千年来最大的复兴机遇。
缅因大学系统的首席信息官罗伯特·普拉西多(Robert Placido)坚定地认为,AI不是冲向象牙塔的小行星,而是解决“规模化深度学习”难题的引擎。

长久以来,教育界一直尊崇苏格拉底式的教学理想——由导师引导一小群学生进行深度思考和个性化反馈。
但在工业化规模的现代大学里,一个教授面对一百多名学生,这种“手艺人式”的关怀几乎是不可能的。
支持者们认为,GenAI打破了这个悖论。
想象一下,一个24小时在线、无限耐心且绝不评判学生的“AI苏格拉底教练”。

它不直接给答案,而是通过引导性的提问和简化的类比,帮助学生从底层构建理解。
这种个性化的“脚手架”支持,能够让学生在没有心理压力的安全空间里经历“生产性痛苦”(productive struggle),在失败与反思中真正掌握知识。
此外,AI在对抗“遗忘曲线”上的潜力也让支持者感到兴奋。
系统可以追踪每个学生对知识点的掌握情况,利用间隔重复原则,在记忆即将消退的精确时刻提供练习。
这种对学习机制的自动化优化,有望将脆弱的短期记忆转化为持久的长期能力。
正如普拉西多所言,AI并非要取代教师,而是要取代教学中最乏味、最重复的部分。
将教育者从“信息传递系统”中解放出来,让他们回归本源,成为真正的“学习建筑师、导师和灵感引导者”。

03、质疑者:健身房里的“叉车”与认知的退化
但并非所有人都买账。在质疑者阵营中,堪萨斯州约翰逊社区学院的英语教授丹·克莱尔(Dan Cryer)提出了一个振聋发聩的类比:
使用AI写作业,就像是“带着叉车去健身房”。
虽然杠铃(作业)确实移动了,但学生的肌肉(批判性思维技能)并没有得到任何锻炼。

克莱尔担心,AI提供了一个极其诱人的捷径,让学生绕过了创造过程中最痛苦也最核心的部分——盯着空白屏幕、将凌乱的思绪编织成严谨论证的过程。
如果教育的产出变成了可以被机器瞬间生成的“产品”,那么学习的过程本身就失去了意义。
这种担忧并非空穴来风,MIT的一项脑电活动研究为质疑者提供了生理学依据:
研究发现,在撰写论文时,那些依赖大型语言模型的学生,其神经连接性和大脑参与度明显低于依靠自身思考的小组。

这种认知上的“外包”还带来了更深层的社会性恐慌。
范德堡大学的计算机专业学生马克斯·蒙达斯(Max Moundas)在ChatGPT发布之初曾陷入长期的恐慌发作。
他痛苦地思考:如果机器能瞬间生成高质量代码,他花费四年时间、支付高额学费所学的技能是否从入学那一刻起就已经作废?
尽管他后来转型成为了AI研究员,但这种“职业虚无感”正笼罩在无数知识工作者的头顶。
质疑者们提醒我们,如果任由AI剥夺人类的自主代理权(Agency),大学培养出的将不再是具备独立见解的自由公民,而是只会点击“生成”按钮的搬运工。

04、大学录取中的“军备竞赛”
在大学录取这一高标杆领域,AI的应用已经从幕后走到了台前,却也陷入了一片规则混乱的“无人区”。
目前的局面极其矛盾:约70%的美国顶尖大学尚未出台正式的AI政策,而剩下的学校则在禁止与允许之间反复横跳。
布朗大学和乔治城大学坚决禁止AI生成内容,认为这违反了学术诚信;
而加州理工和康奈尔则采取了更务实的态度,允许学生使用AI润色语法,只要核心思想源于学生自己。

在申请者一端,AI正在加剧不平等。
尽管有人辩称AI能帮助缺乏支持系统的学生构建文章结构,从而“民主化”录取过程,但更多专家担心,富裕家庭的学生能获得更高端的AI教练指导,甚至学会如何规避检测工具。
此外,AI生成的个人陈述往往有一种“机器般的平庸感”。
一位招生官评价道,这些文章虽然语法完美,却像“企业手册”一样苍白,缺乏人类故事中那种真实的脆弱感和独特视角。

在招生办一端,面对破纪录的申请量,AI成了生存工具。
德克萨斯州立大学等机构使用AI工具自动提取成绩单数据,检查GPA要求,这极大提升了处理效率。
然而,正如北卡罗来纳大学(UNC)在遭遇公众抗议后不得不澄清的那样,AI评估目前仍仅限于语法和结构的初步筛选,最终决定权仍紧握在人类手中。

最令人不安的是“历史偏见”的重演。
研究显示,如果AI模型基于历史录取数据进行训练,它可能会自动偏好来自特定邮编或高知名度私立学校的申请者,因为这些群体在过去有着更高的成功率。
这种算法逻辑可能会固化现有的社会阶层,让那些本就处于劣势的低收入或少数族裔学生更难破圈。

05、教育者的批判性反思与生存指南
作为一名长期奋斗在教学一线的教育者和顾问,我看到学生们在AI的浪潮中挣扎,心中不免感到一种复杂而深重的责任感。
特别是我在申请季反复读到AI味浓重、过度修饰但味如嚼蜡的文书,并且和学生进入一场“我猜你用了AI吧”和“我只是润色了一下”的博弈时,我的痛苦和每一位在AI时代寻找正确解法的老师、学生、家长是完全一致的。

我想说,如果我们继续把AI当作一个可以逃避思考的“魔杖”,我们就是在亲手毁掉教育的根基。
教育从来不关乎你提交的那份完美的PDF文档,而关乎你在产出那份文档时,大脑里经历的那些痛苦的挣枝。这个过程对于大学申请更加成立。
但同时,我也不支持全盘禁用,因为AI已于我们同行。
但我反对盲目拥抱。
我建议每一位学习者和同行,必须建立一套“人机协同”的智慧伦理。

首先,我希望我们把AI定位为“调研助手”而非“代笔者”。
我自己正用Codex帮我拾起自大学时代就荒废的编程,并开发用户友好的界面,将我的文书知识转化成学生可用的头脑风暴及评价工具。
在我写这篇公众号时,我看到BA专业的玛雅(Maya)和时尚管理专业的丹尼尔(Daniel)也让我很有启发。
玛雅利用AI摘要了三份复杂的行业报告,但她手动核对了每一个数据,并将其转化为自己的创业想法;丹尼尔让AI列出碳足迹计算工具,但每一项成本分析都是他亲手计算的。
他们在作业中诚实地声明:“AI帮我消化了数据,但结论是我自己的。”
这就是我所提倡的透明度:如果你用了AI,请像注明参考文献一样注明它的参与度。

当然,这也需要开明的教育者,接纳、鼓励、引导学生有责任地去使用,AI这项人类历史上最为强大的工具。
在STEM和写作实践中,我们要坚持思考和留痕。
作为一个资深的教育者,我不再仅仅看重最终的论文,我会要求学生提交他们的修订历史和原始草稿。
在谷歌文档(Google Docs)中留下的那些思考、删除和重写的痕迹,是你身为人类的最好证明,也是AI检测工具无法抹杀的真实性证据。
最后,我想对所有的学生说:不要为了追求那种“机器般的完美”而丢掉你原本的声音。

招生官和教授们阅读过成千上万的文章,我们能嗅到那种AI特有的、平滑却空洞的塑料味。
我们真正渴望看到的,是你那些不完美但真实的感悟,是你面对失败时的挣扎,是你独特的、带有体温的文字。
在这个信息不再稀缺的时代,唯有人类的代理权(Agency)——那种提出更好问题的能力、在模糊中行动的勇气以及承担道德责任的自觉——才是教育真正的、也是唯一的护城河。
AI可以成为你手中的叉车,但请记住,只有当你亲自举起重量时,灵魂才会真正生长。
下一篇:最后一页
