跳到主内容
✍️ 公众号文章
AI 教师
学生

当 AI 能写代码、跑 Stata、做专业分析报告,大学教育还有什么意义?

AI 正接管数据处理与基础分析等知识工作,大学教育的意义在于培养 AI 做不了的能力:因果推理、伦理判断与评估鉴伪。学生需先打笨功夫再用 AI 加速;教师应从知识传授者转型为认知摩擦设计者与意义构建者。

李学恒9 分钟阅读#ai-education#cognitive-offloading#critical-thinking#human-ai-collaboration#higher-education

摘要:AI 正在接管数据处理、报告撰写、基础建模等知识工作;但因果推理、伦理判断、情感连接这些能力,AI 做不了。大学教育的意义不是教你 AI 能做的事,而是训练那双能驾驭 AI 的眼睛。

2024 年,AI 研究领域发生了一件引人深思的事:研究者们发现,最新的 AI 代理已经能独立完成一项完整的经济学研究流程——从文献综述、数据下载、清洗整理,到编写计量经济学代码、运行回归分析,最后还能撰写结果解释。

整个过程,无需人工介入。

这意味着什么?一名刚入行的经济学研究助理,过去需要花三到五年才能熟练掌握的技能组合,现在一个 AI 代理几分钟就能搞定。

更值得关注的是,这不是孤例。麦肯锡全球研究院的报告指出,生成式 AI 有潜力自动化当前占用员工 60% 到 70% 时间的工作任务——那些耗时但技术含量相对较低的数据处理、报告撰写、基础建模,正是最容易被替代的部分。

问题来了:如果 AI 能做这些,我们花四年时间读大学,到底在学什么?

这个问题,不只是经济学专业的学生要问,所有人都该问。因为 AI 正在改变的,不是某一个专业,而是整个知识工作的底层逻辑。

从知识经济到代理经济:游戏规则变了

过去三十年,我们一直活在知识经济的叙事里:谁掌握更多知识、谁的专业技能更强,谁就更有竞争力。所以大学教育的核心任务是传授知识、训练技能。你学会用 Excel 建财务模型,学会用 Stata 跑回归,学会写一份像样的行业分析报告,你就有了职场的入场券。

但现在,这套逻辑正在被颠覆。

我们正在进入一个新的经济形态,可以叫它“代理经济”。在这个新世界里,价值创造的源泉不再是信息的获取或基础处理,而是对智能代理的指挥、整合与纠偏。

什么意思?

以前,上级要求一份竞品分析报告,你得自己去搜集资料、整理数据、撰写分析。现在,你可以指挥 AI 代理去做这些事:你告诉它去哪里找数据、用什么框架分析、输出什么格式。AI 执行,你审核。

表面上看,这是效率的提升。但本质上,这是角色的转变——你从执行者变成了管理者,从工具使用者变成了系统编排者。

这种转变,麦肯锡称之为“代理流利度”(Agentic Fluency),也可以叫算法管理能力。具备这种能力的人,不是自己下场干活,而是知道如何把复杂问题拆解成 AI 能理解的指令,如何设计工作流让多个 AI 代理协同作业,如何判断 AI 产出的质量。

这是 2030 年最值钱的能力。

能力迁移:从做什么到管什么

让我用一张表来说明这种转变:

职能维度传统模式代理模式核心能力转移
数据处理手工清洗、合并表格监督 AI 完成,审查异常值逻辑从操作技能到数据逻辑审计
研究分析阅读文献、手动推导模型指挥 AI 扫描文献、验证假设从信息摄取到知识综合
管理决策基于有限数据的直觉判断基于 AI 模拟的多情境分析从经验判断到系统思维
软件交互学习复杂的编程语法自然语言编程,对话式构建从语法记忆到逻辑结构化

看到规律了吗?每一项能力都在从执行层上移到判断层。

过去你要学会怎么做,现在你要学会怎么判断做得对不对。过去你要掌握工具的操作方法,现在你要理解任务的本质逻辑。

这就是为什么世界经济论坛在《2025 年未来就业报告》中强调:虽然 AI 技能需求在激增,但雇主对批判性思维、复杂问题解决能力、情商和领导力的评价实际上在上升。

因为这些东西,AI 做不了。

AI 做不了什么?三种不可替代的人类能力

说到这里,问题变得清晰了:大学教育的意义,不在于教你那些 AI 能做的事,而在于培养那些 AI 做不了的能力。

那么,AI 到底做不了什么?

第一:因果推理与语境判断

AI 本质上是一个概率性的相关引擎。它擅长从历史数据中发现模式、预测趋势,但它不懂因果。

举个例子:AI 可以告诉你,过去十年里,每当某个经济指标上升,股市就会跟着涨。但它无法判断这种相关性是不是因果关系,更无法判断在一个全新的地缘政治环境下,这个规律还会不会成立。

2020 年新冠疫情爆发时,几乎所有基于历史数据训练的预测模型都失效了。因为它们从未见过这种场景。

未来的金融分析师不需要自己计算贝塔系数,但必须敏锐地判断:在特定的地缘政治危机下,历史贝塔系数为什么不再适用。

这种判断力,需要对社会机制的深刻理解,需要识别混杂变量的能力,需要区分相关性和因果性的训练。这些,AI 教不了你。

第二:伦理领导力与社会智能

管理的核心是人。AI 可以优化排班表,但无法安抚罢工的工人;AI 可以分析谈判对手的历史行为,但无法在现场感知对方的微表情;AI 可以生成激励方案,但无法在危机时刻凝聚团队的士气。

随着 AI 接管效率层面的工作,管理者的精力将更多释放到情感连接、文化建设与伦理决策上。

特别是在算法日益介入决策的今天,人类管理者必须充当 AI 的良知守门人——确保算法决策不侵犯隐私、不加剧歧视。

一个招聘算法可能因为历史数据中的偏见而系统性地歧视某些群体,一个信贷算法可能在不自知的情况下对特定人群收取更高的利率。

发现这些问题并纠正它们,需要的不是技术能力,而是伦理敏感度和社会责任感。这是人类管理者不可替代的价值。

第三:认识论谦逊与评估能力

在一个充斥着 AI 生成内容的时代,有一种能力变得前所未有的重要:知道自己不知道什么。

AI 会一本正经地胡说八道。它可以生成看起来极其专业的分析报告,里面的数据、引用、论证逻辑都像模像样,但可能全是编的。这种现象叫“幻觉”(Hallucination)。

能够识别这些幻觉,需要深厚的学科底蕴。只有真正理解宏观经济理论的人,才能一眼看出 AI 生成的通胀分析中存在的逻辑漏洞。

这就是为什么在 AI 时代,基础理论反而变得更重要了。你无法监督你不理解的事物。

认知能力的攻防战:AI 是让你变聪明还是变笨?

现在我们来到了最关键的问题:AI 到底是让人变聪明,还是变笨?

答案是:都有可能。取决于你怎么用它。

变笨的路径:认知卸载

心理学上有个概念叫“认知卸载”(Cognitive Offloading):当你把思考的任务交给外部工具时,大脑就不再进行深度加工。

短期看,效率极高。长期看,技能退化。

研究发现,长期依赖 GPS 导航的人,海马体中的空间记忆能力会显著下降。同样的道理,长期依赖 AI 生成答案的人,逻辑推理能力也会退化。

在经济学和管理学领域,许多核心直觉——对市场均衡的敏感度、对复利效应的直觉、对博弈局势的判断——是建立在无数次繁琐计算和推导基础上的。如果跳过这些笨功夫,你可能获得表面的流利度,却丧失了深层的理解力。

有研究显示,频繁使用 AI 的学生在批判性思维测试中的得分显著低于低频使用者。

这不是 AI 的错,是使用方式的错。

变聪明的路径:认知脚手架

但 AI 也可以让人变得更聪明。关键是把 AI 的角色从替代者变成脚手架。

什么是脚手架?建筑工人搭建高楼时用的临时支撑结构。它在你需要的时候提供支持,但不替代你做核心工作。

好的 AI 使用方式是这样的:

认知三明治模型

第一层:你先独立思考。在使用 AI 之前,先自己构建问题框架、提出假设、草拟大纲。这一步激活了你的前置知识,为大脑准备好挂钩新信息的结构。

第二层:用 AI 扩展和挑战你的思考。把你的想法输入 AI,让它提供反例、指出遗漏、扩展视角。此时 AI 的作用是打破你的思维定势,而不是替代你思考。

第三层:你来整合和判断。审查 AI 的产出,判断哪些有效哪些无效,综合成最终结论。这一步锻炼的是高阶的综合能力。

苏格拉底式陪练

AI 最强大的教育功能不是回答问题,而是提问和反驳。

你可以让 AI 扮演一个持相反观点的经济学家,和你辩论某个政策的利弊。在这种互动中,你必须实时调动深层知识储备,组织逻辑反击。这比被动阅读有效十倍。

逆向图灵测试

给你两份分析报告,一份人类写的,一份 AI 写的(包含微妙的逻辑陷阱)。你的任务是找出哪份是 AI 写的,并指出其中的漏洞。

这种找茬训练,能极大提升你的评估能力和批判性思维。

大学老师该干什么?从知识二传手到认知建筑师

如果 AI 能提供近乎无限的知识,甚至能以苏格拉底的方式进行一对一辅导,那大学老师还有什么用?

答案是:老师的角色必须彻底转型。

从传授者到摩擦设计者

在 AI 时代,学习的最大敌人是太顺滑。AI 让获取答案变得太容易,而学习本质上需要克服困难。

所以,老师的首要职责变成了:人为设计必要的认知摩擦。

什么意思?

在某些关键环节,必须设置 AI 禁区。比如在学习基础微观经济学时,手推供给需求曲线、计算弹性,必须是徒手完成的。因为这些笨功夫是建立直觉的基础。

老师就像健身房的教练,监督你举起重量,而不是让机器代劳。

另一个变化是口试和答辩的复兴。学生可以用 AI 辅助研究,但必须在没有 AI 帮助的情况下,口头解释模型背后的逻辑、假设的局限性、政策建议的伦理影响。

这能有效区分谁真正掌握了知识,谁只是复制粘贴了 AI 的输出。

从内容专家到好奇心策展人

有人说得好:“答案是丰富的,问题是稀缺的。”

AI 可以回答任何问题,但它不知道应该问什么问题。

在研究 2030 年的碳排放政策时,是应该问碳税的影响,还是碳交易市场与技术创新的非线性互动?问题的质量决定了研究的深度。

老师的价值在于帮助学生建立高阶的心智模型,让他们能够提出有深度的问题。这需要老师分享自己的研究经验,讲述理论背后的历史故事,将抽象概念与学生的生活经验连接。

这种点燃好奇心的能力,AI 没有。

从评分者到意义构建者

数据本身没有意义,只有在特定语境下才产生意义。

AI 可以列出 1997 年亚洲金融危机的各项数据,但老师能结合当时的地缘政治、文化背景和决策者的心理压力,还原危机的全貌。

这种将冰冷数据还原为有温度的社会现实的能力,是教育的核心价值之一。

更重要的是,老师是伦理的守护者。在金融工程课程中,不仅要教如何最大化收益,更要引导学生讨论算法交易对市场公平性的冲击,信贷算法中的种族偏见问题。

价值观的传承,是机器无法完成的教育使命。

我们该怎么办?

说了这么多,最后来点实用的建议。

如果你是学生或职场人

先慢后快。学习新领域时,先用笨办法打基础——手推公式、手写代码、手画流程图。等你真正理解了,再用 AI 加速。否则你获得的只是虚假的流利度。

培养鉴伪能力。永远不要无脑接受 AI 的输出。把 AI 的每一个回答都当作待验证的假设,交叉验证、追溯来源、检查逻辑。这种能力会越来越值钱。

投资不可替代的技能。因果推理、伦理判断、情感连接、跨领域整合——花时间在这些 AI 做不了的地方。

如果你是教育者

重新定义你的价值。你的价值不在于传递信息,而在于设计认知体验、激发学习动机、建立意义框架。

设计有摩擦的学习路径。在关键环节设置 AI 禁区,用口试验证真实掌握程度。让学生经历必要的认知挣扎。

示范人机协作。在课堂上演示专家如何驾驭 AI 工具,如何批判性地核实 AI 输出。让 AI 处理琐事,把你的时间投入到高价值的一对一互动中。

如果你是家长

关注过程而非结果。问孩子是怎么想到这个答案的,而不只是答案对不对。

鼓励广泛探索。未来最有价值的能力是连接不同领域的能力。让孩子广泛涉猎,培养好奇心和情感能力,而不是过早专业化。

结语:望远镜与眼睛

AI 是思维的望远镜和显微镜,它让我们看得更远、更深。

但前提是,观察者必须拥有一双经过严格训练的、清醒的眼睛。

大学教育的意义从来不是给你一堆知识,而是训练这双眼睛。在 AI 时代,这个使命不是变得无关紧要了,而是变得更加紧迫。

AI 改变的是知识工作的形式,不变的是人类追求理解、追求意义的本能。

当 AI 能做越来越多的事,人之为人的核心能力——判断、推理、共情、创造、承担责任——反而成了最稀缺的资源。

培养这些能力,是教育永恒的使命,也是每个人终身的功课。

参考来源:

related