从自我觉知到创写主权:构建人工智能素养的心理框架
——为何AI教育应培养主体能动性,而非停留于指令技巧

在当下,人工智能素养常被当作一门技术来传授:如何撰写更精准的指令、如何快速迭代、如何优化输出。但比技术更深的层面,其实关乎心理。一个人若要"善用AI",首先需要理解自我——明晰自己的思维方式、价值取向,以及最初想要创造什么。否则,人工智能将悄然成为其决策的隐形执笔人。表面或许游刃有余,能快速产出精致的成果,却难以阐释其内在逻辑,甚至无法察觉输出内容与自己真实经验的冲突。
这便是本文的核心主张:人工智能素养的培养,需要先奠定心理基础,再开展技术训练。当学习者先建立自我觉知,便能引导AI而非被AI牵引。下文将呈现我通过在上海纽约大学联合教授创造性AI课程、设计反思型AI工具所构建的框架。它生长于艺术、心理学与学习设计的交叉地带,并扎根于一个朴素的信念:主体能动性不是事后添补的功能——而是最初就该奠定的基石。
我如何通过艺术抵达人工智能素养
我接触人工智能素养的路径有些特别。大学四年的艺术训练让我明白,真正的人文艺术教育从来不只是“让作品看起来漂亮”。在实践中,美学呈现或许只占创作的30%。其余70%则是调研、思考、探索、辨别,以及那个向内探寻“我究竟想表达什么”的过程。艺术训练我活在问题里,容忍不确定性,并与审美判断建立深层联系——因为失去判断力,创作便会坍缩成重复。
人工智能可以自动化那30%——即表层的执行环节。若目标仅仅是产出可交付的成果,人们很容易将其视为全部工作。AI确实能批量生成图像、草拟文本、提供框架、模仿风格统一性。但让任何作品具有价值的核心——赋予其方向与完整性的部分——仍然存在于那剩余的70%之中。意义的建构无法外包。判断力无法自动化。那些厘清何为重要及为何重要的缓慢过程,同样无法被替代。
正因如此,当执行变得愈发廉价,稀缺资源便不再是产出数量,而是“作者性”——这不是指作为“内容产物”的作者身份,而是指通过生命经验形成的人类能力:感知的积累、试错的体验、精进的历程与成长的积淀。它不是某种风格或格式,而是为选择负责的底气,是持有并践行某种观点的能力。
而这也正是许多人工智能素养教育隐而不彰的短板。它们教人操作工具的技巧——如何优化指令、迭代与润色——却未增强那些让工具安守其位的内在能力。技术熟练度或许能产出令人惊艳的成果,但若缺乏自我觉知,也会增加“漂移”的风险:那些听起来正确、看起来完美,却依然未能反映真实理解、价值取向或创作意图的输出。因此,真正的素养必须始于指令之前。它始于自我认知——明晰何为重要、为何重要,以及作品为谁而生。
能力与主体性的鸿沟:当熟练沦为陷阱
当前大量人工智能课程聚焦于培养技术流畅性,并默认主体能动性将随之自然产生。然而,缺乏心理学根基的流畅性将造成一种微妙而危险的断层:学习者执行指令的速度越来越快,却越来越疏于提出那些更困难的问题——这反映现实吗?这符合我的价值观吗?这真的表达了我的本意吗?他们精于优化产出,却拙于挑战深植其中的预设。他们擅长打磨机器提供的答案,却在如何超越机器逻辑方面训练不足。
一种极具诱惑的工作流程加剧了这一问题:接收任务→向AI寻求方案→优化产出→提交成果。过程流畅,成果专业,充满胜任感。但当他人追问其推理依据——为何此方案可行、暗含何种取舍、依赖于哪些前提时,人们往往发现自己只是在复述被机器塑造过的逻辑。他们能够生产,却未必能为自己产出的内容负责。这正是“表面胜任”与“真实能动”之间的鸿沟:看似能力出众,实则悄然让渡了判断权。
这里存在一个常被忽略的关键:能动性不仅指觉察异样的敏感,更在于能够清晰阐明——你知道什么、不知道什么、正在假设什么。这正是我所强调的“论证”能力:并非学术意义上的论证,而是关乎人的自我追问——我为何相信这个结论?我的依据是什么?何种证据能改变我的想法?缺乏这种习惯,AI流畅性就沦为信心的伪装;而具备这种习惯,工具方能保持其效用,却无法悄然取代你的思考。
AI的失败模式进一步放大了这种风险。它很少以令人警觉的方式呈现“错误”,反而让人感到安全、连贯、精致完美。我称之为“技术优雅”:作品带着专业 mastery 的美学印记——却未经实践者经历技艺修炼所需的漫长、变革性劳动。在实际应用中,它听起来足够光鲜以通过检验,却又足够泛化以模糊特定情境的真相。
因此真正的问题并非“这足够好吗?”,而是:我究竟知道这是真实的——还是仅仅喜欢它听起来的样子? 若缺乏觉察这种差距的元认知习惯,以及在差距中暂停反思的勇气,学习者将无法成为真正的创造者,而只能成为熟练的执行者。
上海纽约大学里的认知觉醒时刻
在与另一位教授共同为国际学生群体讲授”创意学习设计”课程时,我清晰地目睹了这一动态。本课程对AI的教学应用围绕一个不同于“如何获得更好输出”的问题展开。我们问的是:如何帮助学习者始终掌握主动权?如果AI将成为他们创意与职业版图中永久的存在,那么目标不应只是工具熟练度,而是心理自主权。
我们将课程设计为三阶段递进结构,将学习者的内在状态视为使用工具的前提。第一阶段,我们在引入任何AI工具前,先夯实心理基础。我在课程中通过设计反思日志和结构化对话,融入CASEL的社会情感能力框架,引导学生厘清自身价值观、生活经验和表达意图。当学习者明确自己想表达什么时,AI便成为导向工具;反之,AI则会成为暗示者——而暗示终将演变为决策。
第二阶段,我有意引入了我称之为“生产性摩擦”的环节。学生需使用AI生成的图像与实体材料(如杂志剪报、颜料、拾得物)共同创作一幅拼贴作品。
创作主题是表达一种“热情”。我刻意选择了这个词——热情能激发情感智慧与深层价值观。当创作触及价值观而非仅仅美学时,AI的局限便以学习者可感知的方式显现出来。当数字输出与实体材料必须共存时,学生能直观目睹模型所能触及与无法抵达的边界。
一位学生试图呈现她在留学期间接触无家可归群体的经历。AI反复生成男性形象,但这与她的真实体验相悖。那一刻,课堂无需关于偏见的说教或优化指令的技术指导。认知失调带来的是切身的冲击。她被迫做出选择:接受机器修饰后的“现实”,或重掌创作主权。她选择了后者,转而运用实体材料,叠加杂志剪贴与颜料,并说出一句重塑课程意义的话:“我必须坐在创作的驾驶席上。我是创作者;AI只是素材。”
这堂课教授的从来不是提示技巧,而是主体性的启蒙。一旦学生经历这种体验,他们提出的问题便发生了转变。他们不再问“我该输入什么指令让AI生成”,而是开始思考“我想表达什么——AI能否帮我实现”。这种转变才是素养的真正标志。权威的坐标从机器回归到了人。在第三阶段,学生们带着这种扎根于自我认知的创作意识,为一家音乐科技公司设计了创意学习方案。在此过程中,清晰的自我认知不仅深化了学生们对多元用户的理解,更使协作跨越了文化差异,让决策始终锚定在人的价值判断之上。
为何主体性关乎商业组织命运,而不仅限于学生
这绝非仅仅是课堂里的问题。一旦企业将AI单纯视为效率引擎——追求更快的内容产出、更快的方案呈现、更快的计划制定、更快的任务执行——这种“表面胜任”与“真实能动”的割裂便会转化为切实的商业风险。效率提升是真实的,但它也是一柄双刃剑:它在自动化产出的同时,悄然提高了那些无法被自动化的能力的风险溢价——判断力、战略思维、目标对齐,以及基于具体情境的决策能力。
我在团队中反复追问的问题,与教导学生提出的质疑如出一辙:我们究竟把什么当作真理来接受——又因为图方便而默认了哪些未经检验的假设?
当团队缺乏主体性时,便会陷入我所说的"无效效率"陷阱:用十倍速度解决错误的问题。其结果催生出虚幻的方案——那些看起来精致专业的交付物,一经现实检验便瞬间崩塌。长此以往,企业将累积我称之为"AI依赖债"的恶性循环:团队持续产出看似可靠的工作成果,却因最初就未锚定人类意图与情境理解而需要不断修正。
相比之下,具备高度主体性的团队能随工具进化而灵活应变,因为他们的价值不在某个特定指令,而在判断力本身。他们带来的是我称之为"人性溢价"的竞争优势:当所有人都有权使用相同模型时,真正的优势源自那70%——调研能力、辨别力、生活经验、审美判断以及抉择的勇气。尤其在边界情境中——黑天鹅事件、文化变迁、陌生市场——人类主体性能够识别机器逻辑何时已然失效。
战略主体性框架:四种心理能力
为弥合人类意图与机器执行之间的鸿沟,我逐渐完善了一套心理导航图,称之为"战略主体性框架"。这一框架的核心前提很简单:人工智能素养不仅是使用工具的能力,更是在使用过程中保持方向的能力。这种方向感源于四种心理能力——在日益自动化的执行环境中,它们共同守护着人的主体性。该框架既适用于寻找自我表达的学生,也适用于解决复杂问题的专业人士。

一、自我意识 —— 意图审视
这是心理基石。它始于对价值观、生命经验和战略意图的严谨梳理——形成内在罗盘,使评估成为可能。缺乏这一基础时,AI输出只能通过表面特质评判:流畅度、连贯性、精致度。拥有它,才能提出更深层的问题:这真的反映了我想表达的核心吗?"意图审视"是在写下第一条指令前锚定"为何而做"的实践,让工具服务于方向,而非悄然成为方向本身。
二、元认知 —— 失调觉察
元认知是觉察自身思维过程的能力,尤其当感到微妙不适时。"失调觉察"是捕捉错位的训练技能——当AI回应(无论多么优雅)与内在认知、情境知识或现实经验相矛盾时,它要求我们暂停审视。这也是一种勇气:选择信任认知判断而非机器的"自信"。在语言模型几乎能对一切言之凿凿的时代,真正的素养体现于能够暂停、质疑并说出:这个不对。
三、社会意识 —— 情境融合
AI的输出不会落入真空。它们存在于关系网络、文化背景、团队动态与真实的人类诉求之中。"情境融合"是追问"机器生成的逻辑将如何影响共情、协作与以用户为中心的成果"的能力。它防止我们陷入泛化解决方案的隐性暴力——那些看似"专业"却无法承载所处环境细微差别的输出。在这里,效率与责任达成平衡,答案的社会影响成为评估的重要维度。
四、创造自主权 —— 意义统合
这是完善框架的最终承诺:始终保持作为意义的作者。"意义统合"标志着与AI关系的转变——从顺从转向主导。此时,70/30法则成为鲜活实践:AI可辅助30%的执行环节,但人类必须提供使工作具有意义的70%——调研、判断、审美、框架构建与核心的"为何"。正是这种能力,使AI始终作为素材而非权威存在。
核心洞见
当人工智能素养扎根于这些心理能力时,主体性便始终属于人类。AI不再充当思想的替代品,而回归其最理想的本质:一种由清晰意图、人文判断与生命经验塑造的强大表达素材。
新一代人工智能素养教育的设计原则
若我们希望培养的是具有主体性的创作者,而非机械的操作者,就必须以全新的逻辑来设计教育项目。首要原则是:心理建设先于工具掌握。自我觉知与元认知并非"软技能",而是安全且有意义地使用AI的前提条件。其次,要主动设计生产性摩擦。我们不应追求使用便捷性的最大化,而应创造AI与学习者认知产生断裂的时刻——正是在这种认知失调中,主体性得以淬炼成型。
第三项原则是:采用混合媒介。数字与实体材料的结合,能让AI的能力边界从"被解释"变为"被看见、被感知"。第四,评估主体性而非表面完成度。核心评估问题不应是"成果看起来多完善",而应是"你能否阐述选择背后的'为何',并在必要时超越机器的逻辑?"。第五,构建跨学科基础。人工智能素养本质是人的发展,它需要艺术的创造性表达、心理学的元认知视角,以及学习设计的结构性变革智慧。
从工具到材料:主体性时代的来临
我们正从"使用工具"的时代,迈向"塑造材料"的时代。前者追问工具能为我们做什么,后者则思考我们能用材料创造什么——同时不失却自我。若继续将人工智能素养仅作为技术能力来传授,我们或将培养出一代能够驾驭强大系统,却在心理上向其让渡自主权的人。
但若将人工智能素养深植于主体性之中,我们便是在传授更根本的认知:**AI不是创造者,我们才是。**AI的未来不仅取决于更精妙的模型或更快的处理器,更取决于人类是否能够发展出保持自主性的内在能力——在加速运转的世界中,依然握紧意义的主权。
领导者审思清单:每个AI项目都应自问的五个问题
若你在组织内主导AI项目,以下五个问题能帮助你将人的主体性——以及由此产生的真正品质——置于工作的核心。
1. 人类锚点
"关于这个项目,有哪一点是AI不可能知晓的?"
这个问题能防止通用化、一刀切的解决方案。
2. 失调测试
"AI的产出在哪些地方显得过于稳妥、轻易或顺滑?"
这有助于识别那些消弭了创新火花的"自信的平庸"。
3. 偏见审查
"这反映的是我们特定的受众,还是泛化的数据集?"
这能防止人群特征与文化语境的错位。
4. 70/30分配
"哪些30%属于AI执行部分,人类判断的70%又体现在何处?"
这确保人类始终是作者,而非助理。
5. 逻辑溯源
"可否用你自己的语言,明确阐述支撑这个解决方案的逻辑链条——就好像人工智能从未存在过?请清晰说明你每一步推理所依据的前提假设。"
这能弥合能力与主体性之间的鸿沟,并证明深层的理解。
说明:本战略主体性框架源于我在上海纽约大学共同教授的课程内容。该课程的知识产权归属校方;本文所呈现的教学洞见与心理框架,则代表我基于该经验及持续研究形成的专业方法论。为保护隐私,已最小化涉及学生的具体细节。
关于作者
你好,我是Zoe。身为学习体验设计师与行为策略师,我长期耕耘在学习科学、心理学与人性化AI产品设计的交汇地带——专注设计不仅能产出成果,更能促进自我认知与可持续技能构建的界面与体验。若你的团队正在开发用于学习或行为改变的AI工具,并同样珍视关怀与严谨,我期待与你探讨学习体验设计、行为设计及人性化AI产品相关的合作可能。






