AI导读:

  张雪峰去世了,但他的思维还在被调用。一个名为张雪峰.skill的项目最近在网上刷屏,开发者用5本张雪峰的考研辅导书、15篇媒体采访和他的人生时间线等数据,开发了一个“张雪峰的认知操作系统”。
  所谓skill是给AI

  张雪峰去世了,但他的思维还在被调用。一个名为张雪峰.skill的项目最近在网上刷屏,开发者用5本张雪峰的考研辅导书、15篇媒体采访和他的人生时间线等数据,开发了一个“张雪峰的认知操作系统”。

  所谓skill是给AI用的一种工具包,把特定任务的流程进行封装,方便大模型调用。“同事skill”爆火后,把人的经验打包上传也被戏称为“炼化”,留下思维,舍弃肉身。

  在开源社区Github上,类似“张雪峰.skill”的项目不下十个。我们采访了其中4位开发者,他们普遍在2~3小时内完成开发,且大部分过程由智能体自动完成。现在亦有开源工具,输入任意名字,便能自动完成数据收集分析,生成对应的人物skill。

  从实际效果看,skill其实没那么神乎其神。一位开发者坦言,现在这类项目大多是技术圈“整活”——并非新的智能涌现,本质还是提示词工程。而即便对象是张雪峰这样强商业化输出的公众人物,相似度也停留在五到六成。那些真正决定他影响力的个人知识和专业直觉,无法被“炼化”出来。

  但从“同事.skill”到“张雪峰.skill”,争议根源不在于有多逼真,而是人之为人的一部分开始具备被拆解、复制和工具化的可能性,并且门槛已经非常简化。

  如果思维方式能被机器复制,人的不可替代性还有哪些?法律又能保护人的哪一部分价值?这是更引人思考的问题。

  复现张雪峰

  “张雪峰.skill”在Github上接近2000个星标,以张雪峰命名的同类开源项目还有数十个。一类用第一人称模拟张雪峰说话,另一类则是间接引用“雪峰老师曾说”,底层逻辑都是把张雪峰的思维框架拆出来,让AI输出学业规划建议。

  科幻剧《黑镜》曾想象“人格上传”的未来场景,张雪峰skill们提供了一个当下版本的解答:一个人究竟能被大模型拆解、复用哪些部分?

  从现有实现来看,开发者们主要“炼化”的是两层能力:说话语气与思考角度。前者是句式、词汇、节奏分析;后者通常被压缩成7~10个“心智模型”“决策启发”“先验知识”,也是所有张雪峰Skills最核心的模块。

  在热度最高的“张雪峰.skill”中,大模型将张雪峰的思维总结为5个心智模型,比如就业倒推法,用中间50%人的就业结果倒推专业选择;阶层现实主义,始终优先区分家庭资源。

  在另一个skill里,大模型提炼了张雪峰思维3条铁律:一,就业导向;二,家庭条件匹配;三,排除法优先。在此基础上,用6步决策流程便能模拟张雪峰的输出。

  “所谓蒸馏一个人的skill,其实就是把人的工作流程或者分析问题的方式,让大模型总结出来,最后固定成一套输出流程。”活跃在AI技术社区的天明说,张雪峰本质提供的是一套对社会现实的认知框架,这类思路恰恰是容易被大模型捕捉和复现的。

  难复制的是判断力。多位开发者给出的共识是,目前张雪峰skills的相似度大概有50%~60%,脱离数字永生的修辞,复现能力还很有限。

  开发者Alex做过一次测试,在模拟一位甘肃考生填报志愿时,“张雪峰.skill”虽然联网检索了最新分数线,但在信源筛选上出现偏差,将应该“冲一把”的大学误判为稳妥选项。skill能提供张雪峰风格的情绪价值,但缺少对决策准确度的保证。

  几位开发者还都提到了定向乡村医生的例子。在2024年的一场直播中,张雪峰建议一位想学中医的河北农村女孩,考虑当地的定向乡村医生计划,许多网友也第一次了解乡村医生这一职业,而当前的张雪峰skills只能整合偏表层的社会信息,无法带来超出认知的惊喜。

  “张雪峰的很多判断,可能是他的内幕消息,也可能来自长期社会经验的沉淀。这些信息既不在公开网络里,普通人也很难通过日常生活积累。” 开发者Spark向我们解释,他也尝试过在RAG(联网搜索)等环节加强信息检索能力,但如果不是公开已知信息,大模型不可能凭空生成。

  “所以从这个角度看,个人经验才是张雪峰的护城河,这一点很难被蒸馏。”Spark说。张雪峰的个人知识面,和普通人上网查公开资料之间的差异,可能是永远无法被AI复制的地方。

  另一位开发者Eric正在迭代自己的张雪峰skill,想在高考季推向更大规模的应用。Eric反而乐观认为,这种“经验差”本质上只是信息分散——像选调计划、乡村医生招聘,这些内容都已经散落在公开渠道中。通过查漏补缺和补齐数据,看似个人独有的认知,迟早也能复现出来。

  “炼化”任何人的思维方式

  “炼化”过程并不神秘,也不复杂。从构思到完成张雪峰skill,几位开发者给出的平均耗时是2~3小时。虽然他们都是程序员或AI算法工程师出身,但这一过程并不需要编写代码。

  “炼化”第一步,都是收集数据。大多开发者会优先选择文字语料,例如“张雪峰.skill”的主要来源是《你离考研成功就差这本书》等张雪峰教辅书籍、媒体专访、人生时间线梳理。Github上还有不少项目整理了张雪峰经典语录,能被直接调用。

  反而是张雪峰辨识度最高的直播视频,很少成为数据源。一方面原因是缺乏官方完整回放,另外也因为数据处理成本更高。Spark说,自己大部分开发时间就消耗在让Claude Code(Claude智能体)扒网友录制的视频切片,进行语音转写文字上。

  “炼化”第二步,便是分析这些语料,写成skill文件。前文提到的“心智模型”“决策流程”,都是AI自行提炼的结果。开发者的主要工作是写提示词、设定规则,然后监督AI干活。

  所以也可以说,“炼化”并不意味着新的智能涌现,它考验的仍然是开发者的提示词能力,即他们如何指挥大模型拆解问题。

  这也是为什么一个开源项目“女娲.skill”能在Github上收获超过4000个星标。它直接写好了一套“炼化”流水线操作,输入一个名字后,智能体会自动完成调研、提炼、验证的流程——先全网收集著作、博客、社交媒体和人生时间线,然后提炼出5~7个心智模型和决策启发,接着构建相应的人物skill,最后验证质量。

  “张雪峰.skill”正是在这一基础上完成。除了张雪峰,“女娲.skill”还蒸馏了张一鸣、马斯克、乔布斯、野兽先生等13个公众人物。

  如果把时间往前推两年,这一幕并不陌生,ChatGPT刚流行时,马斯克AI、乔布斯AI已是常见玩法。但现在的人物Skill有着本质不同,关键变化是上下文(context)的容量和输入方式。

  “前一代的AI虚拟角色扮演,只能把很长的context训练进大模型参数里,而不是在对话过程中实时理解。”Spark解释,语料质量决定了“炼化”一个人的上限,现在有了能7x24小时运作的智能体和即插即拔的skill,开发者已经能把大量context直接作为对话语料喂给大模型。

  这些技术变化意味着,复制一个人的操作步骤被压缩得非常简单,同时能达到更好的效果。理论上确实可以说,任何人都能轻松“炼化”另一个人的思维了。

  但一个容易忽视的前提是,这个人本身足够可复制。

  现在能被复现的,几乎都是高度曝光、需要固定表达模板的公众人物。“他们之所以能被模拟,主要还是因为本身已经是商业化运作的个人IP了。”Spark说,这些人物已经完成过多次自我抽象,把长期经验固定为一套认知方法论,并持续对外输出,例如马斯克推崇的第一性原理,乔布斯的less is more产品设计理念。

  相比之下,普通人的表达往往是零散的、情境化的,很难在大模型的平均拟合中形成稳定轮廓。而情绪、高阶直觉和专业经验,也无法被蒸馏

  更根本的缺口是,这类人物skill并不具备对现实和社会规则的持续理解能力。一个马斯克skill可以用第一性原理分析问题,但不可能贡献特斯拉的点子。

  “如果要理解现在炼化某个人的价值,主要还是充当辅助工具,在头脑风暴的时候给我一些新的思考角度”,天明说,但skil还无法取代判断,更无法替代创造。

  争议边界

  我们既需要把skill放回一个更客观的技术位置看待,但也不能忽视,它正在挑战法律与伦理边界。

  开发者郭凌在自己的张雪峰skill项目中,明确写进了几条合规原则:仅收集开源语录,项目不直接命名“张雪峰AI”,不声称代表张雪峰本人立场,输出回复里鼓励用户寻求专业人工咨询。

  “其实对我们做技术的来说,还可以进一步实现更逼真的效果,像是用特定声音把回答读出来,但我觉得做到现在这个程度已经够了。”郭凌向我们解释,再往前走,侵权风险就会非常现实。这也是多位开发者都在考虑的问题。

  “炼化”过程的许多争议,恰恰也是大模型的核心法律争议,比如能不能抓取公开数据训练AI,目前还没有明确答案。但在张雪峰的个例里,侵权风险不小。

  天元律师事务所合伙人李昀锴律师表示,张雪峰的直播切片、视频、课程内容,在我国《著作权法》中属于视听作品,第三者擅自抓取这些数据进行模型训练,很可能构成著作权侵权。公开并不等于免费,尤其当相关权益归属于张雪峰公司时,商业影响会进一步放大。

  张雪峰家属也可以根据民法典,主张对逝者的姓名、肖像、名誉权等进行保护。特别是在skill场景中里,一旦涉及第三人的姓名、头像和声音,未经明确授权,往往会被认定为典型侵权行为。对公众人物而言,这些人格要素本身就具有明确的商业价值,维权动力也更强。

  反过来看开发者一侧,skill能否被视为知识产权作品、得到法律保护?恐怕有难度。

  李昀锴的判断是,skill更接近保存好的工作流程,在司法实践中,大部分提示词会被认定为操作方法或指令,而非具有独创性的表达,因此难以获得著作权保护。相比之下,将其作为商业秘密保护,或许更现实。

  如果说法律问题还在寻找边界,那么伦理层面的不适感是无法避免的。从“同事skill”“前任skill”到“张雪峰skill”,互联网社区掀起了一波恐慌和批评。虽然它们很大程度带有玩梗性质,但背后的开发思路在说:人的聊天记录、社交媒体乃至工作流程,都可以被轻松上传分析,并被作为工具使用。

  今年3月《人工智能科技伦理审查与服务办法(试行)》发布,对高校、科研机构和大型企业提出明确的伦理要求,例如隐私保护和伦理审查。但对于个人开发者和创业小团队,伦理约束仍然有限,更多依赖自觉。

  “如果接下来人的工作经验、协作方式甚至风格特征都能被模块化,那么凝聚其中的劳动价值、知识产权和人格尊严,到底应当如何保护?”看到“同事skill”后,清华大学科技发展与治理研究中心主任助理陈天昊曾向我们发问。

  当“炼化”一个人变得如此简单,我们究竟能得到什么,又会为此付出哪些代价?相比眼下的skill热潮,这可能会是更有长期意义的思考。

(文章来源:21世纪经济报道)